Google y Meta actualizan sus modelos de IA en medio de la aparición de ‘AlphaChip’

Dar un golpe de zoom / Ha habido muchas noticias sobre IA esta semana, y cubrirlas a veces parece como si estuviera sucediendo en una sala llena de bombillas CRT colgantes, como esta ilustración de Getty Images.

Ha sido una semana muy ocupada en noticias sobre IA gracias a OpenAI, incluida una controvertida publicación de blog del CEO Sam Altman, el lanzamiento generalizado del modo de voz avanzado, rumores sobre centros de datos de 5GW, importantes cambios de personal y emocionantes planes de reestructuración.

Pero el resto del mundo de la IA no sigue el ritmo, hace lo suyo y produce nuevos modelos e investigaciones de IA minuto a minuto. Aquí hay un resumen de otras noticias notables sobre IA de la semana pasada.

Actualizaciones de Google Géminis

Google el martes Anunciar Actualizaciones de su gama de modelos Gemini, incluido el lanzamiento de dos nuevos modelos listos para producción que repiten versiones anteriores: Gemini-1.5-Pro-002 y Gemini-1.5-Flash-002. La empresa informó mejoras en la calidad general, con mejoras notables en matemáticas, manejo de contextos prolongados y tareas de visión. Google afirma un aumento del 7 por ciento en el rendimiento en MMLU-Pro estándar y una mejora del 20 por ciento en tareas relacionadas con las matemáticas. Pero como sabes, si has estado leyendo Ars Technica por un tiempo, los estándares de IA generalmente no son tan útiles como nos gustaría que fueran.

Junto con las actualizaciones del modelo, Google introdujo importantes recortes de precios para el Gemini 1.5 Pro, reduciendo los costos de los códigos de entrada en un 64 por ciento y los costos de los códigos de salida en un 52 por ciento para reclamaciones inferiores a 128.000 códigos. Como dijo el investigador de IA Simon Willison masculino En su blog, “A modo de comparación, GPT-4o cuesta actualmente $5/[million tokens] La entrada y la salida cuestan 15 dólares/m y el Claude 3.5 Sonnet cuesta 3 dólares/m de entrada y 15 dólares/m de salida. El Gemini 1.5 Pro ya era el más barato de los modelos fronterizos y ahora es aún más barato”.

READ  Este sencillo truco de correo electrónico ordenará tu bandeja de entrada, sin reglas complicadas ni múltiples cuentas

Google también ha aumentado los límites de precios: Gemini 1.5 Flash ahora admite 2000 solicitudes por minuto y Gemini 1.5 Pro maneja 1000 solicitudes por minuto. Google señala que los últimos modelos ofrecen el doble de velocidad de salida y una latencia tres veces menor que las versiones anteriores. Estos cambios pueden hacer que sea más fácil y rentable para los desarrolladores crear aplicaciones con Gemini que antes.

Meta lanza Llama 3.2

El miércoles estaba muerto. Anunciar Se lanza Llama 3.2, una actualización importante del conjunto de modelos de IA de pesos abiertos que hemos cubierto ampliamente en el pasado. La nueva versión incluye modelos de lenguaje grande (LLM) con capacidad de visión con tamaños de parámetros de 11B y 90B, así como modelos livianos de solo texto con parámetros 1B y 3B diseñados para dispositivos móviles y de vanguardia. Meta afirma que los modelos de visión son competitivos con los principales modelos de código cerrado en tareas de reconocimiento de imágenes y comprensión visual, mientras que los modelos más pequeños supuestamente superan a competidores de tamaño similar en diversas tareas basadas en texto.

Willison realizó algunas pruebas en algunos de los modelos 3.2f más pequeños Resultados impresionantes reportados Para modelos de talla. El investigador de inteligencia artificial Ethan Mollick Espectáculo Ejecutó Llama 3.2 en su iPhone usando una aplicación llamada PocketPal.

Meta también presentó al primer oficial”Pila de llamasDistribuciones, creadas para simplificar el desarrollo y la implementación en diferentes entornos. Al igual que con las versiones anteriores, Meta proporciona plantillas para descarga gratuita, con restricciones de licencia. Las nuevas plantillas admiten ventanas de contexto largas de hasta 128.000 tokens.

READ  Square Enix y Nintendo Co-Dev anunciaron pérdidas tras cancelar varios proyectos

La tecnología AlphaChip AI de Google acelera el diseño de chips

El jueves, Google DeepMind Anunciar Lo que parece ser un avance importante en el diseño de microchips basados ​​en IA, AlphaChip. comencé como Proyecto de investigación En 2020, ahora es un método de aprendizaje reforzado para diseñar diseños de diapositivas. Según se informa, Google ha utilizado AlphaChip para crear “diseños de superchip” en sus últimas tres generaciones. Unidades de procesamiento tensoriales (TPU), que son chips similares a las unidades de procesamiento de gráficos (GPU) diseñados para acelerar las operaciones de IA. Google afirma que AlphaChip puede crear diseños de diapositivas de alta calidad en horas, en comparación con semanas o meses de esfuerzo humano. (Según se informa, Nvidia tiene También se ha utilizado la inteligencia artificial Para ayudar a diseñar sus chips).

En particular, Google también ha lanzado un Punto de control previamente entrenado Desde AlphaChip en GitHub y comparta los pesos del modelo con el público. La influencia de AlphaChip ya se ha extendido más allá de Google, con empresas de diseño de chips como esta, dijo la compañía. mediateca Adoptar y desarrollar la tecnología para sus chips. Según Google, AlphaChip ha lanzado una nueva línea de investigación sobre inteligencia artificial para el diseño de chips, que podría mejorar cada etapa del ciclo de diseño del chip, desde la arquitectura del ordenador hasta la fabricación.

Eso no es todo lo que sucedió, pero aquí están algunos de los aspectos más destacados. Dado que la industria de la inteligencia artificial no muestra signos de desaceleración en este momento, veremos cómo resulta la próxima semana.

READ  Spotify lanza un plan premium a 10,99 dólares al mes sin audiolibros

Dejá un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio