viernes, noviembre 22, 2024

Meta lanza su primer modelo de IA que puede procesar imágenes

- Advertisement -
Compártir...

Meta lanzado Llama 3.2su primer modelo de visión multimodal que puede comprender tanto imágenes como texto. durante el Meta Conexión 2024La empresa mostró una nueva competencia para otras empresas de Inteligencia Artificial (IA) como Anthropic y OpenAI.

Llama 3.2 podría permitir a los desarrolladores crear aplicaciones de inteligencia artificial más avanzadas, como aplicaciones de realidad aumentada que brindan comprensión de video en tiempo real, motores de búsqueda visual que clasifican imágenes según el contenido o análisis de documentos que resumen largos fragmentos de texto.

Según Meta, a los desarrolladores les resultará fácil implementar el nuevo modelo. Los desarrolladores tendrán que hacer poco más que agregar esta “nueva multimodalidad y poder mostrar imágenes de llamas y hacer que se comuniquen”, dijo al sitio web Ahmad Al-Dahle, vicepresidente de IA generativa de Meta. El borde.

Meta ha puesto sus modelos a disposición para su descarga en llama.com y Hugging Face, que permite a los desarrolladores trabajar con ellos en una amplia variedad de entornos, desde servidores locales hasta la nube.

¿Qué hay de nuevo en Llama 3.2?

El nuevo Llama 3.2 no es un modelo de lenguaje cualquiera, es una herramienta con modelos más pequeños y medianos que van desde 11 mil millones (11B) hasta 90 mil millones (90B) de parámetros.

Según Meta destaca su capacidad para comprender imágenes, función clave que le permite capturar gráficos, tablas e incluso identificar objetos a partir de descripciones en lenguaje natural.

Pongamos un ejemplo práctico: imagina que tienes un gráfico de ventas de tu empresa y te preguntas en qué mes obtuviste mejores resultados. Con Llama 3.2 se podía preguntar directamente y el modelo analizaba la gráfica identificando el mes con mayor rendimiento. Además, también es capaz de generar descripciones de imágenes, lo que puede resultar increíblemente útil en aplicaciones como redes sociales o herramientas de trabajo colaborativo.

Llama 3.2: Meta lanza su primer modelo de IA que puede procesar imágenes - llama-32-meta-2Llama 3.2: Meta lanza su primer modelo de IA que puede procesar imágenes - llama-32-meta-2

Meta da voz a su IA

Llama 3.2 incluye nuevas capacidades multimodales que le permiten responder no solo en texto, sino también en las voces de celebridades como Dame Judi Dench, John Cena, Kristen Bell y otros. Imagínate enviar un mensaje por WhatsApp y que te responda con la voz de un famoso.

Meta AI también podrá responder a fotografías en chats, cambiar fondos en imágenes o añadir y eliminar elementos, lo que le da un plus en cuanto a personalización visual. También están experimentando con herramientas de traducción, doblaje de vídeos y sincronización de labios, lo que suena fascinante si se piensa en las posibilidades de crear contenido completamente personalizado.


Web Adictos

#Meta #lanza #primer #modelo #puede #procesar #imágenes


Compártir...
- Advertisement -

Relacionados

Populares

Nuestro Canal de Telegram

spot_img