De de acuerdo con el blog Desde Meta, la IA en tiempo real es posible gracias a la implementación de soporte de vídeo en el dispositivo, con el que la IA puede analizar y comprender las imágenes que se están viendo en ese momento.
En este sentido, el asistente Meta AI podrá ver lo que los usuarios ven continuamente y, al comprender estas imágenes, podrá mantener conversaciones con los usuarios de una forma más diaria y natural. Por ejemplo, responder preguntas o solicitudes haciendo referencia a lo que el usuario está viendo en ese momento.
Mark Zuckerberg, director ejecutivo de Meta, compartido un mensaje en Instagram en el que asegura que está ‘construyendo un futuro donde dispositivos como las gafas inteligentes no sean sólo herramientas de comunicación, sino extensiones intuitivas de nuestras capacidades’.
Shazam y otras novedades para Ray-Ban
Meta está implementando traducción en vivo. A través de esta nueva función, las gafas inteligentes podrán traducir la voz en tiempo real entre inglés y español, francés o italiano. Por ejemplo, los usuarios escucharán todo lo que se dice en la conversación traducido a su idioma preferido automáticamente, a través de los parlantes abiertos del dispositivo. También puedes ver la traducción en forma de transcripciones en tu teléfono celular.
Finalmente, Ray-Ban Meta puede reconocer las canciones que se están reproduciendo gracias a la integración de la aplicación Shazam. De esta forma, los usuarios pueden preguntar ‘Oye Meta, ¿qué canción es esta?’, para que las gafas comiencen a analizar la canción que está sonando en ese momento y puedan reconocer al artista y el nombre de la canción.
Disponibilidad de nuevas funciones.
Meta indica en su blog oficial que están disponibles en Estados Unidos y Canadá, añadiendo que el programa de acceso anticipado está abierto a los propietarios de gafas Ray-Ban Meta de ambos países mencionados.