Los lentes inteligentes Ray-Ban Meta obtienen funciones de búsqueda visual impulsadas por IA
A partir de hoy, la IA de Meta también puede responder a tus preguntas con información en tiempo real.
Los lentes inteligentes Ray-Ban Meta están a punto de recibir algunas actualizaciones potentes gracias a las mejoras realizadas al asistente de IA de la red social. La compañía finalmente está agregando soporte para información en tiempo real al asistente integrado y está comenzando a probar nuevas funciones "multimodales" que le permiten responder preguntas basadas en tu entorno.
Hasta ahora, la IA de Meta tenía un "límite de conocimiento" de diciembre de 2022, por lo que no podía responder preguntas sobre eventos actuales o cosas como resultados de juegos, condiciones del tráfico u otras consultas que serían especialmente útiles mientras estás en movimiento. Pero eso está cambiando ahora, según el CTO de Meta, Andrew Bosworth, quien dijo que todos los lentes inteligentes de Meta en los Estados Unidos ahora podrán acceder a información en tiempo real. El cambio está impulsado "en parte" por Bing, agregó.
Por otra parte, Meta está comenzando a probar una de las funciones más interesantes de su asistente, a la que llama "IA multimodal". Las características, vistas por primera vez durante Connect, permiten que la IA de Meta responda preguntas contextuales sobre tu entorno y otras consultas basadas en lo que estás viendo a través de los lentes.
Las actualizaciones podrían contribuir en gran medida a que la IA de Meta se sienta menos artificial y más útil, lo cual fue una de mis principales quejas en mi revisión inicial de los impresionantes lentes inteligentes. Desafortunadamente, es probable que aún pase algún tiempo antes de que la mayoría de las personas con los lentes inteligentes puedan acceder a la nueva funcionalidad multimodal. Bosworth dijo que la versión beta de acceso anticipado solo estará disponible en los Estados Unidos para un "pequeño número de personas que se inscriban" inicialmente, y se presume que el acceso ampliado llegará en algún momento de 2024.
Tanto Mark Zuckerberg como Andrew Bosworth compartieron algunos videos de las nuevas funciones que dan una idea de lo que puede ser posible. Según los clips, parece que los usuarios podrán activar la función con comandos que comiencen con "Hey Meta, mira y dime". Zuckerberg, por ejemplo, le pide a la IA de Meta que mire una camisa que está sosteniendo y le pida sugerencias sobre pantalones que podrían combinar. También compartió capturas de pantalla que muestran a la IA de Meta identificando una imagen de una fruta y traduciendo el texto de un meme.
En un video publicado en Threads, Bosworth dijo que los usuarios también podrían preguntarle a la IA de Meta sobre su entorno inmediato, así como preguntas más creativas como escribir subtítulos para fotos que acaban de tomar.
Te dejo un video para que te enteres de que van las gafas de meta por parte de la usuaria de YouTube Clipset:
¿Buscas crear un sitio web como el mio para tu proyecto personal o empresa?
Sitesupremacy te ofrece los mejores servicios de alojamiento web para que tu sitio web se cargue rápidamente y sea seguro.
Con Sitesupremacy, obtendrás:
- Servidores de última generación con conexiones de fibra óptica
- Protección DDoS avanzada
- Copias de seguridad automáticas
- Soporte técnico 24/7
¡Prueba Sitesupremacy hoy y experimenta la diferencia!
Visita Sitesupremacy.com para obtener más información.