Google confirma que sus nuevos lentes con IA de Gemini están más cerca de lo que pensamos
La compañía tecnológica prepara su vuelta al rubro con modelos que compiten contra Meta. Los lentes con IA de Google tendrán opciones con pantalla y solo audio.
Google redefine el futuro de las gafas inteligentes con Gemini AI.
Imagen generada con IAAlphabet hizo oficial este lunes que trabaja en una nueva generación de accesorios inteligentes. Según contaron en su blog, los primeros lentes con IA de Google van a estar listos para salir a la venta en algún momento de 2026. La propuesta busca competir en un mercado que hoy lidera Meta.
La empresa confirmó que se asoció con grandes nombres para este proyecto. Entre los socios de hardware figuran Samsung, Warby Parker y Gentle Monster. Aunque todavía no mostraron los diseños finales, la estrategia es clara: ofrecer dos tipos de productos. Unos vendrán con pantallas integradas en los cristales y otros estarán enfocados cien por ciento en el audio, similar a lo que ya existe con los Ray-Ban de Meta.
Te puede interesar
Por la alta demanda, Google limita el acceso gratis a Gemini 3 Pro
Esta movida representa un intento más calculado y "fino" por parte del gigante de las búsquedas. Lejos quedó el recuerdo de los Google Glass de hace una década, que fallaron por su diseño extraño y las dudas sobre la privacidad. Ahora, con el sistema operativo Android XR, buscan que la tecnología se sienta natural.
El funcionamiento del nuevo Project Aura
Durante una demostración en las oficinas de Nueva York, se pudieron probar varios prototipos. Uno de los más llamativos es el desarrollado junto a Xreal, conocido internamente como Project Aura. De acuerdo a la información filtrada por Bloomberg, este dispositivo funciona de manera autónoma, parecido a un visor de realidad mixta, pero con un formato de anteojos más amigable. Eso sí, para andar necesita estar enchufado a una batería externa todo el tiempo.
Te puede interesar
Código rojo en OpenAI: Sam Altman frena todo para intentar alcanzar a Google
Por otro lado, los modelos más livianos dependen del celular. En estos casos, el teléfono hace el trabajo pesado de procesamiento. Esto permite que los anteojos sean finos y pasen por gafas normales. El asistente Gemini juega un papel central acá: podés pedirle que ponga música de YouTube o que analice los ingredientes de una comida que tenés enfrente para armar una receta.
En las pruebas, la función de traducción en tiempo real se llevó todas las miradas. El sistema muestra subtítulos de la conversación directamente en el lente. También se destacaron los mapas, que permiten ver la ubicación y una brújula con solo bajar la vista, sin tener que sacar el celular del bolsillo.
Mejoras clave para el Samsung Galaxy XR
Además de los lentes, hubo novedades para el visor de realidad mixta de su socio surcoreano. Google y Samsung tomaron nota de las críticas iniciales al Galaxy XR y lanzaron actualizaciones de software muy pedidas.
Una de las más importantes es el "modo viaje". Hasta ahora, usar estos visores en un auto o en un avión era un dolor de cabeza porque las ventanas virtuales se "volaban" con el movimiento. Esta función soluciona ese problema para que puedas ver una película tranquilo mientras viajas.
Los lentes inteligentes predecesores de Google
También presentaron una aplicación para conectar el visor a cualquier PC con Windows (y pronto a Mac), lo que permite ver la pantalla de la computadora en el entorno virtual. Por último, mejoraron los avatares con la función "Likeness", que escanea tu cara con el celular para crear una representación realista en las videollamadas, dejando atrás los dibujos animados que se usaban hasta hoy.




