Project Astra: el asistente que ve, escucha y comprende el contexto en tiempo real
Google presentó oficialmente a Project Astra, su nuevo asistente de Inteligencia Artificial (IA) multimodal, desarrollado por DeepMind, que no solo responde preguntas, sino que comprende el entorno visual y auditivo del usuario en tiempo real.
A diferencia de los asistentes actuales, Astra puede observar a través de la cámara del teléfono o de unas gafas inteligentes, interpretar lo que ve, escuchar comandos y brindar respuestas adaptadas al contexto. Por ejemplo, si apuntás la cámara a una mesa con objetos, Astra puede identificar lo que hay, recordar dónde dejaste tus llaves y sugerirte acciones basadas en esa información.
Según Google, esta capacidad es posible gracias a una integración avanzada de modelos de lenguaje, visión por computadora y memoria de corto plazo. La IA no solo reacciona: anticipa y sugiere.
Durante la demo en vivo, Astra reconoció dispositivos electrónicos, explicó cómo se usaban, recordó ubicaciones recientes y sostuvo una conversación fluida con el usuario mientras este se desplazaba.
“Estamos construyendo un asistente que pueda ayudarte con lo que ves, lo que escuchás y lo que necesitás, todo en tiempo real”, explicó Demis Hassabis, CEO de Google DeepMind.
Google Beam: el regreso de la videollamada, ahora en 3D
El otro gran anuncio fue Google Beam, el nombre final del ambicioso Project Starline, que ahora entra en una etapa comercial tras años de prototipos.
Desarrollado en conjunto con HP, Beam promete videollamadas en 3D de alta fidelidad, en las que las personas aparecen proyectadas a tamaño real y con volumen, generando una sensación de presencia física inigualable.
Beam utiliza una combinación de cámaras 3D, sensores de profundidad, Inteligencia Artificial y compresión en tiempo real para lograr este efecto. La idea es reemplazar las videollamadas planas por experiencias más naturales, humanas y envolventes, especialmente en el trabajo remoto, educación o atención médica.
Según Google, Beam comenzará a ser probado en empresas seleccionadas a fines de 2025, con el objetivo de comercializarlo en 2026 como una solución para salas de reuniones avanzadas.
“No se trata solo de ver a alguien, sino de sentir que está en la misma sala que vos. Queremos eliminar la frialdad de la pantalla”.
El futuro ya no es ciencia ficción
Tanto Project Astra como Google Beam comparten un objetivo común: hacer más humana la relación con la tecnología.
Donde antes había asistentes que respondían con frases robóticas o videollamadas bidimensionales, Google propone ahora interacciones más naturales, inmersivas y anticipadas, basadas en comprensión contextual, visión y comunicación realista.
Ambas tecnologías forman parte del ecosistema impulsado por Gemini, el gran motor de IA de Google, y muestran cómo la empresa busca liderar la próxima etapa de la computación personal.