Google
Foto de archivo del logo de Google.Efe

Ver, oír, asimilar y hablar: las capacidades del nuevo asistente de IA de Google

Aunque OpenIA lanzó un modelo similar, un día antes, Google se esmera en encontrar diferencias

Google presentó el martes 14 de mayo su Proyecto Astra, un asistente de inteligencia artificial (IA) con "habilidades humanas" que le permiten ver, oír, recordar, asimilar y hablar. Esta herramienta futurista está prevista para ser lanzada a finales de año.

veo

Veo: Google apuesta por el video en "alta definición" con su nuevo modelo de IA

Leer más

El anuncio, que hace unos años solo habría sido posible en el guion de una película de ciencia ficción, fue en parte eclipsado por su rival OpenAI, una empresa líder en IA que un día antes presentó una función de asistente de voz similar.

En ambos casos, los usuarios podrán realizar videollamadas al asistente y hacerle todo tipo de preguntas.

Google mostró varios ejemplos, grabados en directo y sin manipulación, en los que una de sus trabajadoras en Londres consultó al asistente sobre qué apodo ponerle a una mascota, solicitó ayuda con programas de codificación y matemáticos, e incluso para encontrar sus gafas, tras mostrarle una habitación.

Una característica destacada de estas tecnologías es su capacidad para ser interrumpidas durante sus respuestas para pasar al siguiente punto de la conversación, y también para tener distintas personalidades, aunque en ambos ejemplos se usó la voz de una mujer.

Los agentes han sido creados sobre el modelo Gemini y otros modelos de tareas específicas, y fueron diseñados para procesar información más rápido codificando continuamente cuadros de video, combinando la entrada de vídeo y voz en una línea de tiempo de eventos y almacenando en caché esta información para recuperarla de manera eficiente.

Inteligencia artificial

Sistemas de inteligencia artificial han aprendido ya cómo engañar a los humanos

Leer más

Google también sorprendió al revelar la posibilidad de utilizar esta tecnología con unas gafas inteligentes, además de con un teléfono, aunque no realizó anuncios específicos al respecto.

En su último evento de desarrolladores, Meta también mencionó que está desarrollando sus gafas inteligentes para que puedan acceder a su IA y responder a las preguntas de los usuarios sobre lo que ven.

Para seguir leyendo EXPRESO sin restricciones, SUSCRÍBETE AQUÍ