Conocemos Google Lens desde mayo de 2017, cuando fue presentado durante la conferencia Google I/O. Se trata de un servicio de reconocimiento de imagen mediante inteligencia artificial que te da información adicional sobre lo que estás fotografiando. Vamos, como Google Goggles, pero adaptado a los tiempos que corren.
Ahora vemos cómo se extiende por el ecosistema de Google un poco más. Si hace un mes llegaba a los Google Pixel de primera generación vía Google Fotos, hoy empieza a llegar al segundo lugar desde el que se podrá acceder: al Asistente de Google. Eso sí, sigue siendo una función exclusiva de los teléfonos Pixel.
Escritura, voz e imagen
En un principio solo podías comunicarte con el Asistente de Google mediante voz: "Ok, Google, haz esto", "Ok, Google, haz esto otro". Más tarde llegó la interacción mediante texto, es decir, escribiendo. Ahora se completa el círculo, por ahora, con la adopción de la imagen como modo de interactuar con el Asistente.
Algunos usuarios se han encontrado con un nuevo botón en su Asistente de Google: el botón de Lens. Al pulsarlo se abre la cámara, que como ya sabemos usará reconocimiento de imagen en tiempo real para ofrecerte todo tipo de información sobre lo que estás viendo.
Al pulsar el botón se abre la cámara, y debes tocar en el objeto del cual quieres obtener información adicional. Si Google Lens lo reconoce, te mostrará información en una tarjeta flotante, con acciones adicionales cuando proceda.
Por ahora parece que el despliegue de Google Lens en el Asistente de Google está en su primera fase y son pocos los usuarios que lo tienen activado. La función es todavía oficialmente exclusiva para Pixel, aunque lo más probable es que acabe extendiéndose al resto de teléfonos más adelante, igual que pasó con el Asistente de Google.
Publicado bajo licencia Creative Commons.
No hay comentarios.:
Publicar un comentario