Gemeini tiene cada vez más presencia en los dispositivos de Google, lo que no hace más que vaticinar lo que llevamos años viendo de que poco a poco ocupe el lugar de Google Assistant. La compañía ha mostrado en más de una ocasión el potencial que tiene este servicio si se usa como asistente virtual y ahora parece que la firma está dispuesta a dar el siguiente paso adelante que no es otro que el de ver qué es lo que hay a tu alrededor y darte información de ello.
La compañía ha lanzado este nuevo anuncio en el Mobile World Congress 2025, un momento clave en el que la compañía ha aprovechado para poner en valor sus grandes avances en lo que se trata el uso de la tecnología moderna en el mundo de los teléfonos móviles.
El Proyecto Astra cada vez más cerca
Son muchas las veces que Google nos ha mostrado su potencial cuando se trata de trabajar en el mundo de la tecnología móvil. No cabe duda de que Android sigue avanzando para ofrecer a los usuarios todo tipo de mejoras para que el uso de dispositivos sea mucho más sencillo y cómodo de utilizar. Para eso, la inteligencia artificial ha entrado en escena en los últimos años, aportando nuevas formas de realizar todo tipo de acciones con tal de que las búsquedas de los usuarios sean mucho más rápidas y directas, y todo gracias al trabajo y el entrenamiento mutuo.

Sin embargo, en el seno de la compañía americana todavía creen que pueden dar mucho más en este sentido y la muestra de ello es el llamado Proyecto Astra que pronto entrará en juego. Para los que no lo conozcan, se trata de un área de trabajo de Google en el que no solo se pretende mejorar las capacidades lingüísticas de Gemini, también se busca mejorar la parte móvil de la inteligencia artificial para sacarle mucho más partido a través de la cámara de tu móvil.
Llama o comparte pantalla con Gemini
Y es aquí donde la firma de Mountain View se ha lucido en el Mobile World Congress 2025, cuando la compañía ha mostrado al mundo las capacidades de su inteligencia artificial al interactuar con el mundo que el usuario le enseña. Y es que aquí nos encontramos con dos características esenciales que ayudarán a que los usuarios utilicen Google Lens de una manera mucho más cómoda como estás viendo en estos videos.
La primera de ellas es la más sencilla, ya que el usuario puede llamar a Gemini para compartir pantalla y que eche un vistazo a lo que ves desde tu móvil para darte información que tú necesites en función de lo que quieras preguntar por lo que tengas en la pantalla.

La segunda es mucho más interesante y todo parte de compartir lo que tienes delante mediante una videollamada. Y es que podrás llamar a Gemini para hacerle preguntas según lo que tienes delante. Podrás hacer todo tipo de preguntas en una llamada de corta duración para que la IA te de una respuesta rápida y concisa de lo que necesitas saber y teniendo en cuenta no solo su conocimiento si no los elementos que le muestras.