Gemini continúa creciendo y ahora está trabajando en una función que permitirá a los usuarios tener Una conversación más directa con sus correos electrónicos, documentos y archivos en general que se encuentran en las aplicaciones de Google.
Esta nueva funcionalidad aún no se ha lanzado oficialmente, pero ya se ha detectado en la versión beta de la aplicación Gemini, pero los detalles de cómo funcionará y lo que se puede hacer con ella ya se conoce, Más allá del chat que ya está disponible en algunos pagos de Payogle.
Gemini, el chatbot desarrollado por Google, Ya tiene la capacidad de interactuar con herramientas como Gmail, Drive, Calendar, Google Home y servicios externos como Spotify. Esta interacción no se limita a las respuestas automáticas, pero incluye acciones ejecutables: puede leer y resumir documentos almacenados en la unidad, administrar citas del calendario del usuario o encender los dispositivos de inicio inteligentes.
Todo esto sucede dentro de la interfaz de texto de chatbot, Pero el nuevo paso implica mover estas capacidades a Gemini LiveLa variante de interacción de voz y video.

Según los informes de la policía de Android y la autoridad de Android, Gemini Live se prepara para adoptar las “aplicaciones” o las extensiones de Géminis, una función que permitirá extender su uso más allá de la simple conversación, habilitando una sinergia operativa más fluida con el entorno digital diario del usuario.
Hasta ahora, Gemini Live ofrecía la posibilidad de tener conversaciones ininterrumpidas y naturales con el modelo de idioma, e incluso analizar el contenido que se muestra a través de la cámara o la pantalla compartida del teléfono. Con la próxima incorporación de extensiones, esta experiencia se volverá aún más poderosa.
La clave de esta evolución radica en la posibilidad de ejecutar acciones complejas dentro de una conversación hablada o visual con Gemini Live. Por ejemplo, Será suficiente para que el usuario apunte a la cámara de su teléfono a una bombilla inteligente para que el asistente comprenda la intención de encenderla y realizar la acción a través de Google Home.

Lo mismo sucederá si el usuario señala a su altavoz inteligente y le pide que reproduzca una canción específica de Spotify.
Según el análisis APK de la versión beta de Google (versión 16.17.38.sa.arm64 beta), ya hay referencias directas a esta implementación en el desarrollo. Aunque no hay una fecha de lanzamiento oficial, Se presume que Google podría anunciarlo en su evento de Google I/O 2025Manteniéndolo como una carta fuerte para presentar los avances en el entorno diario.
Por ahora, Se sabe que la incorporación de estas funciones se llevará a cabo en fases, repitiendo la estrategia que la compañía utilizó para implementar Gemini en sus diferentes versiones. Esto etapa la progresión tiene como objetivo garantizar la estabilidad del sistema y refinar la compatibilidad con múltiples servicios asociados.
Gemini Live podrá ejecutar comandos simples y puede Procesar información visual capturada a través de la cámara o la pantalla compartida y conecte esa interpretación con servicios como Gmail, Calendar o Drive.

Esto permitirá, en medio de una conversación fluida, el usuario puede recibir respuestas contextuales vinculadas a sus datos personales, documentos o eventos No es necesario interrumpir el intercambio o abandonar la aplicación.
Por ejemplo, al ser diálogo con Gemini Live, un usuario podría solicitar un resumen de un documento de unidad específico o consultar la disponibilidad para una reunión sin la necesidad de escribir nada. IA extraería la información correspondiente y respondería en tiempo realcompletando así un ciclo de interacción continua, sin fricción.
Además de los dispositivos móviles, esta funcionalidad se proyecta como un componente central de la estrategia de Google para sus futuros productos de realidad extendida.
En colaboración con Samsung, la compañía desarrolla Gafas inteligentes mejoradas por Android XRque incluirá a Gemini Live como un asistente virtual integrado. La posibilidad de mirar un objeto o entorno y hablar directamente con el Asistente para ejecutar una acción marca un punto de inflexión en la interacción hombre-máquina.