Compartir
Publicidad

Google sabrá qué hacemos y dónde para que nuestro móvil nos ofrezca la mejor app posible

Google sabrá qué hacemos y dónde para que nuestro móvil nos ofrezca la mejor app posible
8 Comentarios
Publicidad
Publicidad

Últimamente todo parece relacionado de una u otra forma con la inteligencia. Cuando no hablamos de motores de IA para chats conversacionales, asistentes y demás, lo hacemos sobre machine learning y avances en conseguir que los smartphones sean aún más inteligentes. Ahora Google, durante su I/O, ha propuesto un paso intermedio, hacer más inteligentes sus aplicaciones.

No se trata de un sistema de inteligencia artificial, por supuesto, sino de "gatillos" que el smartphone podrá configurar por sí mismo para tratar de hacerlos la gestión del smartphone más sencilla. Lo que Google busca es que las aplicaciones Android puedan abrirse de forma automática en base a qué estemos haciendo con el móvil o dónde estemos.

Acciones contextuales con la API Awareness

Apps

La idea de Google está bastante clara en este sentido y así lo ha plasmado en el artículo que han publicado en el blog de desarrolladores Android acerca de su nueva API, Awareness, abriendo la puerta a que éstos vayan preparándose para que el sistema sepa en cada momento qué está haciendo el usuario con el teléfono móvil o dónde se encuentra para ejecutar apps en ese sentido.

Nuestro móvil Android aprenderá de nosotros para ofrecernos las apps más adecuadas en cada momento

Así, como tareas automatizadas, en el futuro podremos ver cómo la cámara de nuestro móvil se abre automáticamente cuando estamos en el exterior, si acostumbramos a tomar muchas fotografías, o a que aplicaciones de música como Spotify o Google Play Music salten al primer plano de forma automática al conectar unos auriculares o un altavoz Bluetooth.

Concretamente, los datos que Google ha comunicado que manejará con este nuevo sistema de automatización de apertura de aplicaciones son los siguientes: Hora local, latitud y longitud, lugar en el que nos encontremos, actividad que estemos realizando, presencia o no de auriculares, clima y beacons cercanos, o dispositivos identificables.

En su momento se filtraron planes futuros de Google, conocidos como Hera, para ir integrando poco a poco su asistente, Google Now, en el núcleo del sistema operativo y este sistema de aprendizaje, que haría que el smartphone se adaptase al uso del usuario y no al revés, podría ser un fantástico primer paso para conseguirlo.

Búsqueda enriquecida de fotografías

Google Photos

Se especula también con la posibilidad de que estas acciones contextuales puedan servir también para enriquecer los metadatos de las fotografías, como capturar la información de la aplicación del tiempo para añadirla a estos metadatos y que podamos a posteriori realizar búsquedas en Google Photos mucho más precisas basadas en estos factores.

Las posibilidades de este nuevo sistema de reconocimiento del entorno y de comprensión del contexto del usuario puede ser más que interesante, pues lo lógico es que esté asociada a Google Assistant sobre el papel y puede que lo esté de forma real una vez se lance en el futuro. Google está invirtiendo mucho en esta tecnología y confiemos en que el resultado sea satisfactorio.

Aunque restaría por ver si puede desactivarse o no en las futuras versiones de Android en las que aparezca, pues puede suponer una vulneración de la privacidad salvo que la base de datos que el smartphone elabore permanezca siempre en local, sin compartirse. Algo que, con Google, nunca puede saberse a ciencia cierta.

Vía | Google Developers
En Xataka Móvil | El Deep Learning baja de las nubes directo al cerebro de tu smartphone de la mano de Qualcomm

Temas
Publicidad
Comentarios cerrados
Publicidad
Publicidad
Inicio