A A todos aquellos que se preguntan para qué sirve la Inteligencia Artificial (IA) en el día a día (si Chat GPT o el nuevo Google Bard no fueran suficientes), la compañía de Mountain View respondió hoy anunciando algunas mejoras importantes en la forma en que buscamos todos los días. superando, gracias a la IA, todas las barreras lingüísticas y logísticas.
gritando “Tu cámara es el próximo teclado” o “Si puedes verlo, puedes buscarlo.“, Gracias Lente de Google, Las cámaras de los teléfonos móviles con Android ahora se convierten en verdaderas herramientas de investigación (Los usuarios de iPhone deben abrir la aplicación de Google y hacer clic en la cámara en la cadena de búsqueda). Prácticamente todo lo que enmarquemos con el móvil se puede buscar, y encontrar. Además de estar traducido, en el caso de los textos, a 133 idiomas.
Por ejemplo, si veo unas gafas que me gustan, las enmarco y haciendo click en la foto accedo al buscador de Google que me devuelve información y opciones de compra. O bien, veo una planta que no sé cómo se llama, la enmarco e inmediatamente tengo acceso a sitios especializados que me explican qué planta es.
Es evidente que esta investigación abre multitud de posibilidades, desde ir de compras hasta entender algo desconocido por ejemplo si estamos en el extranjero, para averiguarlo sin ni siquiera tener que preguntar el nombre del delicioso dulce que estamos observando desde los escaparates de una pastelería, por ejemplo.
En los próximos meses también será posible utilizar Lente para las cosas que vemos en la pantalla del móvil. Gracias a la función “Busca en tu pantalla” en dispositivos Android en todo el mundo, puede iniciar una búsqueda desde lo que vemos en una foto o video en la web y en nuestras aplicaciones favoritas, como aplicaciones de mensajería y video, sin tener que abandonar la aplicación o experiencia específica.
Imagina que alguien te envió un video en whatsapp de sus vacaciones en Londres. Quizás hayas visto al fondo algún monumento que te haya intrigado, para saber más será suficiente toque y mantenga presionado el botón de encendido o el botón de inicio en su teléfono Android, para invocar el Asistente de Google e luego toque “pantalla de búsqueda”. Lens identificará el edificio y devolverá toda la información sobre esa ubicación.
No solo en línea, encuentre cerca de mí
Y si queremos buscar a tu alrededor lo que hemos visto, la búsqueda multitarea también te permite tomar una foto con la opción de buscar “cerca de mí”, para identificar, por ejemplo, un comercio de barrio donde comprar lo que buscamos. Esta opción está actualmente disponible en inglés en los Estados Unidos, pero se implementará a nivel mundial en los próximos meses.
Por fin, pronto también será posible introducir variables en la investigación multitarea. Por ejemplo, veo una mesa cuadrada que me gusta, pero me gustaría que fuera redonda. Hago la foto, inicio la búsqueda y agrego otra opción (diferente forma, color, tamaño, etc…). El propósito de todas estas innovaciones, como se explica Prabhakar Raghavan, vicepresidente sénior de Google, es hacer que la experiencia de investigación sea lo más fácil y completa posible cumpliendo con el lema del gigante tecnológico: “Mejorar la vida de tantas personas como sea posible”.
Y Google Maps se vuelve inmersivo
Olvidémonos de los mapas tradicionales -a los que ya estamos infinitamente agradecidos por habernos guiado hasta ahora- porque hoy Chris Phillips, vicepresidente y gerente general de Geo (la división Maps de Google) ha anunciado una innovación que lo cambiará todo. Mapas inmersivos (Live View).
¿Cuántas veces siguiendo indicaciones, aunque sean precisas, hemos tomado el lado equivocado o hemos salido? Es normal y le pasa a todo el mundo, pero no pasaría si hubiera uno. correspondencia entre el camino marcado en el mapa y lo que ven nuestros ojos. Así, además de lanzar en breve la Realidad Aumentada para los mapas de Florencia y Veneciapronto podremos planificar nuestros movimientos al milímetro sabiendo exactamente cómo es la carretera, el lugar al que queremos llegar y todos los lugares, incluso interiores, que incluye nuestra ruta.
En la práctica, al combinar todas las imágenes existentes de diferentes lugares de la Tierra, Google Maps podrá darnos una vista 3D de la ciudad, completa con una reconstrucción de los espacios interiores. (por ejemplo, Museos, Restaurantes, Centros Comerciales, Aeropuertos y Estaciones).
El viaje antes del viaje
Utilizando los avances en inteligencia artificial y visión artificial, la visualización inmersiva combina miles de millones de imágenes de Street View e imágenes aéreas para crear un modelo digital increíblemente rico del mundo. Pero no se detiene allí. Maps sigue siendo un hijo de Google, por lo que la visualización en 3D podrá también proporciona información útil como el clima, el tráfico y qué tan concurrido está un lugar.
Por ejemplo, si estamos planeando una visita al Rijksmuseum de Ámsterdam, podemos sobrevolar virtualmente el edificio y ver dónde están, por ejemplo, las entradas del museo. Con el control deslizante de tiempo, podemos ver cómo se ve el área en diferentes momentos del día. y pregunte cómo estará el tiempo. También podemos identificar los lugares más concurridos, para que tengas toda la información que necesitas para decidir dónde y cuándo ir. Y si sabemos que vamos a la hora del almuerzo, podemos explore los restaurantes cercanos e incluso eche un vistazo al interior para comprender rápidamente el ambiente de un lugar antes reservar.
El mundo en 3D
Suena a ciencia ficción, pero es solo ciencia. Como explica Google: “Para crear estas escenas reales, uutilizamos Neural Radiance Fields (NeRF), una técnica avanzada de inteligencia artificial que transforma imágenes ordinarias en representaciones 3D. Con NeRF, podemos recrear con precisión todo el contexto de un lugar, incluida la iluminación, la textura de los materiales y el fondo. Todo esto le permite comprender si la iluminación ambiental de un bar es el ambiente adecuado para una cita nocturna o si la vista de un café lo convierte en el lugar ideal para un almuerzo con amigos.“.
Digamos adiós a las sorpresas desagradables en el lugar equivocado.
Este tipo de búsqueda está actualmente disponible en Londres, Los Ángeles, Nueva York, San Francisco, París y Tokio (para Android y iPhone). Las próximas ciudades serán Barcelona, Dublín y Madrid. Y luego Live View se ampliará a 1.000 nuevos aeropuertos, estaciones de tren y centros comerciales (lugares donde es más fácil perderse o buscar baños) en Barcelona, Berlín, Frankfurt, Londres, Madrid, Melbourne, París, Praga, Sao Paulo, Singapur, Sydney, Taipei y Tokio. De momento ya cubre aeropuertos de Estados Unidos, Zúrich y Tokio.
Más noticias de Mapas
Como hemos comentado la posibilidad de explorar ciudades y calles en tiempo real, identificación de lugares y establecimientos comerciales con Realidad Aumentada afectará primero a las ciudades de Venecia y Florencia en Italia. Permitiendo a quienes los visitan acceda instantáneamente a mucha información útil, como dónde está una farmacia, si hay un restaurante cerca, qué tan popular es, qué rating tiene, etc… todo simplemente enmarcando una calle.
Pero entre las innovaciones, se da un enfoque importante a la sostenibilidad de los viajes. Si Google Maps ya es capaz de aconsejarnos sobre la ruta más ecológicamente sostenible, pronto ampliará su oferta específica para coches eléctricos – con itinerarios ad hoc y estaciones de carga, en bicicletas – con itinerarios anti-smog, ai peatones y quien me usa transporte público. Mejorando también la indicación de la ruta en tiempo real en el mapa y añadiendo fotos útiles cuando necesites dar un giro o encontrar un edificio.
Direcciones de un vistazo
Con las instrucciones de un vistazo, puede siga su viaje directamente desde la descripción general de la ruta o desde la pantalla de bloqueo. Puedes ver los tiempos estimados de llegada y el siguiente turno, información que anteriormente solo era visible al desbloquear el teléfono, abriendo la aplicación y usando el modo de navegación completa. Y si decidimos tomar otra ruta, nuestro viaje se actualizará automáticamente. Las instrucciones de un vistazo comenzarán a implementarse en todo el mundo en Android e iOS en los próximos meses, y también serán compatibles con Live Activities en iOS 16.1.
Los que aman perderse serenamente o seguir las estrellas, en cambio, pueden seguir haciéndolo sin problemas.
iO Mujer © REPRODUCCIÓN RESERVADA