Ricerca multisensoriale, mappe in realtà aumentata e traduzione di immagini. Cosa fanno gli smartphone grazie all’intelligenza artificiale di Google – Il video

Non solo il rivale di ChatGPT, Google ha integrato l’Ai in molti aspetti dell’esperienza utente offerta dai propri smartphone

A due giorni dall’annuncio del proprio chatbot basato sull’intelligenza artificiale – chiamato Bard – Google da il via a nuove funzioni che sfruttano l’Ai per cambiare l’esperienza d’uso del proprio motore di ricerca, di Maps, e del Traduttore, che, così come la ricerca pura si allontana sempre di più dal solo testo per integrare elementi visivi. La maggiore novità introdotta ieri riguarda l’applicazione Lens – disponibile sia per Android che per iOS – che a partire da un’immagine presente nel telefono, permette di selezionare e ricercare tutto ciò che appare a schermo. Se questa funzione era già disponibile, ora inquadrando un oggetto con l’applicazione sarà possibile scoprire più informazioni oltre al nome. Inquadrando una ciambella, ad esempio, sarà possibile chiedere di quali ingredienti è composta e i valori nutrizionali, qual è la ricetta per prepararla. A mesi si potrà cercare anche quale sia il negozio più vicino dove acquistarne una. Se a essere oggetto della ricerca è, ad esempio, una camicia, si può chiedere a Google di trovare una cravatta abbinata negli store online, oppure la camicia stessa, magari in un colore diverso.


Risposte a ogni domanda dell’utente

I risultati di ricerca, poi, si arricchiscono delle funzioni di Bard, che in maniera simile all’integrazione di Chatgpt con il rivale di Google, Bing, consentirà a breve di fornire all’utente testi che rispondano direttamente alle domande fatte nella barra di ricerca. Quando la risposta è univoca e precisa – ad esempio l’età di qualcuno, l’anno di uscita di un libro, la data di un evento – Google è già in grado di darla. Grazie all’Ai, però, il motore di ricerca offrirà risposte elaborate in grado di soddisfare curiosità meno puntuali, rispondendo a domande come: «Quali costellazioni posso mostrare a mio figlio stasera?». Per soddisfare questa richiesta, ad esempio, è necessario tenere presente che l’occhio di un bambino non è esperto, oltre all’area geografica dalla quale la domanda viene posta, e il periodo dell’anno di riferimento. Tutti elementi che l’Ai terrà in considerazione nell’elaborare un testo di risposta


Le integrazioni con Maps

Le applicazioni dell’Ai nei prodotti Google, poi, toccano anche Maps. Grazie alla funzione chiamata “immersive view“, diventa possibile vedere alcune città in tre dimensioni e in alta definizione, molto migliore di quella offerta da Google Earth. In Italia arriverà a breve per Venezia e Firenze, e consentirà, ad esempio di vedere come appare un monumento a varie ore del giorno e con varie condizioni meteorologiche. Zoommando, poi, senza soluzione di continuità si potrà sbirciare fin dentro agli edifici. Dalla funzione street view, invece, si potranno inquadrare le attività commerciali ai lati di una strada e l’app le riconoscerà e offrirà informazioni su di esse.

Le nuove possibilità di traduzione

Non solo, l’intelligenza artificiale e l’integrazione con le immagini entrano a far parte anche dell’app di traduzione di Google. Diventa possibile inquadrare un oggetto e ottenerne il nome in lingue sconosciute all’utente anche se non si sa che oggetto si stia inquadrando. Una funzione può tornare particolarmente utile, ed esempio, quando ci si confronta con pietanze ignote di Paesi stranieri.

Leggi anche: