AGI.- Rendere la ricerca visiva più naturale con la ricerca multipla, “un modo completamente nuovo di effettuare ricerche utilizzando contemporaneamente immagini e testo, in modo simile a come potreste trovarvi a indicare qualcosa e chiederne a un amico”. Abbattere le barriere linguistiche, con traduzioni che “fondano il testo con l'immagine di sfondo, grazie all’Intelligenza Artificiale”. E poi ancora, esplorare il mondo con la visualizzazione immersiva, “reimmaginando la definizione di mappa, che si evolverà in una visione multidimensionale del mondo reale, che permetterà di vivere un luogo come se foste lì”.
Sono alcuni degli scenari delineati da Google, il motore di ricerca controllato da Alphabet, e reso noto nel corso di Search on, evento streaming in cui la società di Mountain View ha fatto il punto su come sta reinventando alcuni dei suoi prodotti più noti e utilizzati, il motore di ricerca, il traduttore, le mappe.
L’obiettivo? Abilitare esperienze di ricerca che funzionino come le nostre menti e che siano multidimensionali”, in un mondo in cui saremo in grado di trovare esattamente ciò che stiamo cercando “combinando immagini, suoni, testo e voce, proprio come fanno le persone nella vita di tutti i giorni”. Potremo “fare domande con meno parole, o addirittura con nessuna, e noi continueremo a capire esattamente cosa intendete” ha fatto sapere Big G.
Sul fronte della ricerca visiva, la nuova frontiera di Google si chiama ‘ricerca multipla’. Introdotta all'inizio di quest'anno come beta negli Stati Uniti, ha spiegato Prabhakar Raghavan, Senior Vice President at Google, la ricerca multipla sarà estesa “a più di 70 lingue nei prossimi mesi. Stiamo portando questa funzionalità ancora più avanti con ‘multisearch near me’, che consente di scattare una foto di un oggetto sconosciuto, come un piatto o una pianta, e di trovarlo in un luogo vicino, come un ristorante o un negozio di giardinaggio. Inizieremo a diffondere ‘multisearch near me’ in inglese negli Stati Uniti quest'autunno”.
Grazie all’Intelligenza Artificiale cambierà anche il modo in cui abbattiamo le barriere linguistiche. “Siamo in grado di fondere il testo tradotto con l'immagine di sfondo grazie a una tecnologia di apprendimento automatico chiamata Generative Adversarial Networks (GAN). Se si punta la fotocamera su una rivista in un'altra lingua, ad esempio, il testo tradotto si sovrappone in modo realistico alle immagini sottostanti” ha spiegato sempre Raghavan. Secondo il top manager “grazie ai progressi dell’Intelligenza Artificiale" tradurremo le immagini.
Cambierà anche l’approccio con l'esplorazione del mondo. Modelli predittivi e computer vision saranno alla base, secondo Google, di una ridefinizione delle mappe. “Con la visualizzazione immersiva, non ci limitiamo a fornire i fatti, ma aiutiamo l'utente a farsi un'idea di un luogo prima ancora di andarci” ha detto ancora Raghavan.