Quante volte è capitato che si cercasse di trovare il capo perfetto, un tutorial per creare un oggetto o istruzioni su come prendersi cura di una pianta che qualcuno ha regalato?
Gli utenti si ritrovano a fare ricerche molto divertenti ma spesso inutili sui motori di ricerca.
Capita di avere bene in mente cosa si vorrebbe trovare, ma di non avere tutte le parole adatte a descrivere quello che si stava cercando.
Google cerca sempre di escogitare nuovi modi per aiutare i propri utenti a trovare le informazioni che stanno cercando. Senza fermarsi di fronte alla difficoltà di esprimere ciò di cui hanno bisogno.
Proprio per questo motivo Google ha deciso di introdurre un nuovo modo complementare per la ricerca. La big G ha pensato di utilizzare contemporaneamente testo e immagini.
Con la ricerca multipla nell’app Lens, si può andare oltre la casella di ricerca e porre subito domande su ciò che si vede intorno a sé.
Ecco come si può utilizzare la multiricerca per aiutare gli utenti con le proprie esigenze visive, comprese domande sullo stile o l’arredamento della casa, per esempio.
Come funziona la multiricerca
Per testare la multiricerca basterà aprire l’app Google su Android o iOS e toccare sull’icona della fotocamera.
Cercare uno tra i propri screenshot o scattare direttamente una foto del mondo intorno a sé stessi, come ad esempio le forme geometriche di un parato particolare.
A questo punto scorrere verso l’alto e toccare il pulsante “+ Aggiungi alla tua ricerca” per aggiungere eventualmente del testo.
Con la multiricerca gli utenti potranno fare una domanda su un oggetto di fronte a sé stessi o perfezionare la propria ricerca per colore, marca o attributo visivo.
Se si vogliono cercare nuove informazioni, basterà aprire Lens e iniziare a partire da un oggetto. Per esempio si può catturare un elegante vestito arancione e aggiungere la query “verde” per poterlo trovare anche in un altro colore.
L’utente potrà scattare la foto del proprio set da pranzo e aggiungere la query “tavolino da caffè” per trovare un tavolo corrispondente, o scattare la foto della propria pianta di rosmarino e aggiungere la query “istruzioni per la cura”.
Google ha dichiarato che tutto questo è stato reso possibile dagli ultimi progressi nel campo dell’intelligenza artificiale, che sta agevolando moltissimo la comprensione del mondo intorno a sé stessi in modo più naturale e intuitivo.
Google sta elaborando anche nuovi modi in cui questa nuova funzionalità potrebbe essere migliorata da MUM, l’ultimo modello di intelligenza artificiale nella ricerca.
Lo scopo è quello di migliorare i risultati per qualsiasi domanda che gli utenti potrebbero mai porre. Quest’ultima funzione è disponibile in funzione beta in inglese negli Stati Uniti, con i migliori risultati per le ricerche di acquisto.