La fase successiva della ricerca su Google: il contesto è re

La fase successiva della ricerca su Google: il contesto è re

Al suo evento Search On di oggi, Google ha introdotto diverse nuove funzionalità che, nel loro insieme, sono il suo tentativo più forte di convincere le persone a fare qualcosa di più che digitare poche parole nella casella di ricerca. Sfruttando la nuova tecnologia di apprendimento automatico per il Multitasking Unified Model (MUM) in piccoli modi, l’azienda spera di avviare un ciclo virtuoso: fornirà più dettagli e risposte ricche di contesto, e in cambio spera che gli utenti chiedano più dettagli e contesto -Ricche domande. L’azienda spera che il risultato finale sia un’esperienza di ricerca più ricca e profonda.

Il vicepresidente senior di Google Prabhakar Raghavan sovrintende alla ricerca insieme all’assistente, alla pubblicità e ad altri prodotti. Gli piace dire – e lo ha ribadito in un’intervista domenica scorsa – che “la ricerca non è un problema risolto”. Potrebbe essere vero, ma i problemi che lui e il suo team stanno cercando di risolvere ora non riguardano tanto i litigi sul web, quanto piuttosto l’aggiunta di un contesto a ciò che trovano lì.

Da parte sua, Google inizierà a dimostrare la sua capacità di riconoscere gruppi di argomenti legati all’utilizzo del machine learning e di presentarveli in maniera organizzata. L’imminente riprogettazione della Ricerca Google inizierà a mostrare le caselle “Cose da sapere” che ti indirizzano a diversi sottoargomenti. Quando c’è una sezione di un video che è rilevante per l’argomento generale, anche quando non è il video nel suo insieme, verrai inviato lì. I risultati dei tuoi acquisti inizieranno a mostrare le scorte disponibili nei negozi vicini e persino i vestiti di stili diversi associati alla tua ricerca.

READ  Rivelare le regole per progettare la morfologia degli organi ciliari

Da parte tua, Google – sebbene il termine “domanda” sia probabilmente migliore – offre nuovi modi per cercare oltre la casella di testo. Sta facendo una grande spinta per spostare il software di riconoscimento delle immagini di Google Lens in più posti. Sarà incluso nell’app Google su iOS e nel browser web Chrome sui dispositivi desktop. E con MUM, Google spera di convincere gli utenti a fare di più che identificare fiori o punti di riferimento, ma utilizzare Lens direttamente per fare domande e fare acquisti.

“È un ciclo che penso continuerà ad intensificarsi”, afferma Raghavan. “Più tecnologia porta a una maggiore convenienza per l’utente, porta a una migliore espressione dell’utente e richiederà più di noi tecnicamente”.

Google Lens consentirà agli utenti di eseguire ricerche utilizzando immagini e perfezionare la query con il testo.
Immagine: google

Questi due aspetti dell’equazione di ricerca hanno lo scopo di avviare la fase successiva della ricerca di Google, poiché gli algoritmi di apprendimento automatico diventano più importanti nel processo organizzando e presentando direttamente le informazioni. A questo proposito, gli sforzi di Google saranno notevolmente aiutati dai recenti progressi nell’elaborazione del linguaggio dell’intelligenza artificiale. Grazie ai sistemi noti come Large Language Models (MUM è uno di questi), l’apprendimento automatico è molto più bravo a mappare le connessioni tra parole e argomenti. Sono le competenze che l’azienda sfrutta per rendere la ricerca non solo più accurata, ma più esplorativa e, si spera, più utile.

Un esempio di Google è utile. Potresti non avere la prima idea del nome delle parti della tua bici, ma se qualcosa è rotto, dovrai saperlo. Google Lens può identificare visivamente il deragliatore (la parte del cambio che è appesa vicino alla ruota posteriore) e invece di darti solo un’informazione separata, ti permetterà di porre domande sulla riparazione di quella cosa direttamente e di portarti alle informazioni (in questo caso ottimo) youtube top permanente canale).

Spingere per convincere più utenti ad aprire Google Lens più spesso è fantastico di per sé, ma il quadro più ampio (per così dire) riguarda Google che cerca di raccogliere più contesto attorno alle tue query. Ricerche multimediali più complesse che combinano testo e immagini, afferma Raghavan, richiedono “un livello di contesto completamente diverso che il nostro provider dovrebbe avere, e quindi ci aiuta enormemente a ottenere il maggior contesto possibile”.

Siamo molto lontani dai cosiddetti “10 link blu” dei risultati di ricerca forniti da Google. Da molto tempo mostra caselle informative, risultati di immagini e risposte dirette. Gli annunci di oggi sono un passo avanti, poiché le informazioni fornite da Google non sono solo un’etichetta di informazioni pertinenti, ma un riassunto di ciò che le sue macchine capiscono raschiando il web.

In alcuni casi, come con lo shopping, questa distillazione significa che probabilmente invierai più visualizzazioni di pagina a Google. Come con Lens, è importante osservare questa tendenza: le ricerche su Google ti spingono sempre più verso i prodotti di Google. Ma anche qui c’è un pericolo maggiore. Il fatto che Google ti dica più cose direttamente aumenta l’onere che porti sempre: parlare con meno pregiudizi.

Con questo intendo pregiudizio in due significati diversi. Il primo è tecnico: i modelli di apprendimento automatico che Google vuole utilizzare per migliorare la ricerca hanno problemi ben documentati con pregiudizi razziali e di genere. Sono stati addestrati leggendo ampie porzioni del web e, di conseguenza, tendono a riconoscere modi di parlare scadenti. I problemi di Google con il team di etica dell’IA sono ben documentati a questo punto: è Due ricercatori senior licenziati Dopo aver pubblicato un articolo su questo argomento. Come ha affermato il vicepresidente della ricerca di Google, Pandu Nayak il bordo‘S James Vincent nel suo articolo sugli annunci MUM di oggiGoogle comprende che tutti i modelli linguistici hanno dei pregiudizi, ma l’azienda crede di poter evitare di “offrirli alle persone per il consumo diretto”.

Una nuova funzione chiamata “Cose da sapere” aiuterà gli utenti a esplorare argomenti rilevanti per le loro ricerche.
Immagine: google

Qualunque cosa sia (e per essere chiari, potrebbe non essere) evita un’altra questione di dipendenza e un altro tipo di pregiudizio. Quando Google inizia a raccontarti più direttamente le proprie combinazioni di informazioni, da quale punto di vista parli? Come giornalisti, parliamo spesso di come la cosiddetta “vista dal nulla” sia un modo inappropriato di presentare i nostri servizi. Qual è il punto di vista di Google? Questo è un problema che l’azienda ha dovuto affrontare in passato ed è talvolta noto come il problema dell'”unica risposta vera”. Quando Google cerca di dare alle persone risposte brevi e decisive con sistemi automatizzati, spesso finisce Pubblica informazioni sbagliate.

Nell’introdurre questa domanda, Raghavan risponde indicando la complessità dei moderni paradigmi linguistici. “Quasi tutti i paradigmi linguistici, se li guardi, sono matrimoni in uno spazio ad alta dimensione. Alcune parti di questi spazi tendono ad essere più affidabili e alcune parti meno affidabili. Possiamo valutare queste cose meccanicamente abbastanza facilmente. La sfida è , dice Raghavan, come introdurre parte di questa complessità all’utente senza confonderlo.

Ma sento che la vera risposta è che, almeno per ora, Google sta facendo il possibile per evitare di affrontare la questione del suo punto di vista del motore di ricerca, evitando aree in cui potrebbe essere accusato, nelle parole di Raghavan, di “editing eccessivo” . Spesso quando parlano con i dirigenti di Google di questi pregiudizi e problemi di fiducia, si concentrano su parti facilmente identificabili di quegli spazi ad alta dimensione come “affidabilità”.

Ad esempio, le nuove caselle “Cose da sapere” di Google non verranno visualizzate quando qualcuno cerca cose che Google ha identificato come “particolarmente dannose/sensibili”, anche se il portavoce ha affermato che Google “non consente o blocca determinate categorie regolamentate”. , ma i nostri sistemi sono in grado di capire quali argomenti dovrebbero o non dovrebbero mostrare questi tipi di funzionalità.”

La ricerca di Google, i suoi input e output, i suoi algoritmi e i suoi modelli linguistici sono diventati quasi inimmaginabilmente complessi. Quando Google ci dice che ora può capire i contenuti dei video, riteniamo che abbia le capacità computazionali per farlo, ma la verità è che anche l’indicizzazione di una raccolta così vasta è un compito enorme che fa impallidire il compito originale di indicizzare il primo Web. (Google indicizza solo gli script audio per un sottoinsieme di YouTube, per la cronaca, anche se con MUM mirano a fare indicizzazione visiva e altre piattaforme video in futuro.)

Spesso quando parli con gli informatici, il problema del venditore ambulante apparirà. È un famoso puzzle in cui si tenta di calcolare il percorso più breve possibile tra un dato numero di città, ma è anche una ricca metafora per pensare a come i computer fanno le loro macchinazioni.

“Se mi dai tutte le macchine del mondo, posso risolvere casi abbastanza grandi”, dice Raghavan. Ma per quanto riguarda la ricerca, dice che è irrisolta e probabilmente non potrà essere risolta una volta che gli verranno lanciati altri computer. Invece, Google ha bisogno di escogitare nuovi approcci, come MUM, che facciano un uso migliore delle risorse che Google può realisticamente creare. “Se mi dessi tutte le macchine là fuori, sarei ancora limitato dalla curiosità umana e dalla mia consapevolezza.”

I nuovi modi di comprendere le informazioni di Google sono impressionanti, ma la sfida è cosa farai con le informazioni e come le presenterai. La cosa divertente del problema del commesso viaggiatore è che nessuno sembra fermarsi e chiedere cosa c’è esattamente nel caso, cosa mostra a tutti i suoi clienti mentre va di porta in porta?

By Riccardo Auriemma

"Esperto di Internet. Fan della TV. Analista esasperatamente umile. Pioniere di Twitter impenitente. Fanatico del caffè freelance."

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *