Secondo una nuova ricerca della Johns Hopkins University, i chatbot condividono informazioni limitate, rafforzano le ideologie e, di conseguenza, possono portare a un pensiero più polarizzato quando si tratta di questioni controverse.
Lo studio mette in discussione la percezione che i chatbot siano neutrali e fornisce informazioni su come l’uso di sistemi di ricerca conversazionale possa ampliare il divario pubblico su questioni scottanti e lasciare le persone vulnerabili alla manipolazione.
“Poiché le persone leggono un paragrafo riassuntivo generato dall’intelligenza artificiale, credono di ottenere risposte imparziali e basate sui fatti”, ha affermato l’autore principale. Xiang Xiao, un assistente professore di informatica alla Johns Hopkins University che studia le interazioni uomo-intelligenza artificiale. “Anche se un chatbot non è progettato per essere parziale, le sue risposte riflettono i pregiudizi o le predilezioni della persona che pone le domande. Quindi, le persone ottengono davvero le risposte che vogliono sentire.”
Xiao e il suo team condivideranno i loro risultati alla conferenza CHI sui fattori umani nei sistemi informatici dell’Association for Computing Machinery alle 17:00 ET di lunedì 13 maggio.
Per scoprire in che modo i chatbot influenzano le ricerche online, il team ha confrontato il modo in cui le persone interagivano con diversi sistemi di ricerca e le loro sensazioni riguardo a questioni controverse prima e dopo averli utilizzati.
I ricercatori hanno chiesto a 272 partecipanti di scrivere i loro pensieri su argomenti come l’assistenza sanitaria, i prestiti agli studenti o le città-santuario, e poi di cercare ulteriori informazioni online su quell’argomento utilizzando un chatbot o un motore di ricerca tradizionale progettato per lo studio. Dopo aver considerato i risultati della ricerca, i partecipanti hanno scritto un secondo saggio e hanno risposto alle domande sull’argomento. I ricercatori hanno anche chiesto ai partecipanti di leggere due articoli opposti e hanno chiesto loro quanto si fidassero delle informazioni e se trovassero estremi i punti di vista.
I ricercatori hanno scoperto che i chatbot fornivano una gamma più ristretta di informazioni rispetto alle tradizionali ricerche sul web e fornivano risposte che riflettevano gli atteggiamenti preesistenti dei partecipanti. I partecipanti che li utilizzavano erano più coinvolti nelle loro idee originali e avevano reazioni più forti alle informazioni che mettevano in discussione le loro opinioni.
“Le persone tendono a cercare informazioni in linea con le loro opinioni, un comportamento che spesso le intrappola in una camera di risonanza di opinioni simili”, ha detto Xiao. “Abbiamo scoperto che questo effetto eco è più forte con i chatbot che con le tradizionali ricerche sul web.”
Xiao ha affermato che la camera dell’eco deriva in parte dal modo in cui i partecipanti interagiscono con i chatbot. Invece di digitare parole chiave, come fanno le persone con i motori di ricerca tradizionali, gli utenti di chatbot tendono a digitare intere domande, come: Quali sono i vantaggi dell’assistenza sanitaria universale? Oppure quali sono i costi dell’assistenza sanitaria universale? Il chatbot risponderà con un riepilogo che include solo i vantaggi o i costi.
“Con i chatbot, le persone tendono ad essere più espressive e a formulare domande in modo più colloquiale”, ha detto Xiao “È una funzione del modo in cui parliamo.” “Ma la nostra lingua può essere usata contro di noi.”
Gli sviluppatori di intelligenza artificiale possono addestrare i chatbot a estrarre prove dalle domande e identificare i pregiudizi delle persone, ha affermato Xiao. Una volta che un chatbot sa cosa piace e cosa non piace a una persona, può personalizzare le sue risposte in base a ciò.
Infatti, quando i ricercatori hanno creato un chatbot con un’agenda nascosta, progettata per mettere d’accordo le persone, l’effetto della camera dell’eco è stato ancora più forte.
Per cercare di contrastare l’effetto camera dell’eco, i ricercatori hanno addestrato il chatbot a fornire risposte che non concordavano con i partecipanti. Xiao ha detto che le opinioni della gente non sono cambiate. I ricercatori hanno anche programmato il chatbot per collegarsi alla fonte delle informazioni per incoraggiare le persone a verificare i fatti, ma solo pochi partecipanti lo hanno fatto.
“Man mano che i sistemi basati sull’intelligenza artificiale diventano più facili da costruire, ci saranno opportunità per gli autori malintenzionati di sfruttare l’intelligenza artificiale per creare una società più polarizzata”, ha affermato Xiao. “Creare agenti che forniscano sempre opinioni dall’altra parte è l’intervento più ovvio, ma abbiamo scoperto che non funzionano.”
Gli autori includono lo studente laureato della Johns Hopkins University Nikhil Sharma e la ricercatrice Microsoft Q-Principal Vera Liao.
/Liberazione generale. Questo materiale dell’organizzazione/degli autori originali può essere di natura cronologica ed è modificato per motivi di chiarezza, stile e lunghezza. Mirage.News non assume posizioni aziendali o partiti e tutte le opinioni, posizioni e conclusioni qui espresse sono esclusivamente quelle degli autori. Visualizzale integralmente qui.