L’etica dell’intelligenza artificiale supera il giudizio umano nel nuovo test morale di Turing

L’etica dell’intelligenza artificiale supera il giudizio umano nel nuovo test morale di Turing

Ricerche recenti suggeriscono che l’intelligenza artificiale è spesso considerata più etica e affidabile rispetto agli esseri umani nel rispondere ai dilemmi morali, evidenziando il potenziale dell’intelligenza artificiale per superare il test morale di Turing e sottolineando la necessità di una comprensione più profonda del ruolo sociale dell’intelligenza artificiale.

La capacità dell’intelligenza artificiale di affrontare le questioni etiche sta migliorando, il che spinge a ulteriori considerazioni per il futuro.

Uno studio recente ha rivelato che quando agli individui vengono offerte due soluzioni a un dilemma etico, la maggioranza tende a preferire la risposta fornita dall’intelligenza artificiale (AI) rispetto a quella fornita da un altro essere umano.

L’ultimo studio, condotto da Eyal Aharoni, professore associato presso il Dipartimento di Psicologia della Georgia State, è stato ispirato dall’esplosione di ChatGPT e simili modelli di linguaggio di grandi dimensioni (LLM) di intelligenza artificiale entrati in scena lo scorso marzo.

“Ero già interessato al processo decisionale etico nel sistema legale, ma mi chiedevo se ChatGPT e altri LLM potessero dire qualcosa al riguardo”, ha detto Aharoni. “Le persone interagiranno con questi strumenti in modi che hanno implicazioni etiche, come le implicazioni ambientali nel chiedere un elenco di raccomandazioni per una nuova auto. Alcuni avvocati stanno già iniziando a utilizzare queste tecnologie nei loro casi, nel bene e nel male. Quindi, se vogliamo utilizzare questi strumenti, dobbiamo capire come funzionano, i loro limiti e che non necessariamente funzionano nel modo in cui pensiamo quando interagiamo con loro.

Progettare un test di Turing morale

Per testare il modo in cui l’intelligenza artificiale gestisce le questioni etiche, Aharoni ha progettato una forma di test di Turing.

READ  L'ultima in Ucraina: Putin guida l'addestramento per un attacco nucleare da terra, mare e aria

“Alan Turing, uno degli inventori del computer, predisse che entro l’anno 2000, un computer avrebbe potuto superare un test in cui si presentavano a un essere umano comune due interlocutori, uno umano e l’altro computer, ma entrambi erano nascosti e il loro unico interlocutore. Il modo migliore per comunicare è attraverso il testo”, ha detto Aharoni. L’essere umano è quindi libero di porre tutte le domande che desidera per cercare di ottenere le informazioni di cui ha bisogno per determinare quale dei due interlocutori è un essere umano e quale è un computer”. Se un essere umano non è in grado di distinguere, allora un computer dovrebbe, a tutti gli effetti, essere chiamato Intelligente, dal punto di vista di Turing.

Per il test di Turing, Aharoni ha posto agli studenti universitari e all’IA le stesse domande etiche e ha poi fornito le loro risposte scritte ai partecipanti allo studio. È stato quindi chiesto loro di valutare le risposte su vari tratti, tra cui virtù, intelligenza e affidabilità.

“Invece di chiedere ai partecipanti di indovinare se la fonte fosse un essere umano o un’intelligenza artificiale, abbiamo presentato le due serie di valutazioni fianco a fianco e abbiamo lasciato che le persone presumessero che provenissero da altre persone”, ha detto Aharoni. “Sulla base di questo falso presupposto, hanno giudicato caratteristiche delle risposte come: quanto sei d’accordo con questa risposta e quale risposta è migliore?”

Risultati e implicazioni

Nella stragrande maggioranza, le risposte generate da ChatGPT sono state valutate più alte di quelle generate dagli esseri umani.

“Dopo aver ottenuto questi risultati, abbiamo fatto la grande rivelazione e abbiamo detto ai partecipanti che una delle due risposte era stata generata da un essere umano e l’altra da un computer, e abbiamo chiesto loro di indovinare quale”, ha detto Aharoni.

READ  La Laguna Blu è stata evacuata a causa dell'eruzione di un vulcano vicino a Grindavik

Affinché un’IA possa superare il test di Turing, gli esseri umani devono essere incapaci di distinguere tra le risposte dell’IA e le risposte umane. In questo caso, le persone possono notare la differenza, ma non per una ragione ovvia.

“La cosa strana è che la ragione per cui le persone riescono a notare la differenza è perché hanno valutato le risposte di ChatGPT come superiori”, ha detto Aharoni. “Se avessimo condotto questo studio cinque o dieci anni fa, ci saremmo aspettati che le persone riconoscessero l’intelligenza artificiale a causa delle sue scarse risposte. Ma abbiamo scoperto il contrario, ovvero che l’intelligenza artificiale, in una certa misura, ha funzionato molto BENE.”

Secondo Aharoni questa scoperta ha implicazioni interessanti per il futuro dell’uomo e dell’intelligenza artificiale.

“Le nostre scoperte ci portano a credere che un computer possa tecnicamente superare il test morale di Turing – e che possa ingannarci nel suo ragionamento morale. Per questo motivo, dobbiamo cercare di capire il suo ruolo nella nostra società perché ci saranno momenti in cui le persone non sanno che stanno interagendo con un computer e ci sono momenti in cui lo sanno e consultano un computer per avere informazioni perché si fidano più di altri “Le persone faranno sempre più affidamento su questa tecnologia, e sempre più noi ci affidiamo maggiore sarà il rischio nel tempo”, ha detto Aharoni.

Riferimento: “Ascrizioni a oggetti artificiali in un test di Turing morale modificato” di Eyal Aharoni, Charlene Fernandez e Daniel J. Brady, Kellan Alexander, Michael Kreiner, Kara Quinn, Javier Rando, Eddie Namias e Victor Crespo, 30 aprile 2024, Rapporti scientifici.
doi: 10.1038/s41598-024-58087-7

READ  Gli ebrei vengono fatti a pezzi. Se mia sorella fosse viva, non parleremmo nemmeno

By Italo D'Amore

"Pioniere televisivo a misura di hipster. Risolutore di problemi. Introverso umile e irritante. Lettore. Studente. Esperto di pancetta sottilmente affascinante."

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *