Per molti di noi può sembrare che Internet stia entrando in un periodo di stagnazione della fiducia.
Proprio il mese scorso, la tanto attesa apparizione sui social media della Principessa del Galles è stata rovinata dalla rivelazione di modifiche digitali alle foto, scatenando febbrili speculazioni online sulla reale.
La saga ha messo in luce il compito sempre più difficile di rilevare media che sono stati modificati digitalmente e, in alcuni casi, interamente realizzati utilizzando la tecnologia dell’intelligenza artificiale.
Quindi, come può il pubblico imparare a navigare in un panorama online sempre più popolato da immagini generate dall’intelligenza artificiale?
Gli esperti affermano che, sebbene alcuni suggerimenti possano essere d’aiuto, un cambiamento maggiore nel modo in cui visualizziamo il materiale online è inevitabile, a causa dei rapidi progressi nell’intelligenza artificiale.
Come si riconosce online un volto generato dall'intelligenza artificiale?
Ci siamo diretti al CBD di Melbourne e abbiamo chiesto alle persone se potevano dirci quale delle seguenti due destinazioni è stata creata.
Solo una persona ha indovinato correttamente il volto a destra.
Ci sono alcuni indizi sottili su cosa può essere regalato: un partecipante ha indicato come regalo gli orecchini asimmetrici.
Brendan Murphy, docente di media digitali presso la Central Queensland University, afferma che, nonostante i recenti miglioramenti nella tecnologia, un occhio allenato di solito può rilevare segnali visivi che rivelano volti generati dall’intelligenza artificiale.
“Di solito ci saranno ancora dettagli che non corrispondono del tutto”, dice Murphy.
“Anche se guardi cose come i denti, potresti scoprire che sono un po' asimmetrici: uno di troppo, uno di troppo.
“[AI] “Non capisce cos'è una faccia e non capisce cosa fa una faccia.”
Nel 2019, ABC ha identificato gli errori che gli algoritmi di intelligenza artificiale commettono spesso, come segnali visivi per aiutare a “rilevare” l’intelligenza artificiale:
- Macchie d'acqua: Sull'immagine appaiono punti luminosi e sfocati
- Problemi di fondo: Gli sfondi sembrano disordinati, gli angoli delle stanze non sono allineati e non hanno senso in termini di contesto
- Occhiali: Spesso asimmetrici, contorti o frastagliati
- Altre asimmetrie: Cerca orecchini diversi sull'orecchio sinistro e destro e diversi stili di colletti o tessuti sul lato sinistro e destro
- Poesia: Staccato dalla testa
- denti: Sono spesso dispari o asimmetrici
Tuttavia, da allora, il margine di errore di questi algoritmi di intelligenza artificiale è diminuito, rendendo quasi impossibile per gli utenti di Internet continuare a fare affidamento solo sulle imperfezioni visive per rilevare le immagini generate dall’intelligenza artificiale.
I ricercatori dell’Australian National University hanno recentemente scoperto che il pubblico si affida a segnali più intuitivi per distinguere l’intelligenza artificiale dai volti reali.
Ma hanno scoperto che questo portava ancora molti di loro fuori strada quando veniva chiesto loro di distinguere tra immagini di volti umani reali e immagini di volti generati utilizzando l’intelligenza artificiale.
Lo studio ha scoperto che le persone spesso riconoscono erroneamente le immagini generate dall’intelligenza artificiale come persone reali.
Erano anche più propensi a identificare erroneamente gli esseri umani reali come prodotti dell’intelligenza artificiale.
Guarda come gestisce queste sei immagini, alcune delle quali l'Università Nazionale Australiana ha ottenuto dal set di dati Flickr-Faces-HQ per studio:
Intelligenza artificiale o reale?
Questo è Una persona reale.
Il 90% dei partecipanti allo studio ha erroneamente identificato questa immagine come generata dall'intelligenza artificiale.
Intelligenza artificiale o reale?
Questo è Amnesty International.
Il 92% dei partecipanti allo studio ha erroneamente identificato questa foto come una persona reale.
Intelligenza artificiale o reale?
Questo è Amnesty International.
Il 93% dei partecipanti ha erroneamente identificato questa immagine come una persona reale.
Intelligenza artificiale o reale?
Questo è Una persona reale.
L'86% dei partecipanti allo studio ha erroneamente identificato questa immagine come generata dall'intelligenza artificiale.
Intelligenza artificiale o reale?
Questo è Una persona reale.
L'84% dei partecipanti allo studio ha erroneamente identificato questa immagine come generata dall'intelligenza artificiale.
Intelligenza artificiale o reale?
Questo è Amnesty International.
Il 90% dei partecipanti ha erroneamente identificato questa immagine come una persona reale.
Ben Steward, dottorando e coautore della ricerca dell’Australian National University, ha affermato che i partecipanti spesso utilizzavano l’“attrattiva” come fattore di differenziazione nel processo decisionale.
“Abbiamo scoperto che i volti dell'intelligenza artificiale erano considerati più attraenti e che questi volti avevano anche maggiori probabilità di essere identificati correttamente come intelligenza artificiale”, afferma.
“Ciò suggerisce che le persone usano segnali nei volti, come l'attrattiva, per distinguere tra l'intelligenza artificiale e i volti umani, anche se non lo sanno.”
Lo studio suggerisce che l'output del software di volti più attraenti è il risultato dell'algoritmo che produce volti con caratteristiche più “medie”.
“Sappiamo che i volti con caratteristiche nella media sono considerati più attraenti, ma sono anche più simmetrici e meno memorabili – e abbiamo trovato due caratteristiche aggiuntive che possono essere utilizzate per distinguere tra l'intelligenza artificiale e i volti umani”, afferma Steward.
Il rilevamento dei volti generato dall’intelligenza artificiale sarà impossibile in futuro?
I ricercatori hanno scoperto che mentre segnali come proporzione, familiarità e memorabilità venivano identificati come tratti associati ai volti umani dai partecipanti allo studio, essi applicavano tali tratti nella “direzione sbagliata”.
In sostanza, i partecipanti hanno sovra-identificato queste caratteristiche nei volti dell’intelligenza artificiale più che nei volti umani.
Allo stesso modo, i volti umani sono risultati più “memorabili”, una caratteristica che i partecipanti associavano ai volti dell’intelligenza artificiale.
I ricercatori dell’Australian National University descrivono questo fenomeno come “iperrealismo dell’intelligenza artificiale”.
“L'iperrealismo dell'intelligenza artificiale è il fenomeno per cui le persone credono che i volti generati dagli algoritmi dell'intelligenza artificiale siano persone reali più spesso di quanto credano che le immagini di esseri umani reali siano reali”, afferma Steward.
Murphy afferma che un futuro in cui l’iperrealismo sarà lo standard industriale per la produzione di intelligenza artificiale è proprio dietro l’angolo.
“Non penso che in un lontano futuro non ci sarà modo per una persona di conoscerlo a vista”, dice.
“Quando una cosa è determinata, i sistemi passano alla cosa successiva per raggiungere la perfezione.
“È un momento davvero interessante per pensare a cosa sia un'immagine, soprattutto con le cose che circolano sui social media.”
Cosa significa questo per il futuro di Internet?
All'inizio di quest'anno, Meta, la società madre di Facebook, ha avviato un'indagine sulle sue piattaforme dopo che foto porno profonde di Taylor Swift hanno inondato Internet.
A febbraio, Uno scrittore finanziario di Hong Kong è rimasto vittima di un'elaborata truffa, ha riferito la CNNe ha pagato 39 milioni di dollari australiani (AUD) a truffatori che hanno utilizzato deepfake generativi fingendosi alti funzionari e colleghi di lavoro durante una chiamata Zoom.
La serie di incidenti di alto profilo ha sollevato sempre più domande su come tenere conto di questa tecnologia una volta diventata un’arma.
Carl Bergstrom è uno dei ricercatori dell'Università di Washington Quale volto è reale?un test online progettato per dimostrare “la facilità con cui le identità digitali possono essere forgiate”.
Per il professor Bergstrom, mitigare questi rischi passa attraverso la consapevolezza.
“Il vero pericolo è che esistano tecnologie di cui non si sa che esistano”, afferma il professor Bergström.
“Abbiamo sempre pensato che se vedevi la foto del volto di qualcuno, doveva trattarsi di una persona reale, e per me era chiaro che eravamo troppo vicini a un tempo e a un luogo in cui ciò non era più vero.”
Nel mezzo di una “corsa agli armamenti tra attori buoni e cattivi”, l’alfabetizzazione mediatica è diventata una necessità, afferma Jane Burgess, professoressa di media digitali alla Queensland University of Technology.
“Arriva in un momento in cui c’è già una grande crisi di fiducia nei media e una grande crisi nella cultura dei media”, afferma.
Il professor Burgess afferma che esplorare e mettere in discussione le rappresentazioni della verità nei media richiede un “impegno attivo” con la tecnologia.
“Più utilizziamo questi strumenti, meglio possiamo rilevare segnali visivi”, afferma.
In che modo l’“alfabetizzazione AI” ci proteggerà?
Tuttavia, per il professor Bergstrom, la chiave per il futuro non sarà “imparare i dettagli dell’intelligenza artificiale”, ma piuttosto sapere cosa può essere falsificato e trovare modi per “triangolare ciò che è reale”.
“L’alfabetizzazione sull’intelligenza artificiale è diventata qualcosa di diverso dalla scoperta dell’intelligenza artificiale”, afferma.
“Saperlo solo perché vedi un volto non significa che ci sia una persona lì.
“Fino a [current AI models] “È abbastanza buono da ingannare le persone, quindi quando migliora, non importa se una persona è in grado di riconoscerlo.”
A marzo, il colosso tecnologico OpenAI ha lanciato il suo nuovo software di riproduzione vocale, Voice Engine, ma ne ha ritardato il lancio pubblico per “prendere una decisione più informata su se e come implementare questa tecnologia”.
scaricamento…
Il ritardo ha sollevato interrogativi sulla tecnologia sempre più accessibile utilizzata per generare deepfake e altre forme di testo, audio e video sintetizzati dall’intelligenza artificiale, con molti paesi che faticano a tenere il passo con le potenziali minacce alla sicurezza informatica poste da questi strumenti.
Il mese scorso, l’Unione Europea ha preso l’iniziativa, emanando normative epocali sull’IA, rendendole le prime nel loro genere a livello globale.
Le leggi cercano di limitare l’uso di prodotti IA “ad alto rischio”, costringendo le aziende a etichettare immagini false.
Il professor Bergström afferma che una regolamentazione di questo tipo non è la prima volta che il pubblico online si trova a dover affrontare nuovi confini.
“In passato eravamo molto bravi a triangolare attorno a questo genere di cose: la gente era molto preoccupata per Photoshop quando è uscito”, afferma.
“Ma proprio come abbiamo fatto con Photoshop, invece di preoccuparci e lasciarci prendere dal panico [AI]”Il che non credo sia necessario, penso che dobbiamo solo essere preparati.”