L’intelligenza artificiale aiuterà o ostacolerà la fiducia nella scienza?

L’intelligenza artificiale aiuterà o ostacolerà la fiducia nella scienza?


di
John Whittle

23 aprile 2024
6 minuti di lettura







Nell’ultimo anno sono emersi strumenti di intelligenza artificiale generativa – ad es ChatGPT, gemelloE lo strumento di creazione video di OpenAI Sora – Catturato l'immaginazione del pubblico.

Tutto il necessario per Inizia a sperimentare con l'intelligenza artificiale È una connessione Internet e un browser web. Puoi interagire con l'IA come faresti con un assistente umano: parlando con lei, scrivendole, mostrandole foto o video o tutto quanto sopra.



Con l’aumento della conoscenza pubblica dell’intelligenza artificiale, arriverà anche un maggiore controllo pubblico su come viene utilizzata dagli scienziati.
©Unsplash

Sebbene questa capacità rappresenti un territorio completamente nuovo per il grande pubblico, gli scienziati utilizzano l’intelligenza artificiale come strumento da molti anni.

Ma con l’aumento della conoscenza pubblica dell’intelligenza artificiale, arriverà anche un maggiore controllo pubblico su come viene utilizzata dagli scienziati.

L’intelligenza artificiale ha già rivoluzionato la scienza, con il 6% di tutto il lavoro scientifico che fa uso dell’intelligenza artificiale, non solo nell’informatica, ma anche in chimica, fisica, psicologia e scienze ambientali.

Nature, una delle riviste scientifiche più prestigiose al mondo, ha inserito ChatGPT nel proprio sito La top 10 della natura per il 2023 Alcuni degli scienziati più influenti al mondo e, fino ad allora, esclusivamente scienziati umani.

L’uso dell’intelligenza artificiale nella scienza è duplice.

Ad un certo livello, l’intelligenza artificiale può rendere gli scienziati più produttivi.

Quando Google DeepMind ha rilasciato un set di dati generato dall'intelligenza artificiale di oltre 380.000 nuovi composti fisici, Lawrence era… Berkeley Lab ha utilizzato l'intelligenza artificiale Condurre esperimenti di sintesi di composti su una scala più ampia di quella che gli esseri umani possono raggiungere.

Ma l’intelligenza artificiale ha un potenziale ancora più grande: consentire agli scienziati di fare scoperte che altrimenti non sarebbero mai state fatte.

Si trattava di un algoritmo di intelligenza artificiale scoperto per la prima volta Modelli di segnali nei dati sull'attività cerebrale Ciò segnala l'inizio di crisi epilettiche, un'impresa che nemmeno i neurologi più esperti non possono replicare.

Le prime storie di successo sull’uso dell’intelligenza artificiale nella scienza hanno portato alcuni a immaginare un futuro in cui gli scienziati collaboreranno con gli assistenti scientifici dell’intelligenza artificiale come parte del loro lavoro quotidiano.

READ  Come il metaverso può espandere lo spazio della comunicazione umana

Questo futuro è già qui. I ricercatori del CSIRO stanno sperimentando agenti scientifici di intelligenza artificiale e hanno sviluppato robot in grado di seguire istruzioni in linguaggio parlato per svolgere compiti scientifici durante il lavoro sul campo.

Mentre i moderni sistemi di intelligenza artificiale sono straordinariamente potenti, soprattutto i cosiddetti Strumenti di intelligenza artificiale generale Come ChatGPT e Gemini, presentano anche degli svantaggi.

I sistemi di intelligenza artificiale generativa sono vulnerabili a “Allucinazioni“Dove inventano i fatti.

Oppure potrebbero essere di parte. Google Gemini ritrae i padri fondatori dell'America come un gruppo eterogeneo È un caso interessante di bias di ipercorrezione.

Esiste il rischio molto reale che l’intelligenza artificiale falsifichi i risultati, e questo è già accaduto. È relativamente facile ottenere uno strumento di intelligenza artificiale generativa per farlo Citare pubblicazioni inesistenti.

Inoltre, molti sistemi di intelligenza artificiale non sono in grado di spiegare il motivo per cui producono gli output che ottengono.

Questo non è sempre un problema. Se l’intelligenza artificiale crea una nuova ipotesi che viene poi testata con i consueti metodi scientifici, non ci sarà alcun danno.

Tuttavia, per alcune applicazioni, la mancanza di spiegazioni potrebbe rappresentare un problema.

La replica dei risultati è un principio fondamentale della scienza, ma se i passi compiuti dall’intelligenza artificiale per raggiungere un risultato rimangono ambigui, la replica e la verifica diventano difficili, se non impossibili.

Ciò potrebbe danneggiare la fiducia delle persone nella scienza prodotta.

Qui occorre distinguere tra intelligenza artificiale generale e ristretta.

L’intelligenza artificiale ristretta è un’intelligenza artificiale addestrata a svolgere un compito specifico.

L’intelligenza artificiale ristretta ha già fatto passi da gigante. Google DeepMind Piega alfa Questo modello ha rivoluzionato il modo in cui gli scienziati prevedono le strutture delle proteine.

Ma ci sono anche molti altri successi meno conosciuti, come l’uso dell’intelligenza artificiale da parte di CSIRO per scoprire nuove galassie nel cielo notturno e IBM Research che lavora per sviluppare un’intelligenza artificiale che… Ha riscoperto la terza legge di Keplero sul moto planetarioO Samsung AI, che crea un’intelligenza artificiale capace Riproduzione dei risultati scientifici vincitori del Premio Nobel.

Quando si parla di intelligenza artificiale ristretta applicata alla scienza, la fiducia rimane elevata.

I sistemi di intelligenza artificiale, in particolare quelli basati su metodi di apprendimento automatico, raramente raggiungono una precisione del 100% su un determinato compito. (In effetti, i sistemi di apprendimento automatico superano gli esseri umani in alcuni compiti, e gli esseri umani superano i sistemi di intelligenza artificiale in molti compiti. Gli esseri umani che utilizzano sistemi di intelligenza artificiale generalmente superano gli esseri umani che lavorano da soli e superano anche gli esseri umani che lavorano da soli. Esistono prove scientifiche considerevoli per questo fatto, tra cui questo studio.)

READ  AI, offerta Shopify, prototipo Starline

L’intelligenza artificiale che lavora a fianco di uno scienziato esperto, che conferma e interpreta i risultati, è un modo perfettamente legittimo di lavorare, e lo è Ampiamente visto Funzionano meglio degli scienziati umani o dei sistemi di intelligenza artificiale che lavorano da soli.

I sistemi di IA generali, d’altro canto, sono addestrati per svolgere un’ampia gamma di compiti, che non sono limitati a nessun dominio o caso d’uso.

Ad esempio, ChatGPT può generare un sonetto shakespeariano, suggerire una ricetta per la cena, riassumere un corpo di letteratura accademica o generare un'ipotesi scientifica.

Quando si parla di intelligenza artificiale generale, i problemi di allucinazioni e pregiudizi sono ancora più gravi e diffusi. Ciò non significa che l’AGI non sia utile agli scienziati, ma dovrebbe essere utilizzata con cautela.

Ciò significa che gli scienziati devono comprendere e valutare i rischi derivanti dall’utilizzo dell’intelligenza artificiale in uno scenario specifico e confrontarli con i rischi derivanti dal non farlo.

Gli scienziati ora utilizzano abitualmente sistemi generali di intelligenza artificiale Per aiutare a scrivere documentiAssistere nella revisione della letteratura accademica e persino nella preparazione di piani sperimentali.

Un rischio per questi assistenti scientifici può sorgere se lo scienziato umano dà i risultati per scontati.

Naturalmente, scienziati diligenti e ben addestrati non lo farebbero. Ma molti scienziati stanno cercando di sopravvivere nel difficile settore della pubblicazione o della morte. La frode scientifica è già in aumentoAnche senza intelligenza artificiale.

L’intelligenza artificiale potrebbe portare a nuovi livelli di cattiva condotta scientifica, sia attraverso un deliberato uso improprio della tecnologia, sia per pura ignoranza perché gli scienziati non si rendono conto che l’intelligenza artificiale sta inventando tutto.

Sia l’intelligenza artificiale ristretta che quella generale hanno un grande potenziale per far avanzare le scoperte scientifiche.

READ  Avviso per i possessori di Mac poiché la correzione del bug di Apple causa nuovi problemi

In teoria, un tipico flusso di lavoro scientifico è costituito da tre fasi: comprendere il problema su cui concentrarsi, condurre esperimenti relativi a quel problema e sfruttare i risultati per un impatto nel mondo reale.

L’intelligenza artificiale può aiutare in tutte e tre queste fasi.

Tuttavia, c’è un grosso avvertimento. Gli attuali strumenti di intelligenza artificiale non sono adatti per un utilizzo ingenuo e fuori dagli schemi in un lavoro scientifico serio.

La fiducia del pubblico sia nell’intelligenza artificiale che nella scienza potrà essere acquisita e mantenuta solo se i ricercatori progettano, costruiscono e utilizzano la prossima generazione di strumenti di intelligenza artificiale in modo responsabile per supportare il metodo scientifico.

Ne vale la pena: le possibilità di utilizzare l’intelligenza artificiale per trasformare la scienza sono infinite.

Famoso fondatore di Google DeepMind Demis Hassabis disse notoriamente: “Costruire un’intelligenza artificiale più capace e generale, in modo sicuro e responsabile, ci impone di risolvere alcune delle sfide scientifiche e ingegneristiche più difficili del nostro tempo”.

È vera anche la conclusione opposta: per risolvere le sfide scientifiche più difficili del nostro tempo è necessario costruire un’intelligenza generale artificiale più capace, sicura e responsabile.

Gli scienziati australiani ci stanno lavorando.

Questo articolo è stato originariamente pubblicato da 360info Sotto licenza Creative Commons. Leggi il Articolo originale.

Il professor John Whittle è direttore del Data61 del CSIRO, il centro nazionale australiano per la ricerca e lo sviluppo nella scienza dei dati e nelle tecnologie digitali. È coautore di Responsible AI: Best Practices for Creation Trustworthy AI Systems.

Il dottor Stefan Harrer è direttore del programma AI for Science presso Data61 del CSIRO, a capo di un programma globale di innovazione, ricerca e commercializzazione volto ad accelerare le scoperte scientifiche attraverso l'uso dell'intelligenza artificiale. È autore dell’articolo su Lancet “L’attenzione non è tutto ciò di cui hai bisogno: il caso complesso dell’uso etico di grandi modelli linguistici nell’assistenza sanitaria e nella medicina”.

Stefan Harrer è l'inventore di numerosi brevetti statunitensi e internazionali concessi relativi all'uso dell'intelligenza artificiale nella scienza.












By Riccardo Auriemma

"Esperto di Internet. Fan della TV. Analista esasperatamente umile. Pioniere di Twitter impenitente. Fanatico del caffè freelance."

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *