Man mano che i sistemi di intelligenza artificiale generativa come ChatGPT di OpenAI e Gemini di Google diventano più avanzati, i ricercatori stanno ora sviluppando worm AI che possono rubare i tuoi dati riservati e infrangere le misure di sicurezza dei sistemi di intelligenza artificiale generativa, secondo un rapporto di Wired.
I ricercatori della Cornell University, del Technion-Israel Institute of Technology e di Intuit hanno creato il primo worm AI generativo chiamato “Morris II” che può rubare dati o diffondere malware e diffondersi da un sistema all’altro. Prende il nome dal primo worm rilasciato su Internet nel 1988. “Ciò significa sostanzialmente che ora hai la capacità di eseguire o effettuare un nuovo tipo di attacco informatico mai visto prima”, ha affermato Ben Nassi, un ricercatore della Cornell Tech. “Mai visto prima”
Secondo il punto vendita, il worm AI potrebbe violare alcune misure di sicurezza in ChatGPT e Gemini attaccando un innovativo assistente di posta elettronica AI con l'obiettivo di rubare dati di posta elettronica e inviare spam.
I ricercatori hanno utilizzato un “autocatalizzatore ostile” per sviluppare un worm AI generativo. Secondo loro, questo prompt fa sì che il modello di intelligenza artificiale generativa generi un prompt diverso nella risposta. Per fare ciò, i ricercatori hanno quindi creato un sistema di posta elettronica in grado di inviare e ricevere messaggi utilizzando l’intelligenza artificiale generativa, nonché ChatGPT, Gemini e LLM open source. Inoltre, hanno scoperto due modi per utilizzare il sistema: utilizzare un prompt basato su testo autocopiante e incorporare la domanda in un file immagine.
In un caso, i ricercatori hanno assunto il ruolo di aggressori e hanno inviato un’e-mail contenente un messaggio di testo ostile. Ciò “avvelena” il database dell'assistente di posta elettronica attraverso l'uso della generazione di recupero avanzato, che consente ai LLM di ottenere più dati dall'esterno del proprio sistema. Secondo Nassi, la generazione di recupero avanzato “esegue il jailbreak del servizio GenAI” quando recupera un'e-mail in risposta alla query di un utente e la invia a GPT-4 o Gemini Pro per generare una risposta. Ciò alla fine porta al furto di dati dalle e-mail.
“La risposta contenente dati sensibili dell'utente infetta successivamente nuovi host quando viene utilizzata per rispondere a un'e-mail inviata a un nuovo cliente e viene quindi archiviata nel database del nuovo cliente”, ha aggiunto.
Per il secondo metodo, il ricercatore ha affermato che “crittografando il messaggio autoripetente nell'immagine, qualsiasi tipo di immagine contenente spam, materiale abusivo o persino propaganda può essere reindirizzata a nuovi clienti dopo l'invio dell'e-mail iniziale”.
Un video che mostra i risultati mostra che il sistema di posta elettronica inoltra ripetutamente il messaggio. I ricercatori affermano di poter ottenere anche dati tramite posta elettronica. “Potrebbero essere nomi, numeri di telefono, numeri di carte di credito, numero di previdenza sociale, tutto ciò che è considerato confidenziale”, ha detto Nasi.
I ricercatori hanno anche messo in guardia contro una “cattiva progettazione architettonica” all’interno del sistema di intelligenza artificiale. Hanno anche segnalato il loro feedback a Google e OpenAI. “Sembra che abbiano trovato un modo per sfruttare le vulnerabilità di tipo injection facendo affidamento sull'input dell'utente che non è stato controllato o filtrato”, ha detto al punto vendita un portavoce di OpenAI. Inoltre, hanno affermato che stanno lavorando per rendere i sistemi “più resilienti” e che gli sviluppatori dovrebbero “utilizzare metodi che garantiscano che non lavorino con input dannosi”.
Google ha rifiutato di commentare la questione.