Secondo un nuovo studio del King’s College di Londra, i sistemi di auto a guida autonoma soffrono di un problema di bias. IL Stare Esame di otto sistemi di rilevamento dei pedoni basati sull’intelligenza artificiale utilizzati nella ricerca sulla guida autonoma. I ricercatori hanno analizzato più di 8.000 immagini attraverso il software e hanno scoperto che i sistemi di auto a guida autonoma erano migliori di circa il 20% nel rilevare i pedoni adulti rispetto ai bambini e del 7,5% migliori nel rilevare i pedoni dalla pelle chiara rispetto a quelli dalla pelle scura. E l’intelligenza artificiale era peggiore nel riconoscere le persone dalla pelle più scura in condizioni di scarsa illuminazione e in ambienti bassi, rendendo la tecnologia meno sicura di notte.
Per i bambini e le persone di colore, attraversare la strada potrebbe diventare più pericoloso nel prossimo futuro.
“La giustizia quando si tratta di intelligenza artificiale è quando il sistema di intelligenza artificiale tratta allo stesso modo i gruppi privilegiati e svantaggiati, il che non è ciò che accade quando si tratta di veicoli a guida autonoma”, ha affermato il dottor Ji Zhang, uno degli autori dello studio. detto in un articolo. comunicato stampa. “I produttori di automobili non pubblicano i dettagli del software che utilizzano per rilevare i pedoni, ma poiché di solito sono costruiti sugli stessi sistemi open source che abbiamo utilizzato nella nostra ricerca, possiamo essere abbastanza sicuri che affrontino gli stessi problemi di parzialità.”
Lo studio non ha testato lo stesso software utilizzato dalle aziende produttrici di auto a guida autonoma che hanno già i loro prodotti sulle strade, ma aggiunge alle crescenti preoccupazioni sulla sicurezza man mano che le auto diventano più popolari. Questo mese, il governo dello stato della California ha introdotto Waymo e il gruppo Cruise sono liberi di gestire taxi senza conducente a San Francisco 24 ore al giorno. Anzi, la tecnologia Causare incidenti E suscitando proteste nella città.
Gizmodo ha contattato diverse aziende note per le auto a guida autonoma. Cruz e Tesla non hanno risposto alle richieste di commento.
Un portavoce di Waymo ha affermato che lo studio non è rappresentativo dell’insieme affiliato Strumenti utilizzati nei veicoli aziendali. “In Waymo non utilizziamo solo le immagini delle telecamere per rilevare i pedoni Sandy Karp, portavoce di Waymo. “IOSfruttiamo invece la nostra gamma completa di sensori, inclusi sensori e radar, non solo telecamere, per aiutarci a percepire in modo efficace i dettagli dell’ambiente circostante in un modo che potrebbe essere difficile da ottenere con le sole telecamere.“
Secondo i ricercatori, la principale fonte dei problemi della tecnologia con i bambini e le persone dalla pelle scura deriva da errori nei dati utilizzati per addestrare l’intelligenza artificiale, che contiene più adulti e persone dalla pelle più chiara.
Karp ha affermato che Waymo addestra la sua tecnologia di guida autonoma per classificare specificamente gli esseri umani e rispondere al comportamento e alle parole umane per assicurarsi che i suoi set di dati siano rappresentativi.
Gli algoritmi riflettono i pregiudizi nei set di dati e nelle menti delle persone che li creano. Un esempio comune è software di riconoscimento faccialeche viene costantemente dimostrato precisione inferiore Con i volti delle donne, delle persone dalla pelle scura e degli asiatici in particolare. Queste preoccupazioni non hanno fermato l’entusiasmo verso questo tipo di tecnologia AI. Il riconoscimento facciale è già responsabile della situazione I neri innocenti sono in prigione.
Aggiornamento, 24 agosto, 13:45: Questo articolo è stato aggiornato con i commenti di Waymo.