Il deep learning rende più pratica la navigazione visiva relativa del terreno
Senza GPS, i sistemi autonomi si perdono facilmente. Ora un nuovo algoritmo sviluppato al Caltech consente ai sistemi autonomi di apprendere dove si trovano semplicemente osservando il terreno intorno a loro e, per la prima volta, la tecnologia funziona indipendentemente dai cambiamenti stagionali in quel terreno.
I dettagli del processo sono stati pubblicati il 23 giugno su Science Robotics, pubblicato dall’American Association for the Advancement of Science (AAAS).
Il processo generale, noto come Navigazione relativa al terreno visibile (VTRN), è stato sviluppato per la prima volta negli anni ’60. Confrontando il terreno vicino con immagini satellitari ad alta risoluzione, i sistemi autonomi possono determinare le loro posizioni.
Il problema è che l’attuale generazione di VTRN richiede che il terreno che stai guardando lavori a stretto contatto con le immagini nel suo database per funzionare. Tutto ciò che altera o oscura il terreno, come il manto nevoso o le foglie cadute, causa la mancata corrispondenza dell’immagine e danneggia il sistema. Pertanto, a meno che non ci sia un database di immagini di paesaggi in ogni condizione immaginabile, i sistemi VTRN possono essere facilmente confusi.
Per vincere questa sfida, un team di laboratori presto jo chungD., professore di spazio, controllo e sistemi dinamici e ricercatore presso il Jet Propulsion Laboratory, gestito dal California Institute of Technology per la NASA, si è rivolto al deep learning e all’intelligenza artificiale (AI) per rimuovere il contenuto stagionale che ostacola gli attuali sistemi VTRN.
“La regola generale è che entrambe le immagini, l’immagine del satellite e l’immagine del veicolo autonomo, devono avere contenuti identici affinché le tecnologie attuali funzionino”, afferma Anthony Fragoso (MS ’14, PhD’ 18), docente e personale scienziato e autore principale del documento Science Robotics, le differenze che possono gestire riguardano ciò che si può ottenere con un filtro Instagram che cambia i colori dell’immagine.” “Nei sistemi reali, tuttavia, le cose cambiano drasticamente in base alla stagione perché il le immagini non hanno più le stesse cose e non possono essere confrontate direttamente”.
Il processo, sviluppato da Chung e Fragoso in collaborazione con lo studente laureato Connor Lee (BS ’17, MS ’19) e lo studente universitario Austin McCoy, utilizza ciò che è noto come “apprendimento auto-supervisionato”. Mentre la maggior parte delle strategie di visione artificiale si basano su commentatori umani che curano attentamente grandi set di dati per insegnare all’algoritmo come riconoscere ciò che sta vedendo, questo metodo consente invece all’algoritmo di autoimpararsi. L’intelligenza artificiale cerca modelli nelle immagini rilevando dettagli e caratteristiche che è probabile che gli esseri umani manchino.
Il completamento dell’attuale generazione di VTRN con il nuovo sistema porta a una localizzazione più accurata: in un esperimento, i ricercatori hanno tentato di localizzare le immagini del fogliame estivo rispetto alle immagini delle foglie invernali utilizzando la tecnologia VTRN basata sull’associazione. Hanno scoperto che le prestazioni non erano migliori di un lancio di una moneta, con il 50 percento dei tentativi con conseguente errore di navigazione. Al contrario, l’introduzione del nuovo algoritmo nel VTRN è stata molto migliore: il 92 percento dei tentativi è stato abbinato correttamente e il restante 8 percento potrebbe essere identificato in anticipo come problematico e quindi facilmente gestito utilizzando altre tecniche di navigazione statica.
“I computer possono trovare schemi sfocati che i nostri occhi non possono vedere e possono rilevare anche la più piccola delle direzioni”, afferma Lee. VTRN rischiava di diventare una tecnologia inutile in ambienti comuni ma impegnativi, afferma. “Abbiamo risparmiato decenni di lavoro per risolvere questo problema”.
Oltre ad essere utile per i droni autonomi sulla Terra, il sistema ha anche applicazioni per missioni spaziali. Ad esempio, il sistema di ingresso, discesa e atterraggio (EDL) della missione rover JPL Mars 2020 è stato utilizzato per la prima volta sul Pianeta Rosso per atterrare al cratere Jezero, un luogo precedentemente considerato troppo pericoloso per la sicurezza. Iscrizione. Con veicoli come Perseverance, “è necessaria una certa quantità di guida autonoma”, afferma Chung, “perché i trasferimenti impiegano sette minuti per arrivare tra la Terra e Marte e su Marte non c’è il GPS”. Il team ha esaminato le regioni polari di Marte che hanno anche variazioni stagionali estreme e condizioni simili alla Terra, e il nuovo sistema potrebbe consentire una migliore navigazione per supportare obiettivi scientifici inclusa la ricerca dell’acqua.
Successivamente, Fragoso, Lee e Chung estenderanno la tecnologia per tenere conto anche dei cambiamenti del tempo: nebbia, pioggia, neve e così via. In caso di successo, il loro lavoro potrebbe contribuire a migliorare i sistemi di navigazione per le auto senza conducente.
Il titolo dell’articolo di Science Robotics è “Seasonally Constant Deep Transformation of Terrain Relevant Visual Navigation”. Questo progetto è stato finanziato da Boeing e dalla National Science Foundation. Condividi McCoy però Programma di borse estive di ricerca universitaria presso Caltech.
“Fan zombi sottilmente affascinante. Fanatico della TV. Creatore devoto. Amico degli animali ovunque. Praticante del caffè.”