Il più grande entusiasmo nell'astronomia da terra in questi giorni è l'Osservatorio Rubin, che sarà presto completato, e l'imminente Great Synoptic Sky Survey. Dalla cima di una montagna isolata nel deserto di Atacama, nel nord del Cile, il telescopio ottico da 8,4 metri dell'osservatorio esplorerà il cielo meridionale ogni tre o quattro notti.
Nel processo, le sue osservazioni nell’arco di un decennio genereranno una quantità senza precedenti di dati grezzi, molti dei quali relativi ai cosiddetti eventi astronomici transitori. Tali eventi sono solitamente attivi per brevi periodi di giorni o settimane e possono coinvolgere eventi astrofisici distruttivi e ad alta energia come supernove o lampi di raggi gamma. In effetti, si prevede che l’indagine LSST genererà così tanti dati da richiedere un livello di gestione dei dati scientifici che utilizzi software e tecnologie al limite dell’intelligenza artificiale.
Le ripetute esplorazioni del campo visivo di 9,6 gradi quadrati del telescopio (circa le dimensioni di 40 lune piene) utilizzeranno una fotocamera da 3,2 gigapixel per creare una serie notturna di circa 10 milioni di avvisi astronomici. Nel gergo astronomico, un allarme può essere attivato quando un oggetto celeste cambia la sua luminosità e/o posizione nel cielo in brevi periodi di tempo.
Ma entro 60 secondi dall’impatto con lo specchio primario del telescopio, i fotoni dell’evento verranno trasmessi tramite un relè ottico ad alta velocità a grandi quantità di spazio di archiviazione nel cloud. Da lì, questi dati grezzi verranno elaborati e inviati agli astronomi di tutto il mondo attraverso i cosiddetti alert broker.
Un alert broker è un intermediario tra un telescopio di rilevamento, i dati scientifici osservativi e i telescopi di follow-up, mi ha detto Francisco Forster, un astrofisico dell'Università del Cile, nel suo ufficio a Santiago. Dato il numero di avvisi previsti con LSST, sono necessari gruppi speciali che abbiano la capacità di assorbire il flusso di avvisi e quindi di fare qualcosa con essi, afferma.
Alla conferenza “Cosmic Currents in the Epoch of Rubin” tenutasi il mese scorso a Puerto Varas, in Cile, un gruppo internazionale di astronomi si è riunito per discutere su come elaborare al meglio i dati generati da Rubin. Una volta che il telescopio inizierà le operazioni scientifiche di routine nel 2025, i suoi allarmi saranno seguiti da altri osservatori quasi in tempo reale.
La maggior parte di queste osservazioni allertate utilizzeranno la spettroscopia – lo studio degli spettri elettromagnetici di un oggetto – per misurare e caratterizzare il bersaglio celeste che ha prodotto l’oggetto. Ma è anche possibile osservare eventi che precipitano l’allarme a più lunghezze d’onda elettromagnetiche. In alcuni casi, ciò potrebbe includere il nuovo campo dell’astronomia delle onde gravitazionali.
LSST necessita di algoritmi avanzati
“Abbiamo bisogno di algoritmi in grado di misurare i flussi di dati LSST”, mi ha detto via email Patrick David Aliu, un dottorando in astronomia presso l'Università dell'Illinois, Urbana-Champaign. Dice: Abbiamo bisogno di algoritmi che trovino anomalie celesti. Con LSST, ci aspettiamo di trovare cose che non sapevamo esistessero, dice Aliu.
Anche se il telescopio non utilizzerà il pensiero basato sull’intelligenza artificiale nel senso classico del pensiero meccanico, è chiaro che il futuro dell’astronomia risiede nell’intelligenza artificiale. La quantità di dati che i futuri telescopi produrranno richiederà la capacità dell’intelligenza artificiale di consentire agli astronomi di analizzare i dati grezzi. Con velocità e precisione fino ad allora considerate fantascienza.
Ma se vogliamo applicare l’apprendimento automatico, deve essere molto veloce, afferma Forster, l’organizzatore principale della conferenza. Dice che non puoi aspettare più di un secondo affinché ogni oggetto venga classificato.
Ma c'è ancora una certa resistenza culturale nella comunità astronomica nel cedere il controllo completo dell'analisi ai programmi informatici.
Potrebbe esserci un problema di fiducia, mi ha detto Matthew Graham, professore ricercatore di astronomia presso il California Institute of Technology, a Puerto Varas. Quanto del processo di scoperta, si chiede, dovremmo automatizzare e consegnare ai computer? “Sappiamo che le macchine possono commettere errori, soprattutto a causa di errori umani se non sono programmate correttamente”, afferma.
La conclusione è che avere degli esseri umani coinvolti nel processo di controllo della sicurezza a volte può essere importante.
Per quanto riguarda tutte le opportunità di monitoraggio e follow-up mancate?
Sebbene monitorare alcuni avvisi in modo tempestivo possa essere tecnicamente impossibile, c’è un lato positivo.
LSST produrrà un set di dati che continueremo a vagliare per molti anni dopo la chiusura, e AI Advancements ci aiuterà a continuare a progettare nuovi modi di vagliatura, ha affermato Alexander Gagliano, ricercatore post-dottorato presso il Science and Science finanziato dalla NSF. Istituto di tecnologia. Intelligenza artificiale e interazioni fondamentali al MIT, mi ha detto via email.
Per quanto riguarda la scienza?
Una delle cose che si ottengono scansionando l'intero cielo australe ogni tre o quattro notti è la capacità di trovare fenomeni davvero eccezionali, dice Gagliano. Dice che se un avviso su un milione proviene da qualcosa che non abbiamo mai visto prima, puoi fare una scoperta rivoluzionaria solo dopo aver raccolto un milione di avvisi. Il gioco, dice Gagliano, è trovare modi rapidi per separare questi eventi rari da quelli più comuni.
Per quanto riguarda il futuro dell'astronomia?
Dieci anni fa avevo previsto che entro il 2020 ti saresti svegliato e avrei chiesto al tuo assistente intelligente cosa aveva scoperto la notte prima, dice Graham. Allora dirai: “Oh, fantastico, vediamo cosa possiamo farne”.
Ma anche allora, gli occhi umani avranno ancora bisogno di interpretare i dati astronomici?
“Non posso osservare la curva di luce di una supernova e stimare il raggio della stella da cui proviene l'esplosione”, afferma Gagliano. Tuttavia, afferma, le previsioni degli algoritmi rimangono fortemente dipendenti dai dati che vengono loro presentati. Al contrario, gli esseri umani hanno un talento innato nel generalizzare a situazioni completamente nuove; “Puoi entrare in una stanza con una lampada che non hai mai visto prima e ancora capire come accenderla”, dice Gagliano. La maggior parte degli algoritmi non è in grado di eseguire questo tipo di ragionamento confuso, afferma.
Seguimi Twitter O LinkedIn. pagando per me sito web O alcuni dei miei altri lavori Qui.