Le nuove scoperte scientifiche e l’avanzamento delle tecnologie procedono sempre in parallelo nella società moderna. Questo è vero anche per la fisica delle alte energie e le tecnologie di calcolo. In questo contesto di grande crescita e richiesta di alte prestazioni delle risorse informatiche, l’INFN ha deciso di investire 1 milione di euro nella formazione dei futuri professionisti dei big data. Ha così bandito 12 borse post-doc per collaborare con gli esperimenti al Large Hadron Collider (LHC) del CERN. In particolare, le persone selezionate dovranno occuparsi dello sviluppo di procedure di lavoro innovative per il calcolo e di soluzioni di gestione dei dati nell’ambito della big science, di analisi dati e algoritmi per gestire il calcolo ad alte prestazioni, e dello sviluppo di macchine e tecniche di deep learning.
“Questa importante iniziativa dell’INFN, volta a formare giovani con competenze di frontiera nel campo del calcolo scientifico ad alte prestazioni, si colloca perfettamente in un quadro nazionale di eccellenza in questo settore“, sottolinea Antonio Zoccoli, vicepresidente dell’INFN. “Eccellenza dimostrata – prosegue Zoccoli – anche dalla recente scelta di Bologna come sede per ospitare il centro di calcolo europeo per le previsioni atmosferiche ECMWF“. “Bologna, infatti, rappresenta oggi un polo d’avanguardia per il computing, grazie alla presenza di molti importanti centri, tra cui il CNAF dell’INFN, che è anche uno dei nodi di primo livello della rete GRID di LHC, ed il CINECA“.
Per gestire l’enorme produzione di dati di LHC è stata inventata e sviluppata la GRID, una rete planetaria di risorse di calcolo che è stata uno degli elementi chiave per arrivare alla scoperta del bosone di Higgs. Grazie alle tecnologie sempre più potenti, i ricercatori sono stati e sono tuttora in grado di raccogliere, immagazzinare e utilizzare grandi quantità di dati. Ma per affrontare le sfide poste dalla prossima generazione di esperimenti a LHC, nel progetto High Luminosity LHC, sono necessarie molte più risorse. Si prevede, infatti, che sarà richiesta una potenza di CPU maggiore di un fattore 60 rispetto ad oggi, e un fattore 40 di spazio in più per gestire i dati prodotti dalla futura macchina: necessità che non possono essere garantite dalle attuali tecnologie, infrastrutture e risorse. Questi cambiamenti nel metodo di raccolta e analisi dei dati, nella tecnologia informatica e nell’organizzazione delle infrastrutture potranno, quindi, essere affrontate solo grazie all’impegno e alla professionalità di molti più scienziati esperti di calcolo e big data.