Transistor Sinaptico: l’IA imita il cervello umano con efficienza

"Sono stati compiuti progressi significativi semplicemente impacchettando sempre più transistor nei circuiti integrati"
MeteoWeb

Prendendo ispirazione dal cervello umano, un gruppo internazionale di ricercatori ha sviluppato un nuovo transistor sinaptico capace di pensare a livello superiore. Progettato dai ricercatori della Northwestern University, del Boston College e del Massachusetts Institute of Technology e descritto su Nature, il dispositivo elabora e memorizza simultaneamente le informazioni proprio come il cervello umano. In nuovi esperimenti, i ricercatori hanno dimostrato che il transistor va oltre i semplici compiti di apprendimento automatico per classificare i dati ed è in grado di eseguire l’apprendimento associativo.

Sebbene studi precedenti abbiano sfruttato strategie simili per sviluppare dispositivi informatici simili al cervello, questi transistor non possono funzionare al di fuori delle temperature criogeniche. Il nuovo dispositivo, invece, è stabile a temperatura ambiente. Inoltre, funziona a velocità elevate, consuma pochissima energia e mantiene le informazioni memorizzate anche quando viene tolta l’alimentazione, rendendolo ideale per l’applicazione nel mondo reale.

Il cervello ha un’architettura molto diversa da quella di un computer digitale“, ha dichiarato Mark C. Hersam, della Northwestern, che ha condotto la ricerca. “In un computer digitale, i dati si muovono avanti e indietro tra un microprocessore e la memoria, consumando molta energia e creando un collo di bottiglia quando si cerca di eseguire piu’ compiti contemporaneamente“, ha spiegato Hersam. “Nel cervello, invece, la memoria e l’elaborazione delle informazioni sono co-localizzate e completamente integrate, con un’efficienza energetica di ordini di grandezza superiore“, ha proseguito Hersam.

Il nostro transistor sinaptico raggiunge in modo analogo la funzionalità di memoria e di elaborazione delle informazioni in modo da imitare più fedelmente il cervello“, ha aggiunto Hersam, che alla Northwestern è presidente del dipartimento di scienza e ingegneria dei materiali, direttore del Materials Research Science and Engineering Center e membro dell’International Institute for Nanotechnology.

Hersam ha condotto la ricerca insieme a Qiong Ma, del Boston College e Pablo Jarillo-Herrero, del MIT. I recenti progressi nel campo dell’intelligenza artificiale hanno spinto i ricercatori a sviluppare computer che funzionino in modo più simile al cervello umano. I sistemi informatici digitali convenzionali hanno unità di elaborazione e di memorizzazione separate, il che fa sì che le attività ad alta intensità di dati divorino grandi quantità di energia.

Con i dispositivi intelligenti che raccolgono continuamente grandi quantità di dati, i ricercatori stanno cercando di scoprire nuovi modi per elaborarli senza consumare una quantità crescente di energia. Attualmente, il resistore di memoria, o “memristor”, è la tecnologia più sviluppata in grado di svolgere funzioni combinate di elaborazione e memoria. Ma, i memristori soffrono ancora di una commutazione costosa dal punto di vista energetico.

Per diversi decenni, il paradigma dell’elettronica è stato quello di costruire tutto con i transistor e di utilizzare la stessa architettura di silicio“, ha affermato Hersam. “Sono stati compiuti progressi significativi semplicemente impacchettando sempre più transistor nei circuiti integrati, ha continuato Hersam. “Non si può negare il successo di questa strategia, ma ha il costo di un elevato consumo di energia, soprattutto nell’attuale era dei big data, in cui l’informatica digitale è sulla buona strada per sopraffare la rete“, ha sottolineato Hersam.

È necessario ripensare l’hardware di calcolo, soprattutto per le attività di intelligenza artificiale e apprendimento automatico“, ha aggiunto Hersam. Per rinnovare questo paradigma, Hersam e la sua squadra hanno esplorato i nuovi progressi nella fisica dei motivi moirè, un tipo di disegno geometrico che nasce quando due motivi vengono sovrapposti.

Quando i materiali bidimensionali vengono impilati, emergono nuove proprietà che non esistono in un solo strato. E quando questi strati vengono attorcigliati per formare un motivo moirè, diventa possibile una sintonizzazione delle proprietà elettroniche senza precedenti. Per il nuovo dispositivo, i ricercatori hanno combinato due diversi tipi di materiali atomicamente sottili: il grafene bilayer e il nitruro di boro esagonale. Impilati e volutamente ruotati, i materiali hanno formato un motivo moire’.

Ruotando uno strato rispetto all’altro, i ricercatori hanno potuto ottenere proprietà elettroniche diverse in ogni strato di grafene, anche se sono separati solo da dimensioni su scala atomica. Con la giusta scelta della torsione, i ricercatori hanno sfruttato la fisica del moire’ per ottenere funzionalità neuromorfiche a temperatura ambiente. “Con la torsione come nuovo parametro di progettazione, il numero di permutazioni e’ vastissimo“, ha detto Hersam.

Il grafene e il nitruro di boro esagonale sono strutturalmente molto simili, ma sufficientemente diversi per ottenere effetti moirè eccezionalmente forti“, ha precisato Hersam. Per testare il transistor, Hersam e il suo gruppo di ricerca lo hanno addestrato a riconoscere modelli simili, ma non identici. All’inizio di questo mese, Hersam ha presentato un nuovo dispositivo nanoelettronico in grado di analizzare e classificare i dati in modo efficiente dal punto di vista energetico, ma il suo nuovo transistor sinaptico fa fare un ulteriore salto di qualità all’apprendimento automatico e all’intelligenza artificiale.

Se l’IA deve imitare il pensiero umano, uno dei compiti di livello più basso è la classificazione dei dati, che consiste semplicemente nell’ordinare in contenitori“, ha osservato Hersam. “Il nostro obiettivo è far progredire la tecnologia dell’IA in direzione di un pensiero di livello superiore“, ha evidenziato Hersam. “Le condizioni del mondo reale sono spesso più complicate di quanto gli attuali algoritmi di IA possano gestire; quindi, abbiamo testato i nostri nuovi dispositivi in condizioni più complicate per verificarne le capacità avanzate“, ha aggiunto Hersam.

Per prima cosa i ricercatori hanno mostrato al dispositivo un modello: ‘000’, ovvero tre zeri in fila. Poi hanno chiesto all’intelligenza artificiale di identificare schemi simili, come 111 o 101. “Se l’abbiamo addestrata a rilevare ‘000’ e poi le abbiamo dato ‘111’ e ‘101’, sa che ‘111’ e’ piu’ simile a ‘000’ che a ‘101‘”, ha spiegato Hersam. “ ‘000’ e ‘111’ non sono esattamente uguali, ma sono entrambi tre cifre in fila; riconoscere questa somiglianza è una forma di cognizione di livello superiore nota come apprendimento associativo“, ha illustrato Hersam.

Negli esperimenti, il nuovo transistor sinaptico ha riconosciuto con successo schemi simili, dimostrando la sua memoria associativa. Anche quando i ricercatori gli hanno lanciato delle sfide, ad esempio dandogli degli schemi incompleti, il transistor è riuscito a dimostrare l’apprendimento associativo.

L’IA attuale può essere facilmente confusa, il che può causare gravi problemi in certi contesti“, ha notato Hersam. “Immaginate di utilizzare un veicolo a guida autonoma e che le condizioni meteorologiche peggiorino: il veicolo potrebbe non essere in grado di interpretare i dati dei sensori più complessi come potrebbe fare un guidatore umano“, ha sottolineato Hersam. “Ma, anche quando abbiamo dato al nostro transistor un input imperfetto, è stato in grado di identificare la risposta corretta“, ha concluso.

Condividi