Intelligenza Artificiale: rivoluzionare l’apprendimento del linguaggio attraverso gli occhi di un bambino

"Il nostro lavoro sottolinea un nuovo approccio per comprendere i meccanismi di apprendimento delle parole"
MeteoWeb

Addestrare un sistema di intelligenza artificiale al linguaggio utilizzando gli input di un singolo bambino anziché affidarsi a vasti dataset potrebbe offrire una visione più autentica del processo di acquisizione delle prime parole. Un recente studio condotto dai ricercatori dell’Università di New York e pubblicato sulla rivista Science ha rivelato risultati intriganti in questo ambito. Il team, guidato da Wai Keen Vong, ha sviluppato un sistema di intelligenza artificiale addestrato esclusivamente attraverso video e audio raccolti dalla prospettiva in prima persona di un bambino in fase di apprendimento linguistico.

Lo studio

Il giovane partecipante, seguito attentamente per oltre un anno, è stato impiegato come modello per l’addestramento dell’intelligenza artificiale. I risultati ottenuti, spiegano gli esperti, permettono un’approfondita esplorazione del processo di acquisizione del linguaggio, fornendo al contempo una preziosa comprensione di come i bambini apprendano parole e concetti. Questo approccio innovativo potrebbe anche promuovere lo sviluppo di nuovi sistemi di intelligenza artificiale in grado di apprendere il linguaggio in maniera più simile a quella umana.

Tra i sei e i nove mesi di età, i bambini iniziano a associare le parole alle cose e ai concetti del mondo circostante. Entro i due anni, la maggior parte dei bambini riesce a comprendere circa 300 parole. Tuttavia, il processo che porta a stabilire il collegamento tra le parole e la realtà non è ancora completamente chiaro, e le ipotesi attuali si basano principalmente su studi di laboratorio, i cui risultati non sono sempre applicabili al mondo reale.

Il modello “Child’s View for Contrastive Learning

Nel contesto di questa nuova ricerca, il gruppo di scienziati ha introdotto il modello “Child’s View for Contrastive Learning” (CVCL), basato su registrazioni di un bambino dai sei ai 25 mesi di età. La rete neurale è stata addestrata utilizzando fotogrammi video catturati dalla prospettiva in prima persona. Gli autori del lavoro affermano che il sistema è stato in grado di generalizzare oltre gli oggetti specifici osservati durante l’addestramento, allineando le sue rappresentazioni visive e linguistiche.

Il modello, secondo gli scienziati, fornisce una base computazionale per esplorare il modo in cui i bambini acquisiscono le prime parole e come tali parole si radicano nel contesto visivo del mondo che li circonda. Anche se i video rappresentavano solo circa l’1% delle ore di veglia del giovane partecipante, sono stati sufficienti a gettare le basi per l’apprendimento del linguaggio. Complessivamente, i filmati contenevano circa un quarto di milione di esempi di parole associati alle esperienze visive del bambino.

I nostri risultati dimostrano come i recenti progressi algoritmici, combinati con l’esperienza naturalistica di un bambino, possano potenzialmente ridefinire la nostra comprensione del linguaggio precoce e dell’acquisizione di concetti“, afferma Wai Keen Vong. “Il nostro lavoro sottolinea un nuovo approccio per comprendere i meccanismi di apprendimento delle parole“, conclude Brenden M. Lake, collega e coautore di Vong.

Condividi