Una delle caratteristiche distintive dell’intelligenza umana è la capacità di risolvere nuovi problemi mai incontrati prima. Gli scienziati cognitivi ritengono che questa capacità di risolvere problemi si basi su uno strumento mentale fondamentale, noto come “ragionamento analogico“, ossia la capacità di individuare le somiglianze tra un problema sconosciuto e uno precedentemente incontrato per identificare una soluzione ragionevole. In un nuovo studio, Taylor Webb e i suoi colleghi della Università di California a Los Angeles hanno valutato le prestazioni del grande modello linguistico GPT-3 in compiti di analogia e hanno confrontato i risultati con le prestazioni umane.
I compiti valutati comprendevano problemi di ragionamento basati su matrici di testo, analogie tra stringhe di lettere, analogie verbali e analogie di storie, che richiedevano tutti di individuare un pattern e applicarlo a una nuova situazione. Ad esempio, un problema presentato era completare il pattern “amore : odio :: ricco : ?” con la risposta corretta “povero”. Per garantire che GPT-3 non potesse ripetere risposte da set di addestramento a cui era stato esposto in precedenza, gli autori hanno progettato molti dei compiti.
I risultati dello studio, pubblicato su Nature Human Behaviour, indicano che il modello linguistico GPT-3 è in grado di completare ragionamenti complessi e identificare una soluzione ragionevole per problemi senza una formazione diretta, al punto da eguagliare o superare i partecipanti umani. Gli autori notano che ci sono limiti al ragionamento di GPT-3, poiché non possiede una memoria a lungo termine e poteva completare solo compiti di ragionamento quando gli veniva fornito tutto il materiale rilevante. È anche incerto se il modello stia risolvendo questi problemi nello stesso modo in cui lo fanno gli esseri umani, concludono.