GPT-4 e la comprensione del testo: stiamo davvero avvicinandoci all’Intelligenza Generale?2/28/2025 ![]() Negli ultimi anni, i modelli linguistici di grandi dimensioni (LLM) hanno compiuto progressi straordinari, trasformando il nostro modo di interagire con l’intelligenza artificiale. Ma quanto sono davvero intelligenti questi modelli? Possono comprendere un testo come farebbe un essere umano? Possono ragionare, inferire e adattarsi a nuove situazioni in modo autonomo? Due recenti studi scientifici offrono spunti di riflessione su queste domande, mostrando i traguardi raggiunti dai LLM, ma anche i loro limiti ancora irrisolti. 1. GPT-4 comprende il testo come gli esseri umani? Uno studio pubblicato su Royal Society Open Science (Shultz et al., 2025) ha analizzato le capacità di comprensione testuale di GPT-4, confrontandole con quelle di lettori umani attraverso un test standardizzato di comprensione del discorso. I risultati sono stati sorprendenti:
2. Ragionamento causale e composizionale: il vero limite? Un secondo studio (Gjerde et al., 2025) ha approfondito un aspetto fondamentale della cognizione artificiale: i modelli LLM sono davvero in grado di ragionare in modo causale e composizionale? Per testarlo, i ricercatori hanno progettato esperimenti in cui i modelli dovevano selezionare oggetti alternativi per sostituire strumenti tipici in determinati compiti, come usare una racchetta da ping pong per scavare una buca. I risultati hanno evidenziato che:
CONCLUSIONI Le ricerche suggeriscono che i LLM stanno facendo progressi notevoli nella comprensione testuale e nel ragionamento, avvicinandosi sempre più alle capacità cognitive umane. Tuttavia, ci sono ancora limiti importanti:
Nel futuro vedremo probabilmente un’integrazione tra LLM, agenti multimodali e robotica per colmare il divario tra la comprensione testuale e la capacità di agire nel mondo reale. Fonti
0 Comments
|
Demetrio MachedaArchiviCategorie |