L'INTELLIGENZA ARTIFICIALE PER LAVORARE
  • HOME
  • ISCRIZIONE E COSTI
  • CHI SIAMO
  • BLOG

GPT-4 e la comprensione del testo: stiamo davvero avvicinandoci all’Intelligenza Generale?

2/28/2025

0 Comments

 
Foto
Negli ultimi anni, i modelli linguistici di grandi dimensioni (LLM) hanno compiuto progressi straordinari, trasformando il nostro modo di interagire con l’intelligenza artificiale. Ma quanto sono davvero intelligenti questi modelli? Possono comprendere un testo come farebbe un essere umano? Possono ragionare, inferire e adattarsi a nuove situazioni in modo autonomo?
Due recenti studi scientifici offrono spunti di riflessione su queste domande, mostrando i traguardi raggiunti dai LLM, ma anche i loro limiti ancora irrisolti.
 
1. GPT-4 comprende il testo come gli esseri umani?
Uno studio pubblicato su Royal Society Open Science (Shultz et al., 2025) ha analizzato le capacità di comprensione testuale di GPT-4, confrontandole con quelle di lettori umani attraverso un test standardizzato di comprensione del discorso. I risultati sono stati sorprendenti:
  • Su testi relativamente semplici, GPT-4 ha ottenuto risultati leggermente migliori rispetto agli esseri umani, anche se la differenza non è risultata statisticamente significativa.
  • Su testi più complessi, il modello ha superato nettamente studenti di scuole superiori e universitari, dimostrando di saper inferire informazioni e generalizzare concetti con grande efficacia.
  • L’analisi qualitativa ha rivelato che GPT-4 è in grado di formulare risposte concise e ben strutturate, spesso più sintetiche ed efficaci rispetto alle spiegazioni dei test-maker umani.
Questi dati suggeriscono che il modello possiede una capacità di comprensione del testo avanzata, ma ci sono ancora elementi che lo distinguono da un’intelligenza pienamente umana.

2. Ragionamento causale e composizionale: il vero limite?
Un secondo studio (Gjerde et al., 2025) ha approfondito un aspetto fondamentale della cognizione artificiale: i modelli LLM sono davvero in grado di ragionare in modo causale e composizionale? 
 
Per testarlo, i ricercatori hanno progettato esperimenti in cui i modelli dovevano selezionare oggetti alternativi per sostituire strumenti tipici in determinati compiti, come usare una racchetta da ping pong per scavare una buca. 
I risultati hanno evidenziato che:
  • GPT-4o (OpenAI) e Claude 3.5 (Anthropic) hanno ottenuto prestazioni paragonabili a quelle degli esseri umani quando guidati con il chain-of-thought prompting, una tecnica che spinge il modello a ragionare passo dopo passo.
  • Aggiungendo più opzioni di scelta (condizione distractor), la difficoltà è aumentata per tutti, ma i modelli più avanzati hanno mantenuto prestazioni superiori rispetto al caso.
  • La presentazione visiva delle opzioni (condizione image) ha ridotto l’accuratezza di Claude 3.5, mentre GPT-4o non ha mostrato particolari variazioni.
Questi dati indicano che i modelli più avanzati stanno acquisendo una sempre maggiore capacità di ragionamento, ma faticano ancora in situazioni ad alta complessità o in cui è richiesta una profonda comprensione del contesto.

CONCLUSIONI
Le ricerche suggeriscono che i LLM stanno facendo progressi notevoli nella comprensione testuale e nel ragionamento, avvicinandosi sempre più alle capacità cognitive umane. Tuttavia, ci sono ancora limiti importanti:
  • Comprensione del testo: GPT-4 dimostra una notevole capacità di leggere, inferire e generalizzare concetti complessi, superando persino la media umana in alcuni test.
  • Ragionamento causale: rimane un punto debole, poiché il modello fatica a gestire problemi che richiedono una profonda interazione con il mondo fisico.

Nel futuro vedremo probabilmente un’integrazione tra LLM, agenti multimodali e robotica per colmare il divario tra la comprensione testuale e la capacità di agire nel mondo reale.

Fonti

  1. Shultz, T. R., Wise, J. M., & Nobandegani, A. S. (2025). Text understanding in GPT-4 versus humans. Royal Society Open Science, 12, 241313. https://doi.org/10.1098/rsos.241313
  2. Gjerde, M. F., Cheung, V., & Lagnado, D. (2025). Reasoning about affordances: Causal and compositional reasoning in LLMs. arXiv preprint arXiv:2502.16606.
0 Comments



Leave a Reply.

    Demetrio Macheda

    Archivi

    Febbraio 2025
    Dicembre 2023

    Categorie

    Tutti

    Feed RSS

© Copyright 2023. Centro Universitario Internazionale. Sede legale: Via Garbasso, 42 - 52100 Arezzo (IT). P. IVA 01399410511- www.cui.org  
. Cookie Policy
  • HOME
  • ISCRIZIONE E COSTI
  • CHI SIAMO
  • BLOG