GPT-4 e la comprensione del testo: stiamo davvero avvicinandoci all’Intelligenza Generale?2/28/2025 ![]() Negli ultimi anni, i modelli linguistici di grandi dimensioni (LLM) hanno compiuto progressi straordinari, trasformando il nostro modo di interagire con l’intelligenza artificiale. Ma quanto sono davvero intelligenti questi modelli? Possono comprendere un testo come farebbe un essere umano? Possono ragionare, inferire e adattarsi a nuove situazioni in modo autonomo? Due recenti studi scientifici offrono spunti di riflessione su queste domande, mostrando i traguardi raggiunti dai LLM, ma anche i loro limiti ancora irrisolti. 1. GPT-4 comprende il testo come gli esseri umani? Uno studio pubblicato su Royal Society Open Science (Shultz et al., 2025) ha analizzato le capacità di comprensione testuale di GPT-4, confrontandole con quelle di lettori umani attraverso un test standardizzato di comprensione del discorso. I risultati sono stati sorprendenti:
2. Ragionamento causale e composizionale: il vero limite? Un secondo studio (Gjerde et al., 2025) ha approfondito un aspetto fondamentale della cognizione artificiale: i modelli LLM sono davvero in grado di ragionare in modo causale e composizionale? Per testarlo, i ricercatori hanno progettato esperimenti in cui i modelli dovevano selezionare oggetti alternativi per sostituire strumenti tipici in determinati compiti, come usare una racchetta da ping pong per scavare una buca. I risultati hanno evidenziato che:
CONCLUSIONI Le ricerche suggeriscono che i LLM stanno facendo progressi notevoli nella comprensione testuale e nel ragionamento, avvicinandosi sempre più alle capacità cognitive umane. Tuttavia, ci sono ancora limiti importanti:
Nel futuro vedremo probabilmente un’integrazione tra LLM, agenti multimodali e robotica per colmare il divario tra la comprensione testuale e la capacità di agire nel mondo reale. Fonti
0 Comments
Piuttosto che sostituire gli umani, l'IA ha il potenziale di aumentare le capacità umane. Sfruttando le tecnologie IA, gli individui possono lavorare a fianco di sistemi intelligenti, combinando le loro uniche capacità di risoluzione dei problemi, creatività ed empatia con l'efficienza e la potenza di elaborazione dell'IA. Questa collaborazione può portare a risultati più efficaci e impattanti. Uno sguardo alla storia dell’industria porta a considerare che l’introduzione delle macchine nei sistemi produttivi non ha soppiantato quello che era il cuore dei compiti e delle attività assegnate ai lavoratori. E, ancora oggi, le macchine e i processi automatizzati non sostituiscono integralmente le attività operative svolte dai lavoratori, ma semmai le supportano nelle operazioni ripetitive che richiedono precisione e accuratezza. ![]() L’introduzione della tecnologia innovativa sul lavoro, capace di rendere le imprese più produttive e competitive, ha sempre destato allarme tra i lavoratori. Con l’arrivo di ChatGPT (Novembre 2022) tutti i più grandi player nel settore dell’informatica stanno oramai investendo in modelli avanzati di impiego dell’Intelligenza Artificiale con l’obiettivo evidente di ottimizzare i loro servizi, prodotti e di migliorare la produttività. Tutto questo non può non avere effetti sul fronte del lavoro, anche perché, nel frattempo, l’ I.A., soprattutto quella generativa, si sta impossessando di molte attività svolte prima dagli uomini. Questo significa che sta nascendo una nuova era del lavoro. Molti processi lavorativi, soprattutto quello che interessa tutta l’area del lavoro svolto dai colletti bianchi e dai protagonisti del marketing e marketing digitale, possono essere automatizzati. Con ChatGPT 4 è possibile in pochi minuti creare immagini, produrre traduzioni in 165 lingue, ideare campagne di marketing, creare un codice di un programma per computer, ecc. Per restare a GPT4, nella release dell’estate autunno del 2023, la cosa sbalorditiva è che può essere impiegato per ogni genere di business, ricerca e programma educativo. Un aspetto importante da evidenziare è che questi modelli sono capaci anche di auto-apprendimento e decisione, senza bisogno di specifica supervisione. Tutto questo progresso genera una serie di problematiche anche etiche, relative, ad esempio all’opportunità dell’impiego dell’IA generativa laddove c’è un controllo carente o addirittura una mancanza di competenza dei controllori. Quanto sta accadendo sul fronte dell’AI, non è quindi una trovata pubblicitaria, è piuttosto una realtà che sta emergendo dall’ondata tecnologia e dall’innovazione indotta inizialmente dal web e dai dati che genera. Fra l’altro, per le imprese l’innovazione non è un’opzione tra tante ma un percorso obbligato. E se un giorno un processo lavorativo sarà più conveniente e competitivo perché potrà essere automatizzato e svolto efficacemente da macchine piuttosto che persone, le imprese saranno “costrette” all’adozione di sistemi “labor saving” intelligenti. Dovendo sintetizzare al massimo, ecco le sfide che l’IA pone al mercato del lavoro per come l’abbiamo conosciuto a partire dall’era industriale e dell’avvento di internet:
PREMESSANel 2021 il World Economic Forum metteva sul tavolo una serie di tematiche connessi ai rischi dell’impiego dell’A.I. Ma ancora si parlava di rischio generico dovuto all’uso di tool per il riconoscimento facciale e altri sistemi automatici per influenzare l’opinione pubblica con la relativa questione dell’uso dei dati. Tuttavia, nell’ultimo anno, soprattutto con l’apparire improvviso sul mercato mondiale del sistema GPT della società Open AI, il dibattito di come impiegare l’I.A. per avvantaggiare l’umanità si impone con estrema urgenza. Nel frattempo, altri sistemi di I.A. sono stati implementati da Microsoft, Google, Meta, ecc. e il diffondersi di una tecnologie che per certi versi è oscura nel suo costituirsi come forma di intelligenza, genera allarmi diffusi a livello globale. Anche l’Unione Europea ha da poco emanato norme che entreranno pienamente in vigore entro un biennio sulla mitigazione del rischio dell’IA. In generale nella nuova normativa, di cui si darà spazio in questo blog in successivi articoli, la Commissione europea mette in guardia sui rischi connessi all’impiego dell’IA che dovrebbero essere proibiti perché molto alti e ingovernabili; su rischi alti, ma governabili tramite una forte governance; su rischi permessi ma soggetti a informazione/trasparenza e obblighi e, infine, su rischi permessi senza nessuna restrizione. I tempi di attuazione della normativa appena annunciata non sono brevi considerato l'esplodere a livello mondiale di sistemi e applicazioni basati sull'I.A. Un tema ricorrente: i bias dell'I.A. Uso responsabile del riconoscimento faccialeIn particolare, la normativa europera si concentra sul riconoscimento facciale consentendone l'impiego alle forze dell'ordine appositamente autorizzate in sede di indagine. Algoritmi di rilevamento e classificazione dei volti sono stati impeigati dalle forze dell'ordine americane per finalità di sorveglianza e prevenzione della criminalità.
In “The Perpetual Lineup”, Garvie e colleghi hanno fornito un'analisi approfondita del non regolamentato uso della polizia del riconoscimento facciale e hanno richiesto maggior rigore negli standard di analisi facciale automatizzata, test per evitare bias razziale e maggiori informazioni al pubblico e ai cittadini sull'uso di tale tecnologia (Garvie et al., 2016). Altre ricerche avevano dimostrato che la precisione dei sistemi di riconoscimento facciale utilizzati dalle forze dell'ordine negli Stati Uniti erano sistematicamente inferiore per le persone etichettate come donne, nere o di età compresa tra 18 e 30 anni rispetto ad altre specfiche popolazioni (Klare et al., 2012). Naturalmente questa tematica è di molto interesse e particolarmente calda per le possibili conseguenze di controllo sociale, violazione di regole di vita democratica e privacy. Ne seguiremo gli sviluppi. |
Demetrio MachedaArchiviCategorie |