Le potenzialità dell’intelligenza artificiale generativa è ormai indubbia. ChatGPT, Gemini, Copilot e altri strumenti presenti sul web vengono quotidianamente utilizzati da migliaia di persone in tutto il mondo per velocizzare attività, semplificare alcuni processi, ottenere rapidamente delle informazioni, creare contenuti originali e coinvolgenti e tanto altro ancora. L’AI sembra, almeno in apparenza, in grado di fornire tutte le risposte che si cercano, in maniera razionale e corretta.
Alcune ricerche recenti, però, hanno dimostrato che l’AI non è affatto razionale e non segue il ragionamento logico. In altre parole, le intelligenze artificiali generative non sono infallibili, ma possono commettere gli stessi errori umani e nella stessa percentuale.
Scopriamo cosa è emerso dopo che ChatGPT e altre AI generative sono state sottoposte a dei test di ragionamento logico e quali sono i risultati che hanno conseguito.
L’AI non segue il ragionamento logico, i risultati di uno studio sulle capacità dei modelli linguistici
Non sempre l’intelligenza artificiale è in grado di percepire il contesto, cogliere il senso di tutte le parole, le sfumature, l’ironia e il sarcasmo, e seguire i ragionamenti logici. A rivelarlo è uno studio che è stato condotto dai ricercatori dell’University College di Londra e dell’Università di Bologna.
Come dichiarato in un’intervista all'Ansa da Olivia Mcmillan-Scott, ricercatrice che ha lavorato allo studio, l’obiettivo che si voleva raggiungere era proprio quello di misurare la capacità logica dell’AI. Per raggiungere questo scopo le AI più conosciute, come ChatGPT e Gemini, sono state sottoposte a dei test di logica, quelli che tradizionalmente vengono utilizzati dalla psicologia cognitiva.
Test che, in certi casi, richiedono una straordinaria capacità e a cui sono in grado di rispondere correttamente al primo tentativo solo circa il 10% degli intervistati umani. L’AI sarà riuscita a fare di meglio? Non sempre. In alcuni casi, la percentuale di risposte esatte era simile a quella umana.
Inoltre, i ricercatori hanno notato che l’AI ha risposto in maniera differente alla stessa domanda che veniva posta più volte e ha commesso errori impensabili, come invertire vocali e consonanti o sbagliare il risultato delle addizioni. Errori che difficilmente gli umani commettono.
Qual è stata l’AI che è prodotto ottimi risultati
Non tutti gli strumenti analizzati hanno prodotto gli stessi risultati. Tra quelli che sono riusciti a commettere meno errori c’è ChatGPT 4, a cui si accede con un abbonamento a ChatGPT Plus, che ha superato ben il 90% dei test di logica a cui è stato sottoposto.
ChatGPT 4 è più evoluto rispetto alla versione 3,5 e ad altri modelli linguistici che non hanno subito recenti aggiornamenti. In ogni caso, tutte le intelligenze artificiali generative tendono a migliorare nel tempo e, in futuro, saranno sempre più affidabili.
Per saperne di più: Intelligenza Artificiale: cos'è e cosa può fare per noi