login LOGIN
CHIUDI chiudi
Il mio profilo

mostra
Hai dimenticato la password?
Inserisci l'indirizzo email di registrazione per reimpostare la password.
Segui le istruzioni che ti abbiamo inviato per posta elettronica.

AI e ragionamenti logici, capacità e limiti

Ascolta l'articolo

L’intelligenza artificiale è in grado di rispondere a molte domande degli utenti, ma è capace di seguire dei ragionamenti logici? Sembrerebbe di no, ecco perché

Intelligenza artificiale Shutterstock

Le potenzialità dell’intelligenza artificiale generativa è ormai indubbia. ChatGPT, Gemini, Copilot e altri strumenti presenti sul web vengono quotidianamente utilizzati da migliaia di persone in tutto il mondo per velocizzare attività, semplificare alcuni processi, ottenere rapidamente delle informazioni, creare contenuti originali e coinvolgenti e tanto altro ancora. L’AI sembra, almeno in apparenza, in grado di fornire tutte le risposte che si cercano, in maniera razionale e corretta. 

Alcune ricerche recenti, però, hanno dimostrato che l’AI non è affatto razionale e non segue il ragionamento logico. In altre parole, le intelligenze artificiali generative non sono infallibili, ma possono commettere gli stessi errori umani e nella stessa percentuale.

Scopriamo cosa è emerso dopo che ChatGPT e altre AI generative sono state sottoposte a dei test di ragionamento logico e quali sono i risultati che hanno conseguito.

L’AI non segue il ragionamento logico, i risultati di uno studio sulle capacità dei modelli linguistici

Non sempre l’intelligenza artificiale è in grado di percepire il contesto, cogliere il senso di tutte le parole, le sfumature, l’ironia e il sarcasmo, e seguire i ragionamenti logici. A rivelarlo è uno studio che è stato condotto dai ricercatori dell’University College di Londra e dell’Università di Bologna.

Come dichiarato in un’intervista all'Ansa da Olivia Mcmillan-Scott, ricercatrice che ha lavorato allo studio, l’obiettivo che si voleva raggiungere era proprio quello di misurare la capacità logica dell’AI. Per raggiungere questo scopo le AI più conosciute, come ChatGPT e Gemini, sono state sottoposte a dei test di logica, quelli che tradizionalmente vengono utilizzati dalla psicologia cognitiva.

Test che, in certi casi, richiedono una straordinaria capacità e a cui sono in grado di rispondere correttamente al primo tentativo solo circa il 10% degli intervistati umani. L’AI sarà riuscita a fare di meglio? Non sempre. In alcuni casi, la percentuale di risposte esatte era simile a quella umana.

Inoltre, i ricercatori hanno notato che l’AI ha risposto in maniera differente alla stessa domanda che veniva posta più volte e ha commesso errori impensabili, come invertire vocali e consonanti o sbagliare il risultato delle addizioni. Errori che difficilmente gli umani commettono.

Qual è stata l’AI che è prodotto ottimi risultati

Non tutti gli strumenti analizzati hanno prodotto gli stessi risultati. Tra quelli che sono riusciti a commettere meno errori c’è ChatGPT 4, a cui si accede con un abbonamento a ChatGPT Plus, che ha superato ben il 90% dei test di logica a cui è stato sottoposto.

ChatGPT 4 è più evoluto rispetto alla versione 3,5 e ad altri modelli linguistici che non hanno subito recenti aggiornamenti. In ogni caso, tutte le intelligenze artificiali generative tendono a migliorare nel tempo e, in futuro, saranno sempre più affidabili.

Per saperne di più: Intelligenza Artificiale: cos'è e cosa può fare per noi

A cura di Cultur-e
Addestramento IA non consentito: É assolutamente vietato l’utilizzo del contenuto di questa pubblicazione, in qualsiasi forma o modalità, per addestrare sistemi e piattaforme di intelligenza artificiale generativa. I contenuti sono coperti da copyright.
Fda
Prompt engineering
Immagine principale del blocco
Prompt engineering
Fda gratis svg
Come interrogare le intelligenze artificiali
Iscriviti al corso gratuito

Iscriviti
all'area personale

Per ricevere Newsletter, scaricare eBook, creare playlist vocali e accedere ai corsi della Fastweb Digital Academy a te dedicati.