login LOGIN
CHIUDI chiudi
Il mio profilo

mostra
Hai dimenticato la password?
Inserisci l'indirizzo email di registrazione per reimpostare la password.
Segui le istruzioni che ti abbiamo inviato per posta elettronica.

Computer stanno imparando a leggere

Google ha annunciato di aver aggiornato i propri algoritmi per i motori di ricerca grazie a BERT, una nuova tecnica di Natural Language Processing. Ecco di che cosa si tratta

google search

Una recente notizia ha scombussolato il settore della SEO, ossia della Search Engine Optimization, in italiano ottimizzazione dei motori di ricerca. Si tratta delle tecniche utilizzate dagli esperti per posizionare i siti web nelle prime posizioni della SERP (Search Engine Result Page), ossia la pagina dei risultati di un motore di ricerca. Con oltre il 95% del mercato delle ricerche nelle proprie mani, oramai parlare di motori di ricerca è parlare sostanzialmente di Google.

Google Search è sicuramente il servizio più famoso tra i tanti offerti dall'azienda di Mountain View. Negli anni Google ha rilasciato tanti aggiornamenti per l'algoritmo che gestisce il motore di ricerca. Si è passati da un algoritmo abbastanza semplice, fino a un motore di ricerca capace di rilevare le differenze semantiche tra una parola e l'altra. E ora Google Search è pronto a fare un ulteriore passo in avanti. A fine ottobre 2019, infatti, Google ha annunciato di aver aggiornato i suoi algoritmi introducendo "BERT", una nuova tecnica di Natural Language Processing (NLP) basata sulle reti neurali. Detta in parole molto semplici, BERT rende possibile a Google capire meglio cosa sta cercando l'utente, in modo da offrire una risposta migliore. BERT viene applicato a circa il 10% delle ricerche attuali, solo in lingua inglese. In futuro verrà applicato anche ad altri linguaggi e, molto probabilmente, ad una percentuale maggiore di ricerche. Ma BERT, in realtà, è una notizia non solo per chi fa SEO. Per capire il perché, però, dobbiamo prima scoprire come funziona BERT.

Cosa è Google BERT e come funziona

google search

L'acronimo BERT sta per "Bidirectional Encoder Representations from Transformers". Si tratta di una evoluzione "bidirezionale" del metodo di comprensione del linguaggio "Transformers", che a sua volta è un metodo che prende in considerazione non più i singoli accoppiamenti di parole, ma l'intera frase.

Prima di Transformers gli algoritmi di apprendimento del linguaggio naturale (cioè di come parlano gli umani realmente) si limitavano ad analizzare le parole in relazione a quella precedente e successiva. Così, per fare un esempio, potevano capire la differenza tra due espressioni molto simili come "oro bianco" e "oro nero": nel primo caso si tratta di un metallo, nel secondo di petrolio. Transformers, invece, è più complesso perché va più a fondo nella scansione della frase oltre che dei singoli accoppiamenti di parole. BERT è ancora più evoluto: fa lo stesso lavoro di Transformers, ma leggendo la frase sia da sinistra a destra che da destra verso sinistra. In questo modo può capire che le parole "dalle" e "alle" hanno un senso completamente diverso in "lavorare dalle 9 alle 17 ininterrottamente" e in "le briciole dalle da mangiare alle galline".

BERT capisce realmente cosa diciamo? I test GLUE

natural processing unit

In un articolo dell'aprile 2018 scritto dal linguista computazionale della New York University Sam Bowman, in collaborazione con l'Università di Washington e DeepMind (società di intelligenza artificiale di proprietà di Google) sono stati presentati dei test per la valutazione dell'efficienza degli algoritmi di Naturlal Language Processing chiamato GLUE (General Language Understanding Evaluation). I test per gli umani sono molto semplice da eseguire, per le macchine no.

Uno dei test, ad esempio, chiede se una frase sia vera in base alle informazioni offerte in una frase precedente. Se il computer, dopo aver letto che "Il presidente Trump è atterrato in Iraq per l'inizio di una visita di sette giorni", capisce che "Il presidente Trump è in visita all'estero", allora passa questo test. Tutti gli algoritmi di NLP testati hanno fallito ai test di GLUE, raggiungendo un risultato massimo di 69/100 equivalente alla valutazione D+ del sistema scolastico americano. Poi, meno di sei mesi dopo, è arrivato BERT e ha fatto un punteggio di 80,5, equivalente ad un B-. Da quel momento tutti quelli che lavorano agli algoritmi di intelligenza artificiale applicati al machine learning e al NLP hanno preso BERT e hanno iniziato a svilupparlo e affinarlo ulteriormente e, oggi, già cinque algoritmi "BERT-based" superano il risultato medio degli esseri umani nei test GLUE.

I computer hanno imparato a leggere?

A questo punto c'è da chiedersi se, veramente, alla fine è arrivato il giorno in cui i computer hanno imparato a leggere e capire il pensiero degli umani. Perché il dubbio, legittimo, è che più che capire meglio BERT non faccia altro che prendere in giro il test, grazie a qualche trucchetto. Per questo, a luglio 2019, due ricercatori della National Cheng Kung University di Taiwan hanno sottoposto BERT a un'altra serie di test molto impegnativi, chiamati "Argument reasoning comprehension task". Questi test richiedono la selezione di una premessa implicita appropriata (denominata "mandato") che giustificherà un'affermazione. Ad esempio, per sostenere che "il fumo provoca il cancro" (l'affermazione) perché "gli studi scientifici hanno mostrato un legame tra fumo e cancro" (la ragione), è necessario presumere che "gli studi scientifici siano credibili" (il mandato), e non che "gli studi scientifici sono costosi" (che è pure vero, ma non c'entra nulla in questo contesto).

Un buon risultato a questi test, quindi, vuol dire che c'è (o almeno è probabile che ci sia) una buona comprensione del testo e del contesto. Il risultato medio di un umano a questi test è di 80, BERT ha fatto 77. Non male, ma i ricercatori di Taiwan sono riusciti a mettere BERT in grande difficoltà, mostrandone i limiti. Scegliendo dei mandati contenenti la parola "non", la percentuale di risposte corrette è scesa al 61%. Affinando il test alla luce di questi risultati, il punteggio di BERT è sceso a 53, che è più o meno il risultato che può avere un umano dando risposte casuali.

 

14 novembre 2019

A cura di Cultur-e
Addestramento IA non consentito: É assolutamente vietato l’utilizzo del contenuto di questa pubblicazione, in qualsiasi forma o modalità, per addestrare sistemi e piattaforme di intelligenza artificiale generativa. I contenuti sono coperti da copyright.
TecnologicaMente
Sei un Multitasking Master o un Procrastinatore Pro?
Immagine principale del blocco
Sei un Multitasking Master o un Procrastinatore Pro?
Fda gratis svg
Fai il test sulle abitudini di lavoro e studio con la tecnologia
Fai il test gratuito

Iscriviti
all'area personale

Per ricevere Newsletter, scaricare eBook, creare playlist vocali e accedere ai corsi della Fastweb Digital Academy a te dedicati.