Già da diverso tempo si sente parlare delle etichette da aggiungere ai contenuti generati dall’intelligenza artificiale, un sistema che (teoricamente) dovrebbe aiutare gli utenti a distinguere i lavori prodotti dall’uomo da quelli realizzati dal computer.
Anche OpenAI sarebbe al lavoro su un sistema di watermarking per ChatGPT ma questa decisione sta avendo una risonanza piuttosto ampia, dividendo sia i membri dell’azienda che gli utenti che non sembrano essere d’accordo a vedere un’etichetta sui “loro” lavori. Ecco quello che sappiamo.
Come funziona l’idea di OpenAI
Da quello che sappiamo, queste “etichette digitali” che contrassegneranno i contenuti generati da ChatGPT vanno a intervenire sulle modalità con cui il modello AI prevede e genera le sequenze di parole, arrivando a creare una sorta di “schema” che può essere identificato da appositi software ma che, chiaramente, non va a intaccare la qualità del testo scritto.
Sempre secondo OpenAI, questo sistema è estremamente preciso e consente ai vari strumenti per la rilevazione di riconoscere un testo generato dall’AI con un’accuratezza del 99,9%.
Chiaramente utilizzando un sistema di riconoscimento del genere si renderebbe molto più trasparente e responsabile l’uso dell’intelligenza artificiale, con tutti quei “furbetti” che a scuola o sul lavoro non potrebbero più delegare le loro incombenze a ChatGPT, non senza essere scoperti chiaramente.
Questo, da un lato, scoraggerebbe le persone a presentare elaborati realizzati con l’AI come se fossero i propri e, dall’altro, incoraggerebbe le persone a fare il proprio lavoro o, quantomeno, a cambiare quanto fatto dai chatbot e “riformularlo” a parole proprie.
Un’eventualità che ha già raccolto il parere positivo dei vari professionisti in diversi settori ma che, in realtà, sta trovando anche diverse resistenze.
Le reazioni degli utenti
Secondo un'indagine interna a OpenAI, circa il 30% degli utenti intervistati preferirebbe ridurre l'utilizzo del tool se il sistema di watermarking diventasse effettivamente realtà.
Numeri che hanno fatto riflettere l’azienda, con moltissimi sviluppatori che stanno cercando già delle soluzioni “alternative”, soprattutto per non perdere la fiducia degli utenti ma garantire comunque un servizio trasparente per tutti, inclusi i professionisti del settore.
Perciò OpenAI ha confermato di essere al lavoro su altre soluzioni del genere, magari passando attraverso un sistema di metadati, come accade per le foto scattate con lo smartphone o con una qualsiasi fotocamera.
Le possibilità, al momento, sono tutte al vaglio degli sviluppatori e molto dipenderà anche dall’approvazione di altri sistemi legislativi per regolamentare l’utilizzo dell’AI che in futuro dovranno sicuramente essere presi in considerazione per continuare a garantire una fruizione virtuosa di queste tecnologie e, soprattutto, il pieno rispetto degli utenti e del loro lavoro.
Per saperne di più: ChatGPT, cos’è, come funziona, a cosa serve, come usarla gratis