login LOGIN
CHIUDI chiudi
Il mio profilo

mostra
Hai dimenticato la password?
Inserisci l'indirizzo email di registrazione per reimpostare la password.
Segui le istruzioni che ti abbiamo inviato per posta elettronica.

Cosa non andrebbe mai rivelato a ChatGPT

Ascolta l'articolo

Interagire con ChatGPT significa per l’utente prestare particolare attenzione a preservare la privacy e la sicurezza dei propri dati personali. Ecco come fare

donna-sorpresa Shutterstock

Oggi che l'evoluzione tecnologica si snoda attraverso le innumerevoli capacità dimostrate dall'intelligenza artificiale, temi come la salvaguardia della privacy e la riservatezza dei dati personali si ergono come questioni prioritarie. 

Seppur attenzionate ormai da diverso tempo, queste problematiche stanno risalendo alla ribalta per via della diffusione massiva di chatbot conversazionali come ChatGPT, Google Bard e Bing Chat, la cui interazione con gli esseri umani solleva diversi interrogativi circa la natura dei dati condivisi su queste piattaforme.

Non per niente, a fine marzo di quest’anno il Garante Privacy italiano aveva sospeso l’accesso al chatbot di OpenAI perché non conforme con la normativa comunitaria in materia di privacy rispetto alla raccolta e alla conservazione illegale dei dati degli utenti. Cosa che ha smosso anche altri governi nell’intento di garantire quella sicurezza che l’AI potrebbe mettere a repentaglio.

Nella prima bozza della normativa europea per regolamentare l’AI, nota come AI Act, si legge che per i sistemi di intelligenza artificiale generativa la trasparenza è stata eletta a “requisito fondamentale”. Quindi, modelli come ChatGPT e DALL-E dovranno palesare, tra le altre cose, l'origine del contenuto generato.

Mentre esiste la concreta possibilità che ChatGPT venga rimosso dal mercato dell’Unione Europea, se non riterrà possibile adattarsi al GDPR, è bene essere al corrente di quelle informazioni che non dovrebbero mai essere rivelate nei prompt creati per conversare con il chatbot.

  • 1. Perché tenere il riserbo sui dati sensibili
    Dati-sensibili-uomo-bocca-legata

    Shutterstock

    Dopo circa un mese dal blocco a ChatGPT ordinato dal Garante della Privacy, ad aprile il chatbot di OpenAI ha ripreso a funzionare in Italia. Con il provvedimento cautelare che l’ha obbligata a soddisfare alcuni requisiti comunitari di privacy prima di tornare online, OpenAI si è impegnata ad allineare la propria tecnologia ai diritti delle persone

    Sebbene l'organo di controllo italiano abbia espresso soddisfazione per le misure di sicurezza adottate finora, è necessario intraprendere ulteriori azioni per una completa aderenza alla normativa europea sulla data protection, meglio nota come GDPR.

    Forse non tutti gli italiani sono a conoscenza del diritto a rifiutare di cedere i propri dati per l’addestramento dei modelli di apprendimento automatico che alimentano ChatGPT. Ma purtroppo questo non basta.

    Innanzitutto, va considerata la possibilità che qualcuno possa sfruttare delle vulnerabilità per infiltrarsi nei server di OpenAI e carpire i dati degli utenti. È importante ricordare che nel marzo 2023, a causa di un problema tecnico di ChatGPT, alcune persone sono riuscite ad accedere alle conversazioni e alle informazioni di pagamento degli utenti della versione Plus. 

    Inoltre, rispetto alla memorizzazione delle chat su server gestiti da "affidabili fornitori statunitensi", è lecito chiedersi cosa garantisce l'effettiva affidabilità di tali piattaforme. E se OpenAI elimina le informazioni personali identificabili, prima di questo passaggio i dati comunque entrano nei server in forma grezza e potrebbero essere potenzialmente accessibili dal personale.

    Infatti, OpenAI consente l'accesso a determinati membri del proprio staff per scopi di manutenzione del modello di intelligenza artificiale, il che significa che alcune conversazioni potrebbero essere lette o analizzate da parte del personale.

    Infine, sebbene OpenAI prometta di non condividere i dati degli utenti con terze parti per scopi di marketing o pubblicità, li condivide con coloro che sono responsabili della manutenzione del sito Web e delle applicazioni mobili al fine di garantire il corretto funzionamento dei servizi.

  • 2. Nascondere identità, credenziali e dati bancari
    Nascondere-identità-donnacon-computer

    Shutterstock

    La prima e fondamentale tappa in questa odissea digitale è il riconoscimento degli aspetti più delicati dell'identità individuale, i quali, se divulgati, potrebbero preludere a conseguenze gravi. Le informazioni quali il nome completo, l'indirizzo di residenza, la data di nascita e il codice fiscale costituiscono pilastri della riservatezza personale, l'esposizione delle quali potrebbe aprire la via a malintenzionati. Infatti, al di là del pericolo costituito da OpenAI, c’è il rischio di cadere vittima di hacker che potrebbero prendere di mira questi dati sensibili. È bene anche non comunicare dettagli in merito a piani di viaggio o assenze prolungate da casa.

    Tuttavia, non si dovrebbe limitare la cautela alle informazioni basilari appena descritte. La condivisione delle credenziali di accesso, ovvero le password e gli username, aprirebbe un vaso di Pandora digitale, esponendo gli utenti a potenziali attacchi informatici e furti d'identità. Si pone quindi l'assoluta necessità di proteggere tali dati con la medesima attenzione riservata ai gioielli di famiglia.

    L'analisi prosegue nel territorio dei dati bancari, una fonte preziosa per gli attori malevoli che non aspettano altro che carpire codici di qualche conto. Dettagli come numeri di carte di credito e IBAN, essenziali per operazioni finanziarie, non hanno alcun ruolo nella sfera di competenza di ChatGPT. La loro rivelazione non rappresenta solo un pericolo, ma una chiara inutilità.

  • 3. Off limits anche le informazioni su lavoro e salute
    Informazioni-lavoro-confidenziali

    Shutterstock

    Un argomento ulteriore meritevole di attenzione è rappresentato dal contesto lavorativo. Qui, la cautela nel condividere informazioni sensibili deve essere ancor più elevata, considerando la possibilità di una fuga di documenti riservati o loro porzioni. Proprio come i colossi dell'informatica hanno implementato misure di sicurezza dei dati aziendali e impartito policy restrittive ai dipendenti, è cruciale che gli individui si astengano dal condividere particolari sensibili del contesto lavorativo con ChatGPT.

    L'approccio alla sfera medica è altrettanto cruciale. Sebbene ChatGPT possa identificare abilmente sintomi o condizioni fisiche anomale, nulla può sostituire la consulenza medica di un professionista. I dettagli riguardanti la salute dovrebbero rimanere prerogativa di figure competenti e specializzate, evitando di affidarsi a un chatbot.

    Per concludere, adottare un approccio oculato nel condividere informazioni, evitando rivelazioni eccessive, rappresenta il baluardo in un panorama sempre più governato dall'AI. Nel contesto dei bot conversazionali come ChatGPT, l'individuo diviene il timoniere della propria privacy e solo con astuzia e accortezza si potrà godere appieno dei benefici che l'AI può offrire senza compromettere la propria sicurezza.

    Per saperne di più: ChatGPT, cos'è, come funziona, a cosa serve, come usarla gratis

A cura di Cultur-e
Addestramento IA non consentito: É assolutamente vietato l’utilizzo del contenuto di questa pubblicazione, in qualsiasi forma o modalità, per addestrare sistemi e piattaforme di intelligenza artificiale generativa. I contenuti sono coperti da copyright.
Fda
Prompt engineering
Immagine principale del blocco
Prompt engineering
Fda gratis svg
Come interrogare le intelligenze artificiali
Iscriviti al corso gratuito

Iscriviti
all'area personale

Per ricevere Newsletter, scaricare eBook, creare playlist vocali e accedere ai corsi della Fastweb Digital Academy a te dedicati.