privacy,-chatgpt-deve-chiarire-molte-cose-sull’uso-dei-nostri-dati

Privacy, ChatGpt deve chiarire molte cose sull’uso dei nostri dati

All’indomani della lettera aperta firmata da Elon Musk, in cui si invitava a mettere in pausa lo sviluppo dell’intelligenza artificiale, in attesa di avere maggiori certezze sui rischi ad essa associati, il Garante privacy italiano blocca OpenAI, la società statunitense che sviluppa Chat Gpt.

Si tratta, è bene precisarlo, di un provvedimento preso nel corso di un’istruttoria non ancora conclusa e, quindi, tutte le limitazioni ordinate potrebbero avere un effetto temporaneo.

Le violazioni che, però, il Garante paventa sono numerose e gravi e vanno dalla mancanza di un’informativa, da rendere agli utenti al momento della raccolta dei dati, all’assenza di verifica dell’età e di filtri per i minori.

Il provvedimento, quindi, confermerebbe quello che in tanti pensano, non solo in relazione all’uso dei dati personali: Chat Gpt e il suo funzionamento sono oscuri e opache sono le sue finalità.

Tuttavia, se lo interroghiamo, la risposta che il chatbot ci restituisce è rassicurante: non memorizzerebbe i dati degli utenti che interagiscono con il sistema, utilizzerebbe le informazioni fornite solo per rispondere alle domande poste e non condividerebbe nulla con i terzi.

In tanti, nelle ultime settimane, si sono divertiti a giocare con la macchina, spesso usandola come confessore, raccontandole esperienze reali, ansie, aspettative.

E, per farlo, hanno dovuto utilizzare il proprio indirizzo di posta elettronica o registrarsi alla piattaforma, rivelando, quindi, la propria identità.

È legittimo quindi domandarsi che fine che fanno le informazioni che sono condivise. Siamo certi che OpenAI non le conservi, non le registri, non le ceda ad altri?

Perché OpenAI non lo dice chiaramente, fornendo – come sarebbe previsto dall’articolo 13 del Gdpr – un’informativa al trattamento dei dati ossia un documento in cui spiga quali dati raccoglierà, come li utilizzerà, per quali finalità e se li comunicherà o meno a terzi?

La trasparenza, anche nell’Artificial Intelligence Act, il regolamento europeo ancora in discussione, è un cardine fondamentale, per appianare le asimmetrie informative tra fornitori dei servizi e utenti e per riconoscere a questi ultimi il diritto di sapere come saranno adoperati i propri dati e quali rischi di discriminazione potrebbero sorgere.

Del resto, se ci allontaniamo dai modelli linguistici di Chat Gpt, gli scenari distopici dell’intelligenza artificiale, dai sistemi di riconoscimento facciale all’analisi delle emozioni, transitando per deepfake e disinformazione, sono noti.

Occorrono quindi prese di posizione nette e coraggiose (come quella del Garante privacy), barriere che arginino il tecno-entusiasmo di cui siamo stati vittime negli ultimi due decenni.

L’Europa, pur avendo perso una sua centralità economica, si è posta come baluardo dei diritti fondamentali, contrapponendosi al laissez-faire che ha caratterizzato la risposta legislativa americana allo sviluppo delle nuove tecnologie.

La Carta sui diritti fondamentali di Nizza, il Gdpr e, oggi, il Regolamento sull’Intelligenza artificiale si sono posti in questa direzione, con una chiara linea di continuità.

Abbiamo barattato (e continuiamo a barattare) le nostre esperienze, i nostri viaggi, le nostre feste per essere iperconnessi con i nostri “amici” e cibarci di video di gattini e di influencer, creando enormi database di dati, che, oggi, sono utilizzati per allenare le macchine dell’intelligenza artificiale.

Siamo certi di voler eleggere un chatbot a confessore e di continuare a regalare pezzi importanti delle nostre esistenze, abdicando ai nostri diritti?

© Riproduzione riservata

Related Posts