L’Italia vieta ChatGPT, e gli altri Paesi ?

Il Garante della Privacy per la protezione dei dati ha ordinato a OpenAI di interrompere temporaneamente l’elaborazione dei dati degli utenti italiani a causa di un’indagine su una sospetta violazione delle rigide normative europee sulla privacy. La decisione ha origine dalla violazione dei dati presso OpenAI, che ha consentito agli utenti di visualizzare i titoli delle conversazioni che altri utenti stavano avendo con il chatbot. Sussistono inoltre preoccupazioni per la mancanza di limiti di età su ChatGPT e per come il chatbot possa fornire informazioni effettivamente errate nelle sue risposte.

Anche altri Governi stanno elaborando le proprie regole per  l’intelligenza artificiale generativa ,che si riferisce a un insieme di tecnologie di intelligenza artificiale che generano nuovi contenuti in base alle richieste degli utenti. Il ritmo con cui la tecnologia è progredita è tale che si sta rivelando difficile per i governi tenere il passo: ora i computer  possono creare opere d’arte realistiche, scrivere interi saggi o persino generare righe di codice, in pochi secondi.

La tecnologia potrà rendere più rapida e precisa una diagnosi medica, svolgere attività ripetitive e ridurre i tempi di sviluppo di un software; ma va regolamentata, per affrontare le sfide che pone in termini di privacy dei dati, uguaglianza, sicurezza del lavoro, generazione di false informazioni.  E in questo diversi Paesi si stanno già muovendo.

In Gran Bretagna sono stati delineati alcuni principi chiave che le aziende devono seguire quando utilizzano l’intelligenza artificiale nei loro prodotti, tra cui sicurezza, trasparenza, correttezza, responsabilità e contestabilità. La Gran Bretagna in questa fase non sta proponendo restrizioni su ChatGPT o qualsiasi tipo di intelligenza artificiale. Invece, vuole garantire che le aziende sviluppino e utilizzino gli strumenti di intelligenza artificiale in modo responsabile e forniscano agli utenti informazioni sufficienti su come e perché vengono prese determinate decisioni.

L’Unione Europea assumerà una posizione molto più restrittiva sull’intelligenza artificiale rispetto alle sue controparti britanniche, contenuta nel European AI Act, le cui norme limiteranno fortemente l’uso dell’IA nelle infrastrutture critiche, nell’istruzione, nelle forze dell’ordine e nel sistema giudiziario. Funzionerà in combinazione con il regolamento generale sulla protezione dei dati dell’UE. Queste regole regolano il modo in cui le aziende possono elaborare e archiviare i dati personali.

Ma mentre Bruxelles elabora leggi per l’IA, alcuni paesi dell’UE stanno già esaminando le azioni dell’Italia su ChatGPT e stanno discutendo se seguirne le orme:  la Germania in primo luogo, ma anche le autorità di regolamentazione della privacy francese e irlandese, che hanno contattato le loro controparti in Italia per approfondire le motivazioni della decisione. Una situazione in piena evoluzione, che vede il nostro Garante all’avanguardia nella difesa dei diritti dei cittadini.

Altri articoli dell'autore

Advertisment

Puoi leggere anche...

567FansLike
1,441FollowersFollow

Ultime notizie

Agroalimentare e la sua filiera

I lettori di Sentieri Digitali hanno avuto modo di comprendere l’impegno costante per un settore così strategico del nostro Paese e dell’Europa. Nell’ambito della...

L’acqua

L’acqua vuol dire vita e quindi è un bene primario. Senza fare polemiche è ben rappresentare che la rete idrica del nostro paese a dir...

Comunità Energetica

Il Clean Energy for Europe Package è basato su una proposta della Commissione Europea del Novembre 2016 e definisce gli obiettivi e la strategia...

Vuoi avere le notizie aggiornate ogni mercoledi?

Iscriviti alla newsletter

LinkedIn
LinkedIn
Share