Gli USA vogliono mettere regole su strumenti di IA come ChatGPT

L’IA può essere pericolosa ? Lo stesso Presidente Joe Biden ha affermato che  “Le aziende tecnologiche hanno la responsabilità, a mio avviso, di assicurarsi che i loro prodotti siano sicuri prima di renderli pubblici”. Pertanto, l’amministrazione Biden ha dichiarato che sta studiando potenziali misure di responsabilità per i sistemi di intelligenza artificiale (IA), mentre si moltiplicano le domande sul suo impatto a livello di sicurezza nazionale e istruzione.

Infatti, i sistemi di intelligenza artificiale potrebbero portare enormi benefici, ma solo se si affrontano le loro potenziali conseguenze e danni. Affinché questi sistemi raggiungano il loro pieno potenziale, le aziende e i consumatori devono potersi fidare di loro.

ChatGPT, un programma di intelligenza artificiale che ha recentemente attirato l’attenzione del pubblico per la sua capacità di scrivere rapidamente risposte a un’ampia gamma di domande, in particolare ha attirato l’attenzione dei legislatori in quanto è diventata l’applicazione consumer in più rapida crescita nella storia, con più di 100 milioni di utenti attivi mensili.

La National Telecommunications and Information Administration (NTIA), un’agenzia del Dipartimento del Commercio che fornisce consulenza alla Casa Bianca in materia di telecomunicazioni e politica dell’informazione, attende indicazioni,  in quanto vi è “un crescente interesse normativo” in un “meccanismo di responsabilità” dell’IA. L’agenzia vuole sapere se ci sono misure che potrebbero essere messe in atto per garantire “che i sistemi di intelligenza artificiale siano legali, efficaci, etici, sicuri e altrimenti affidabili”.

L’NTIA prevede di redigere un rapporto in cui esamini l’impegno per garantire che i sistemi di intelligenza artificiale funzionino come affermato e senza causare danni e per garantire un approccio coerente e completo del governo federale all’intelligenza artificiale, valutando sia i rischi che le opportunità.

Nel contempo, da più parti si guarda con sospetto all’IA: ad esempio, un gruppo di etica tecnologica, il Center for Artificial Intelligence and Digital Policy, ha chiesto alla Federal Trade Commission degli Stati Uniti di impedire a OpenAI di rilasciare nuove versioni commerciali di GPT-4 affermando che era “di parte, ingannevole e un rischio per la privacy e la sicurezza pubblica”. Una valutazione soggettiva, che tuttavia apre un dibattito sulla necessità di regolamentare le nuove tecnologie di intelligenza artificiale.

Altri articoli dell'autore

Advertisment

Puoi leggere anche...

567FansLike
1,441FollowersFollow

Ultime notizie

Agroalimentare e la sua filiera

I lettori di Sentieri Digitali hanno avuto modo di comprendere l’impegno costante per un settore così strategico del nostro Paese e dell’Europa. Nell’ambito della...

L’acqua

L’acqua vuol dire vita e quindi è un bene primario. Senza fare polemiche è ben rappresentare che la rete idrica del nostro paese a dir...

Comunità Energetica

Il Clean Energy for Europe Package è basato su una proposta della Commissione Europea del Novembre 2016 e definisce gli obiettivi e la strategia...

Vuoi avere le notizie aggiornate ogni mercoledi?

Iscriviti alla newsletter

LinkedIn
LinkedIn
Share