L’IA può essere pericolosa ? Lo stesso Presidente Joe Biden ha affermato che “Le aziende tecnologiche hanno la responsabilità, a mio avviso, di assicurarsi che i loro prodotti siano sicuri prima di renderli pubblici”. Pertanto, l’amministrazione Biden ha dichiarato che sta studiando potenziali misure di responsabilità per i sistemi di intelligenza artificiale (IA), mentre si moltiplicano le domande sul suo impatto a livello di sicurezza nazionale e istruzione.
Infatti, i sistemi di intelligenza artificiale potrebbero portare enormi benefici, ma solo se si affrontano le loro potenziali conseguenze e danni. Affinché questi sistemi raggiungano il loro pieno potenziale, le aziende e i consumatori devono potersi fidare di loro.
ChatGPT, un programma di intelligenza artificiale che ha recentemente attirato l’attenzione del pubblico per la sua capacità di scrivere rapidamente risposte a un’ampia gamma di domande, in particolare ha attirato l’attenzione dei legislatori in quanto è diventata l’applicazione consumer in più rapida crescita nella storia, con più di 100 milioni di utenti attivi mensili.
La National Telecommunications and Information Administration (NTIA), un’agenzia del Dipartimento del Commercio che fornisce consulenza alla Casa Bianca in materia di telecomunicazioni e politica dell’informazione, attende indicazioni, in quanto vi è “un crescente interesse normativo” in un “meccanismo di responsabilità” dell’IA. L’agenzia vuole sapere se ci sono misure che potrebbero essere messe in atto per garantire “che i sistemi di intelligenza artificiale siano legali, efficaci, etici, sicuri e altrimenti affidabili”.
L’NTIA prevede di redigere un rapporto in cui esamini l’impegno per garantire che i sistemi di intelligenza artificiale funzionino come affermato e senza causare danni e per garantire un approccio coerente e completo del governo federale all’intelligenza artificiale, valutando sia i rischi che le opportunità.
Nel contempo, da più parti si guarda con sospetto all’IA: ad esempio, un gruppo di etica tecnologica, il Center for Artificial Intelligence and Digital Policy, ha chiesto alla Federal Trade Commission degli Stati Uniti di impedire a OpenAI di rilasciare nuove versioni commerciali di GPT-4 affermando che era “di parte, ingannevole e un rischio per la privacy e la sicurezza pubblica”. Una valutazione soggettiva, che tuttavia apre un dibattito sulla necessità di regolamentare le nuove tecnologie di intelligenza artificiale.