Il panorama regolamentare globale dell’IA

14 Novembre 2023
L’intelligenza artificiale (IA) sta rivoluzionando il mondo in cui viviamo, e la sua crescente importanza ha portato alla necessità di una regolamentazione adeguata. Un rapporto pubblicato da Ernst & Young (EY), una delle quattro maggiori società di revisione contabile, esplora il panorama regolamentare globale dell’IA e offre una guida per comprendere e navigare in questo complesso ambito.
Panoramica del rapporto EY
Il rapporto di EY, intitolato “Il panorama regolamentare globale dell’intelligenza artificiale: tendenze politiche e considerazioni per costruire fiducia nell’IA“, è stato pubblicato il mese scorso e si basa su un’analisi di otto giurisdizioni principali che hanno mostrato significativa attività legislativa e regolamentare sull’IA. Queste giurisdizioni includono Canada, Cina, Unione Europea, Giappone, Corea, Singapore, Regno Unito e Stati Uniti.
Il rapporto rivela che nonostante le diverse contestualizzazioni culturali e regolamentari, queste giurisdizioni condividono molti degli stessi obiettivi e approcci per la governance dell’IA. Tutte mirano a ridurre al minimo i potenziali danni derivanti dall’IA, massimizzando nel contempo i benefici per la società. Inoltre, si allineano tutti ai principi dell’IA dell’OCSE sostenuti dal G20 nel 2019, che pongono l’accento sui diritti umani, la trasparenza, la gestione dei rischi e altre considerazioni etiche.
Tuttavia, il rapporto identifica anche alcune divergenze e sfide nel panorama regolamentare globale dell’IA. Ad esempio, l’Unione Europea ha adottato una delle posizioni più proattive a livello globale, proponendo un’ampia normativa sull’IA che imporrebbe requisiti obbligatori per gli utilizzi ad alto rischio dell’IA, come l’identificazione biometrica o le infrastrutture critiche. Anche la Cina ha mostrato la volontà di regolamentare aspetti fondamentali dell’IA, come la raccomandazione dei contenuti o il riconoscimento facciale. D’altro canto, il rapporto sostiene che gli Stati Uniti abbiano adottato un approccio più leggero, incentrandosi sulla guida volontaria dell’industria e sulle regole settoriali specifiche.
Evoluzione dinamica del panorama regolamentare dell’IA
Il panorama regolamentare dell’IA è dinamico e in continua evoluzione. Uno degli sviluppi più significativi è rappresentato dall’ordine esecutivo firmato dal Presidente Biden, che mira a monitorare e regolamentare i rischi dell’intelligenza artificiale sfruttandone al contempo il potenziale. Questo ordine esecutivo va oltre le linee guida volontarie dell’industria e le regole settoriali specifiche descritte nel rapporto di EY, rappresentando l’azione più significativa nel campo dell’IA intrapresa da un governo.
L’ordine esecutivo richiederà agli sviluppatori di potenti sistemi di IA di condividere i risultati dei test di sicurezza con il governo federale prima che siano resi pubblici e di informare il governo se i loro modelli di IA presentano rischi per la sicurezza nazionale, economica o sanitaria. L’ordine affronterà anche altre questioni come l’immigrazione, la biotecnologia, il lavoro e la moderazione dei contenuti.
Altre importanti evoluzioni del panorama regolamentare dell’IA si sono verificate dopo la pubblicazione del rapporto EY. Ad esempio, il governo del Regno Unito ha pubblicato un Libro Bianco sull’IA che delinea il quadro proposto per la regolamentazione dell’IA nel paese. Il quadro del Regno Unito si basa su quattro principi:
- proporzionalità
- responsabilità
- trasparenza
- etica
Questi principi si allineano con quelli dell’Unione Europea.
Le migliori pratiche e le tendenze emerse dal rapporto EY
Il rapporto di EY evidenzia diverse tendenze e migliori pratiche nella regolamentazione dell’IA che rimangono rilevanti. Queste includono:
- Un approccio basato sul rischio che adatta la supervisione al caso d’uso previsto e al profilo di rischio dei sistemi di IA.
- La considerazione dei rischi specifici del settore e delle esigenze di supervisione, come la sanità, la finanza o i trasporti.
- Iniziative che affrontano gli impatti dell’IA su aree politiche adiacenti, come la privacy dei dati, la sicurezza informatica e la moderazione dei contenuti.
- L’utilizzo di “sandbox“ regolamentari per sviluppare regole sull’IA in collaborazione con gli stakeholder.
Il rapporto di EY conclude con un invito al costante impegno tra funzionari governativi, dirigenti aziendali e altri soggetti interessati per trovare il giusto equilibrio tra regolamentazione e innovazione.