Dal 2018 la Commissione Europea ha avviato una serie di iniziative tese a regolare uno strumento che dominerà i mercati dei prossimi decenni, impattando fortemente sulle nostre vite: l’intelligenza artificiale (IA).
Un settore in sviluppo da regolamentare
Da qui la nascita della strategia europea sull’intelligenza artificiale. Di fronte al rapido sviluppo tecnologico, dettato dalla crescita di soluzioni basate sull’Intelligenza Artificiale, e a un contesto politico globale in cui un maggior numero di Paesi sta investendo massicciamente nell’IA, l’UE ha deciso di intraprendere un percorso diverso e reagire alla sempre più complessa governance della tecnologia per restare la pioniera della protezione dei dati personali.
L’idea è quella di iniziare a regolare l’IA prima che sia troppo tardi.
Il piano normativo dell’UE, tra promozione e tutela
Per farlo l’UE ha presentato una proposta di piano normativo per i 27 paesi membri con l’intento di promuovere lo sviluppo dell’IA, ma anche affrontare i potenziali rischi che l’IA pone per la sicurezza e i diritti fondamentali degli individui.
Sarà la prima proposta al mondo atta a regolamentare l’intelligenza artificiale e avrà certamente un enorme impatto a livello internazionale, come si è verificato per il tema dei Dati Personali (GDPR).
Sistemi sicuri e trasparenti, sotto il controllo umano
La Commissione propone che i sistemi di IA utilizzati nell’UE siano sicuri, trasparenti, etici, imparziali e sotto il controllo umano. Saranno inoltre classificati in base al rischio che implicano. Tutto ciò che verrà considerato una minaccia per i cittadini dell’UE sarà bandito: dal punteggio sociale da parte dei governi ai giocattoli che utilizzano l’assistenza vocale che incoraggia comportamenti pericolosi o il rilevamento biometrico (con alcune eccezioni).
Altri sistemi come i chatbot, saranno invece soggetti a obblighi di trasparenza minimi, intesi a consentire a coloro che interagiscono con il contenuto di prendere decisioni informate. All’utente verrà sempre notificato l’uso di un sistema di IA e potrà decidere se continuare o ritirarsi dall’utilizzo dell’applicazione.
La stragrande maggioranza dei sistemi di intelligenza artificiale rientra però nella categoria di “rischio minimo” e a questi sistemi non si applicheranno le nuove regole a ragione del rischio pressoché nullo per i diritti o la sicurezza dei cittadini.
La proposta dell’Europa sembra avere quattro obiettivi fondamentali:
- stabilire condizioni abilitanti per lo sviluppo e la diffusione dell’IA
- costruire una leadership strategica nei settori a impatto elevato
- fare dell’UE il luogo giusto affinché l’IA prosperi
- garantire che le tecnologie di IA siano al servizio delle persone.
Un siffatto continente vede nel progresso tecnologico una delle chiavi necessarie per la ripartenza post-pandemica. E indubbiamente anche lo strumento per l’unione dei mercati nazionali in un unico mercato UE, capace di rapportarsi congiuntamente alle altre grandi potenze mondiali.
Potrebbe interessarti anche: Andromeda, la smart road che monitora i sinistri e il meteo
Fonte: ISPI