QUANDO LA TECNOLOGIA CORRE PIÙ VELOCE DELLE REGOLE
L’AI Act è il nuovo regolamento europeo sull’intelligenza artificiale approvato dall’Unione Europea nel 2024.
Negli ultimi anni l’intelligenza artificiale è entrata nella vita quotidiana con una velocità sorprendente. Strumenti capaci di scrivere testi, generare immagini, analizzare dati o suggerire decisioni sono diventati accessibili a milioni di persone nel giro di pochi mesi.
Quando una tecnologia cresce così rapidamente, le regole arrivano quasi sempre dopo. È successo con internet, con i social network e con molte innovazioni digitali che hanno trasformato il modo di lavorare, comunicare e prendere decisioni.
Ho notato spesso che il problema non è solo l’innovazione in sé, ma il modo in cui la società decide di governarla. Le tecnologie possono amplificare opportunità, ma anche rischi.
Per questo motivo l’Unione Europea ha deciso di intervenire con una normativa specifica: l’AI Act. Non si tratta semplicemente di una legge tecnica, ma di un tentativo di definire alcune regole di base per l’utilizzo dell’intelligenza artificiale.
COS’È DAVVERO L’AI ACT
L’AI Act è il Regolamento europeo sull’intelligenza artificiale, approvato nel 2024. È la prima legge al mondo che prova a stabilire un quadro generale di regole per lo sviluppo e l’utilizzo dei sistemi di intelligenza artificiale.
In termini semplici, il regolamento stabilisce che alcune tecnologie possono essere utilizzate liberamente, altre devono rispettare requisiti precisi, mentre alcune applicazioni vengono vietate.
In concreto, l’AI Act stabilisce che:
- alcuni sistemi di intelligenza artificiale sono vietati, perché considerati incompatibili con i diritti fondamentali delle persone
- altri sistemi sono classificati ad alto rischio e possono essere utilizzati solo se rispettano standard rigorosi di sicurezza, trasparenza e controllo umano
- alcune applicazioni devono semplicemente informare gli utenti quando stanno interagendo con un sistema di intelligenza artificiale
- la maggior parte delle applicazioni quotidiane dell’AI non è soggetta a obblighi specifici
L’obiettivo del regolamento è duplice: proteggere i cittadini e allo stesso tempo creare regole comuni per il mercato europeo.
PERCHÉ L’EUROPA HA DECISO DI INTERVENIRE
L’intelligenza artificiale non è una tecnologia neutrale. I sistemi algoritmici possono influenzare decisioni che riguardano direttamente la vita delle persone.
Un esempio concreto riguarda la selezione del personale. Alcune aziende utilizzano sistemi di intelligenza artificiale per analizzare automaticamente i curriculum e individuare i candidati più adatti a una posizione. Se l’algoritmo è addestrato su dati incompleti o distorti, potrebbe penalizzare alcune categorie di candidati senza che nessuno se ne accorga.
Situazioni simili possono verificarsi nel settore finanziario. Alcune banche utilizzano modelli algoritmici per valutare l’affidabilità creditizia di una persona. Se il sistema non è trasparente, può diventare difficile capire perché una richiesta di prestito venga rifiutata.
Un altro ambito delicato riguarda la sorveglianza biometrica, come i sistemi di riconoscimento facciale utilizzati negli aeroporti o negli spazi pubblici.
In tutti questi casi l’intelligenza artificiale non si limita a svolgere un compito tecnico: può influenzare opportunità lavorative, accesso al credito o libertà personali.
Per questo motivo l’Unione Europea ha scelto un approccio preventivo. Invece di intervenire solo dopo eventuali problemi, ha deciso di definire alcune regole prima che queste tecnologie si diffondessero senza controllo.
In pratica, il regolamento introduce:
- obblighi di trasparenza sull’uso dell’intelligenza artificiale
- valutazioni dei rischi prima dell’utilizzo di alcuni sistemi
- controllo umano nei processi decisionali più sensibili
- sanzioni economiche per le aziende che non rispettano le regole
L’idea di fondo è semplice: se una tecnologia può influenzare decisioni importanti, non può essere utilizzata senza responsabilità.
LA LOGICA DEL RISCHIO: COME FUNZIONA LA LEGGE
Uno degli aspetti più interessanti dell’AI Act è il metodo utilizzato per regolamentare l’intelligenza artificiale. Le regole non sono uguali per tutti i sistemi: dipendono dal livello di rischio che queste tecnologie possono rappresentare per le persone.
SISTEMI VIETATI
Alcune applicazioni sono considerate incompatibili con i diritti fondamentali e quindi non possono essere utilizzate.
Tra queste rientrano:
- sistemi progettati per manipolare il comportamento umano in modo occulto
- sistemi di social scoring, che assegnano punteggi ai cittadini in base al loro comportamento
- alcune forme di riconoscimento biometrico di massa negli spazi pubblici
L’obiettivo è evitare che l’intelligenza artificiale venga utilizzata come strumento di controllo sociale.
SISTEMI AD ALTO RISCHIO
Altre applicazioni sono consentite, ma solo se rispettano requisiti molto rigorosi.
Questa categoria include sistemi utilizzati in contesti sensibili come:
- selezione del personale
- valutazione degli studenti
- accesso al credito
- dispositivi medici
- infrastrutture critiche
In questi casi le aziende devono rispettare standard precisi, tra cui:
- documentare il funzionamento dell’algoritmo
- utilizzare dati affidabili per l’addestramento
- garantire supervisione umana nelle decisioni importanti
- mantenere registri delle decisioni automatizzate
SISTEMI A RISCHIO LIMITATO
Alcuni sistemi devono semplicemente garantire maggiore trasparenza.
Ad esempio:
- chatbot che interagiscono con gli utenti
- strumenti che generano immagini o testi artificiali
In questi casi l’utente deve sapere che sta interagendo con una macchina.
COSA DOVRANNO FARE DAVVERO LE AZIENDE
Le conseguenze più rilevanti dell’AI Act riguarderanno soprattutto le imprese e le organizzazioni che sviluppano o utilizzano sistemi di intelligenza artificiale.
Le aziende che operano in settori sensibili dovranno dimostrare che i propri sistemi rispettano alcuni requisiti fondamentali.
Tra questi:
- analisi dei rischi prima dell’utilizzo dei sistemi
- documentazione tecnica degli algoritmi
- controllo sulla qualità dei dati utilizzati
- supervisione umana nelle decisioni più sensibili
- monitoraggio continuo delle prestazioni dei sistemi
In pratica, l’intelligenza artificiale non potrà più essere utilizzata come una “scatola nera” di cui nessuno conosce il funzionamento.
QUANDO ENTRERÀ DAVVERO IN VIGORE L’AI ACT
L’AI Act è entrato ufficialmente in vigore il 1° agosto 2024, ma molte delle sue regole verranno applicate gradualmente nei prossimi anni.
Questo approccio progressivo serve a dare tempo alle aziende e alle istituzioni di adattarsi alle nuove norme.
In generale:
- 2025 entreranno in vigore i divieti per alcune applicazioni di intelligenza artificiale
- 2026 inizieranno ad applicarsi molte regole per i sistemi classificati come ad alto rischio
- 2027 il regolamento sarà pienamente operativo nella maggior parte dei settori
L’AI ACT RIGUARDA ANCHE STRUMENTI COME CHATGPT?
Una delle domande più frequenti riguarda gli strumenti di intelligenza artificiale generativa, come quelli che producono testi, immagini o codice.
L’AI Act introduce una categoria specifica chiamata modelli di intelligenza artificiale per scopi generali. Si tratta di sistemi che possono essere utilizzati in molti contesti diversi e che spesso vengono integrati in altri servizi digitali.
Per questi modelli la normativa prevede alcuni obblighi, tra cui:
- maggiore trasparenza sui dati utilizzati per l’addestramento
- documentazione tecnica dei modelli
- misure per limitare contenuti illegali o dannosi
Questo significa che strumenti come ChatGPT potranno continuare a essere utilizzati, ma i loro sviluppatori dovranno rispettare alcune regole pensate per garantire maggiore responsabilità.
PERCHÉ L’EUROPA PUNTA SULLE REGOLE NELLA CORSA ALL’INTELLIGENZA ARTIFICIALE
Nel campo dell’intelligenza artificiale la competizione globale è dominata soprattutto da grandi aziende tecnologiche statunitensi e cinesi.
L’Europa ha scelto una strategia in parte diversa. Invece di competere solo sul piano tecnologico, prova a giocare un ruolo importante nella definizione delle regole del mercato digitale.
È una strategia già utilizzata in passato. Il regolamento europeo sulla protezione dei dati personali (GDPR), entrato in vigore nel 2018, ha influenzato le politiche sulla privacy anche fuori dall’Europa. Molte aziende globali hanno adottato quegli standard per poter operare nel mercato europeo.
Con l’AI Act l’Unione Europea sta cercando di fare qualcosa di simile nel campo dell’intelligenza artificiale: stabilire regole che possano diventare un punto di riferimento internazionale.Secondo analisi dell’OECD e della Commissione Europea, regole chiare possono favorire la fiducia nelle nuove tecnologie e ridurre l’incertezza per le imprese che investono in innovazione.
COME CAPIRE SE UN SISTEMA DI INTELLIGENZA ARTIFICIALE È TRASPARENTE
Uno degli obiettivi principali dell’AI Act è aumentare la trasparenza nell’uso dell’intelligenza artificiale.
Per gli utenti non è sempre facile capire quando stanno interagendo con un sistema automatizzato, ma esistono alcuni segnali che possono aiutare.
Il primo riguarda l’informazione agli utenti. Le piattaforme dovrebbero indicare chiaramente quando una risposta, un contenuto o un servizio è generato da un sistema di intelligenza artificiale.
Un secondo aspetto riguarda la possibilità di ottenere spiegazioni. Quando un algoritmo prende decisioni che hanno un impatto concreto, ad esempio nel caso di un prestito o di una selezione del personale, dovrebbe essere possibile capire quali fattori hanno influenzato quella decisione.
Infine, un sistema affidabile dovrebbe prevedere la presenza di un controllo umano, soprattutto nei contesti più sensibili.
L’obiettivo non è eliminare l’intelligenza artificiale dai processi decisionali, ma evitare che diventi una “scatola nera” difficile da comprendere o contestare.
In un contesto in cui le tecnologie diventano sempre più sofisticate, la vera sfida non è soltanto svilupparle, ma imparare a usarle con responsabilità.
Come ricordava il filosofo e storico della tecnologia Lewis Mumford,
“ogni nuova tecnologia richiede una nuova forma di responsabilità”.
Anche nel caso dell’intelligenza artificiale, il progresso non dipende solo da ciò che siamo in grado di costruire, ma da come scegliamo di governarlo.
Ek.
RIPRODUZIONE RISERVATA.