L’EUROPA APPROVA IL REGOLAMENTO SULL’IA

Tratto da Il manifesto di Andrea Capocci

L’Unione Europea sarà la prima potenza tecnologica mondiale a tentare di governare l’intelligenza artificiale. Ieri il Parlamento europeo ha approvato a larga maggioranza un regolamento ribattezzato «AI act», che prima di entrare in vigore dovrà essere discusso con il Consiglio dell’Unione Europea – che rappresenta i governi – e con la Commissione.
Il relatore Brando Benifei del gruppo «Socialisti e democratici» ha salutato il voto di ieri come un successo. «Mentre le società Big Tech suonano l’allarme sulle loro stesse creazioni, l’Europa è andata avanti e ha proposto una risposta concreta ai rischi che l’intelligenza artificiale inizia a porci». Secondo il rumeno Dragos Tudorache, uno dei due relatori, il processo di approvazione si potrebbe concludere già entro il 2023 ma darà agli Stati due anni di tempo per adeguarsi.
Il regolamento prova a definire cosa sia l’intelligenza artificiale, compito niente affatto facile anche per gli esperti. Nel novero l’Unione comprende i sistemi di apprendimento automatico come il deep learning (usato dal computer per battere a scacchi ogni umano), quelli basati sulla logica e sulla conoscenza come ChatGPT, il sistema in grado di dialogare con una persona via computer supportato da un’amplissima banca dati – e gli «approcci statistici» (qualunque cosa significhi). Si tratta di un campo piuttosto vasto i cui confini non sono ben chiari. Ma è una vaghezza necessaria, poiché nel giro di uno o due anni ogni definizione troppo restrittiva rischia di diventare obsoleta.

IL PARLAMENTO ha classificato per grado di rischio queste tecnologie, stabilendo che per alcune di esse il pericolo di abusi è così grave da giustificarne il divieto assoluto. Ad esempio, saranno proibiti i sistemi di valutazione dell’affidabilità delle persone come il cosiddetto «credito sociale» sperimentato in alcune città della Cina. Altrettanto vietati i sistemi di identificazione biometrica negli spazi pubblici, di classificazione basati su caratteristiche sensibili come genere, etnia o cittadinanza, di «polizia predittiva» e di riconoscimento delle emozioni da parte delle forze dell’ordine. Il gruppo dei Popolari europei ha tentato in extremis di ammorbidire il divieto alla sorveglianza biometrica, che molti esponenti della destra – compreso il ministro degli interni italiano – vorrebbero utilizzare a scopo securitario. Il blitz non è riuscito ma preannuncia un percorso accidentato per il regolamento. «Sarà un negoziato probabilmente difficile» ha confermato Benifei al sito Guerre di rete. «Il Parlamento Europeo ha una visione diversa rispetto a quella che probabilmente avranno molti Governi».

Invece, per mettere in circolazione i sistemi classificati «ad alto rischio» per la salute, la sicurezza e il rispetto dei diritti umani saranno necessari requisiti giuridici «in relazione a dati e governance dei dati, documentazione e conservazione delle registrazioni, trasparenza e fornitura di informazioni agli utenti, sorveglianza umana, robustezza, accuratezza e sicurezza». In altre parole, i creatori di queste intelligenze dovranno dimostrare di aver preso in considerazione tutti i rischi e di aver stabilito un piano efficace per ridurli. Per le cosiddette «intelligenze indipendenti» come ChatGPT è prevista la creazione di un apposito registro che ne aumenti la trasparenza e la sorveglianza. «Vogliamo che i contenuti generati dall’intelligenza artificiale siano riconoscibili come tali» ha detto Benifei incontrando i giornalisti dopo il voto. «I deepfake non avvelenino la nostra democrazia». Chi crea un’intelligenza artificiale dovrà anche dichiarare quali dati coperti da diritto d’autore siano stati utilizzati nell’addestramento. Questo sistema di controllo è «il risultato di due anni di lavoro preparatorio, derivato dagli orientamenti etici del gruppo di esperti ad alto livello sull’intelligenza artificiale, guidato da più di 350 organizzazioni», si legge nella relazione che accompagna il regolamento europeo.

STRASBURGO non ha tuttavia ascoltato le posizioni più critiche giunte dai movimenti a difesa dei migranti. Il nuovo regolamento, dicono, non è abbastanza chiaro sulle possibili applicazioni dell’intelligenza artificiale nel controllo delle frontiere, dove viene usata in modo piuttosto disinvolto. Ong e associazioni hanno proposto emendamenti per bandire le valutazioni automatiche del rischio e l’analisi predittiva applicate ai migranti, ma sono stati respinti. «Purtroppo, la difesa dei diritti umani al Parlamento europeo non ha incluso anche la protezione dei migranti dagli abusi dell’intelligenza artificiale, che può essere utilizzata per facilitare i respingimenti illegali» ha detto Sarah Chandler, portavoce della rete European Digital Rights che riunisce 47 Ong a difesa dei diritti umani. «L’Ue sta creando un regolamento a due velocità, in cui i migranti sono meno tutelati rispetto al resto della società».

 

 

No Comments

Sorry, the comment form is closed at this time.