Il trattato rappresenta un passo storico nella regolamentazione dell’AI a livello globale, ma mentre alcuni vedono questo accordo come un simbolo di progresso verso una AI etica e responsabile, altri ritengono che le sue lacune normative e le scappatoie previste ne limitino l’efficacia.
Il 5 settembre 2024 è stato firmato a Vilnius in Lituania, il primo trattato internazionale giuridicamente vincolante sull’Intelligenza Artificiale (AI), noto come la “Convenzione quadro del Consiglio d’Europa sull’AI, i diritti umani, la democrazia e lo Stato di diritto”. Tra i firmatari figurano l’Unione europea, il Regno Unito, gli Stati Uniti, Israele e altri Paesi come Norvegia, Islanda e San Marino.
Questo trattato rappresenta un passo significativo nella regolamentazione dell’AI a livello globale ed è il risultato di anni di negoziati avviati nel 2019 dal Consiglio d’Europa. In seguito alla crescente diffusione dei sistemi di AI e alle preoccupazioni sul loro impatto sui diritti umani e sulla governance democratica, è infatti emersa la necessità di creare un quadro internazionale che affrontasse questi rischi. La Convenzione cerca dunque di fornire una risposta, stabilendo linee guida comuni che i Paesi firmatari devono seguire. Pur essendo giuridicamente vincolante, il trattato si focalizza soprattutto sulla protezione dei diritti umani, della democrazia e dello Stato di diritto nel contesto dell’AI.
Differenze rispetto all’AI Act dell’Ue
Sebbene il nuovo trattato abbia obiettivi simili all’AI Act dell’Ue, ci sono alcune differenze fondamentali: portata geografica, focus normativo, ambiti di applicazione, esclusioni.
In merito alla portata geografica, mentre l’AI Act si applica solo ai Paesi membri dell’Ue, la Convenzione è aperta anche ai Paesi non europei, ampliandone la portata a livello globale. Inoltre l’AI Act si concentra principalmente sulla classificazione dei sistemi di AI in base al livello di rischio e sulla regolamentazione del loro utilizzo all’interno dell’Ue, mentre il nuovo trattato internazionale si propone di regolamentare l’intero ciclo di vita dei sistemi di AI, con un’enfasi sulla protezione dei diritti fondamentali.
Bene poi sottolineare che l’AI Act disciplina in modo specifico il mercato e l’uso commerciale dell’AI, mentre la Convenzione si focalizza maggiormente sugli aspetti legati al settore pubblico, anche se include disposizioni sul settore privato. Infine, si rileva che il trattato permette esenzioni legate alla sicurezza nazionale: è questo un punto critico che non è presente nell’AI Act.
Valutare l’impatto dell’AI sui diritti umani
Al di là del confronto con l’AI Act, si possono evidenziare i punti ‘forti’ della Convenzione. Per prima cosa si sottolinea la cooperazione internazionale: rappresenta un importante passo avanti nella cooperazione globale sulla regolamentazione dell’AI, con la partecipazione di Paesi chiave come Stati Uniti e Israele.
Inoltre, il nuovo trattato fornisce un quadro giuridico per garantire che l’uso dell’AI non violi i diritti umani fondamentali, prevenendo la discriminazione e proteggendo la privacy. Pur regolando i rischi, la Convenzione promuove il progresso dell’AI, incoraggiando un’innovazione che rispetti i principi democratici e lo Stato di diritto.
C’è poi l’aspetto relativo alla trasparenza e all’accountability: le entità pubbliche e private sono obbligate a valutare l’impatto dei loro sistemi di AI sui diritti umani e sulla democrazia, e rendere queste informazioni pubbliche.
Obblighi troppo vaghi e difficile applicazione
Nonostante l’importanza del trattato, non sono mancate critiche da parte di esperti e gruppi della società civile: il testo è stato criticato per la sua genericità linguistica e per la mancanza di prescrizioni chiare.
Sono poi previste diverse esenzioni, specialmente per i sistemi di AI utilizzati per scopi di sicurezza nazionale, creando una potenziale scappatoia per gli Stati. Inoltre il settore privato non è adeguatamente coperto dal trattato, e sono emerse critiche rivolte al doppio standard applicato rispetto al settore pubblico.
Ultima questione è quella che riguarda l’implementazione incerta: gli osservatori sono scettici riguardo alla reale implementazione della Convenzione, soprattutto a causa del linguaggio poco vincolante e della vaghezza degli obblighi.
In ogni caso, si tratta di un importante punto di partenza che invita a una riflessione più ampia sulla necessità di trovare un equilibrio tra innovazione tecnologica e protezione dei diritti fondamentali.
Fonte: a cura della Redazione di Exportiamo, redazione@exportiamo.it
© RIPRODUZIONE RISERVATA