Meta non firmerà il codice dell'Unione Europea sull'intelligenza artificiale

La Commissione Europea ha pubblicato le sue linee guida per chiarire l'applicazione dell'Artificial Intelligence Act alle aziende che offrono questo servizio su base generale. L'obiettivo è incoraggiarle ad aderire a un codice di buone pratiche che, a suo avviso, aiuterebbe i fornitori di modelli di intelligenza artificiale come ChatGPT e Gemini a conformarsi all'Artificial AI Act europeo.
La pubblicazione di questo Codice avviene meno di un mese prima dell'entrata in vigore delle norme, prevista per il 2 agosto. Il documento comprende tre capitoli: Trasparenza e Copyright, entrambi rivolti a tutti i fornitori di modelli di intelligenza artificiale di uso generale , e Sicurezza e Protezione, rilevanti solo per un numero limitato di fornitori dei modelli più avanzati.
Sebbene la Commissione ritenga che le aziende che aderiranno rispetteranno la legge sull'intelligenza artificiale e godranno di maggiore certezza giuridica, sotto la minaccia di essere sottoposte a controlli più severi se non accettano, una delle più potenti, Meta, ha dichiarato venerdì scorso di non essere interessata a firmare questo codice di condotta perché ritiene che ciò limiterebbe lo sviluppo di questo settore.
L'UE è considerata un'azienda pionieristica, essendo stata la prima entità al mondo a emanare una legge sull'intelligenza artificiale. Tuttavia, questo ruolo pionieristico comporta anche la necessità di muoversi in un territorio sconosciuto e non sempre semplice. Nella sua dichiarazione, Meta afferma che al momento " l'Europa è sulla strada sbagliata in materia di IA . Abbiamo esaminato attentamente il Codice di condotta della Commissione europea per i modelli GPAI e Meta non lo firmerà" perché "introduce una serie di incertezze giuridiche per gli sviluppatori di modelli, nonché misure che vanno ben oltre l'ambito di applicazione della legge sull'IA".
Tale codice di condotta inizia chiedendo alle aziende di classificarsi in base al fatto che siano considerate di uso generale perché sono state "addestrate" utilizzando più di 10^23 risorse di calcolo in virgola mobile e se possono generare un linguaggio umano, sotto forma di testo o audio, oppure se possono convertire il testo in immagini o il testo in video.
Agli occhi dell'esecutivo dell'UE, i fornitori che operano con una licenza libera e open source e soddisfano determinati requisiti di trasparenza potrebbero essere esentati da determinati obblighi legali.
Tuttavia, come da norme comuni, i fornitori devono impegnarsi a rispettare le norme sul diritto d'autore, e i più avanzati devono mitigare i rischi sistemici in materia di diritti fondamentali e sicurezza , nonché i rischi legati alla perdita di controllo sul modello di intelligenza artificiale. Durante il primo anno successivo all'entrata in vigore di questi obblighi, la Commissione si impegna a collaborare strettamente con i fornitori, in particolare quelli che aderiscono al Codice di buone pratiche, per aiutarli a conformarsi alle norme.
A partire dal 2 agosto 2025, entreranno in vigore norme che impongono ad aziende come OpenAI di rispettare requisiti di trasparenza, come la preparazione della documentazione tecnica, l'adozione di policy sul copyright e la fornitura di riepiloghi dettagliati dei contenuti utilizzati per l'addestramento degli algoritmi. Esattamente un anno dopo, chi non si adeguerà potrà essere multato.
ABC.es