Menu Close

Stati Uniti, proposta una legge per regolamentare l’IA

L’Intelligenza Artificiale è sotto la lente dei legislatori. Almeno negli Usa, dove i legislatori Anna Eshoo e Don Beyer hanno recentemente presentato una proposta di legge pionieristica destinata a regolamentare il campo dell’IA. La normativa specifica, battezzata “AI Foundation Model Transparency Act”, si propone di imporre ai creatori di modelli di intelligenza artificiale di divulgare le fonti dei dati di addestramento.
Questa iniziativa mira soprattutto a garantire che i detentori dei diritti d’autore siano pienamente consapevoli dell’utilizzo delle proprie informazioni.

Obiettivo principale: rendere noti i dati di addestramento

La proposta ha come obiettivo principale indirizzare la Federal Trade Commission (FTC), in collaborazione con il National Institute of Standards and Technology (NIST), a stabilire regole riguardanti la trasparenza dei dati di addestramento. Le imprese responsabili dello sviluppo di questi modelli non solo dovranno rivelare le fonti dei dati utilizzati, ma anche descrivere dettagliatamente come tali dati vengano conservati durante il processo di inferenza.
Sarà altresì richiesto di illustrare le limitazioni o i rischi del modello, con un’allineamento al previsto Framework di Gestione dei Rischi AI del NIST e ad altri eventuali standard federali. La fornitura di dettagli sulla potenza computazionale impiegata per addestrare e gestire il modello sarà anch’essa un requisito fondamentale.

Trasparenza nei settori più sensibili

Un aspetto peculiare della proposta di legge riguarda l’obbligo per gli sviluppatori di IA di segnalare gli sforzi compiuti per testare i modelli in scenari critici. Questo è particolarmente rilevante per prevenire la diffusione di informazioni inesatte o dannose in ambiti sensibili come la medicina, la biologia, la cybersicurezza, le elezioni, la sicurezza pubblica, le decisioni finanziarie, l’educazione, l’impiego, i servizi pubblici, e la protezione di fasce di popolazione vulnerabili come i bambini.

Il contesto legale e i casi finiti in tribunale

La legge sottolinea l’importanza della trasparenza dei dati di addestramento in relazione ai diritti d’autore, evidenziando numerosi episodi giudiziari contro aziende di IA. Uno di questi è il caso degli artisti contro Stability AI, Midjourney e Deviant Art, che è stato in gran parte respinto a ottobre.
Un reclamo di Getty Images contro Stability AI è ancora pendente, secondo quanto riportato da VentureBeat.

I prossimi passi

Il contesto di questa legge si inserisce in un panorama in cui l’uso pubblico dei modelli di base di intelligenza artificiale ha generato numerosi casi di informazioni inesatte – o addirittura fazione – presentate poi al pubblico. La proposta legislativa dovrà essere assegnata a un comitato apposito che dovrà discuterla, e al momento non è chiaro se ciò avverrà prima dell’inizio della stagione delle campagne elettorali. La legge di Eshoo e Beyer si affianca all’ordine esecutivo sull’IA dell’amministrazione Biden, che mira a stabilire standard di segnalazione per i modelli di IA.
Tuttavia, l’ordine esecutivo non ha forza di legge, quindi, se l'”AI Foundation Model Transparency Act” dovesse essere approvata, trasformerebbe i requisiti di trasparenza per i dati di addestramento in una regola federale.