In arrivo una legge per la trasparenza della IA?  

In arrivo una legge per la trasparenza della IA?  

Che sia in arrivo una nuova norma per regolamentare l’Intelligenza artificiale? Forse sì. Due influenti legislatori statunitensi, Anna Eshoo e Don Beyer, hanno recentemente presentato una proposta di legge rivoluzionaria volta a definire il campo dell’intelligenza artificiale (IA). Intitolata “AI Foundation Model Transparency Act”, questa legge mira a porre obblighi significativi sui creatori di modelli di intelligenza artificiale, in particolare focalizzandosi sulla trasparenza dei dati di addestramento.

Rivelare le fonti dei dati: uno step cruciale

La proposta legislativa, riferisce Adnkronos, si concentra sull’importanza di rendere noti i dettagli delle fonti utilizzate per addestrare i modelli di IA. I legislatori propongono che i creatori debbano non solo divulgarle, ma anche spiegare come tali dati vengano conservati durante l’elaborazione dell’IA.
L’obiettivo principale è indirizzare la Federal Trade Commission (FTC) a collaborare con il National Institute of Standards and Technology (NIST) per stabilire regole chiare in merito alla trasparenza dei dati di addestramento.

Gli obblighi per le aziende sviluppatrici

Le aziende coinvolte nello sviluppo di questi modelli di intelligenza artificiale dovranno rispettare rigorose regole. Oltre a rivelare le fonti di addestramento, dovranno descrivere come i dati vengano conservati durante il processo di inferenza. Dovranno anche illustrare le limitazioni o i rischi del modello e dimostrare l’allineamento con il Framework di Gestione dei Rischi AI del NIST e altri eventuali standard federali.
La fornitura di dettagli sulla potenza computazionale utilizzata per addestrare e gestire il modello sarà altresì obbligatoria.

Focus su criticità e tutela dei diritti d’autore 

Un aspetto distintivo della proposta è l’obbligo per gli sviluppatori di IA di segnalare gli sforzi compiuti per testare i modelli in scenari critici. Questo si rivela cruciale, specialmente per prevenire la diffusione di informazioni inesatte o dannose in ambiti sensibili come medicina, biologia, cybersicurezza, elezioni, polizia, decisioni finanziarie, educazione, impiego, servizi pubblici e la protezione di popolazioni vulnerabili, come i bambini.

I riferimenti giuridici 

La proposta legislativa (che al momento si riferisce alla realtà statunitense) prende spunto da numerosi casi giuridici contro aziende di IA, evidenziando la necessità di trasparenza dei dati di addestramento in relazione ai diritti d’autore. Si menziona ad esempio il caso degli artisti contro Stability AI, Midjourney e Deviant Art, con particolare attenzione al respingimento di gran parte delle accuse a ottobre.
Tuttavia, si sottolinea che è ancora pendente un reclamo di Getty Images contro Stability AI.

Il contesto attuale

La proposta si inserisce in un contesto in cui l’uso pubblico dei modelli di base di intelligenza artificiale ha generato numerosi casi di informazioni inesatte o parziali. La proposta dovrà essere discussa in un comitato prima di eventuali sviluppi, e non è ancora chiaro se ciò avverrà prima dell’inizio delle frenetiche campagne elettorali. La legge di Eshoo e Beyer si affianca all’ordine esecutivo sull’IA dell’amministrazione Biden, che mira a stabilire standard di segnalazione per i modelli di IA.
Va però notato che l’ordine esecutivo non ha forza di legge, mentre l'”AI Foundation Model Transparency Act” trasformerebbe i requisiti di trasparenza in una regola federale vincolante.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *