È difficile non notare il fermento intorno all’intelligenza artificiale (AI) in questi giorni. I dibattiti sulle chatbots, i cloni vocali e i deepfake sono più diffusi che mai. L’IA generativa è stata definita come un tipo di modello di fondazione “appositamente concepito per generare, con vari livelli di autonomia, contenuti come testi complessi, immagini, audio o video”. I modelli di fondazione sono modelli di apprendimento automatico di grandi dimensioni addestrati su grandi quantità di dati e codice che possono essere utilizzati per eseguire vari compiti.
Non sorprende che i governi stiano prendendo provvedimenti per affrontare le molteplici implicazioni etiche ed economiche associate a questa tecnologia emergente.
Unione Europea
La proposta di legge dell’UE sull’IA è incentrata su un sistema di classificazione che mira a classificare le tecnologie dell’IA in base ai rischi potenziali che possono presentare per la salute, la sicurezza e i diritti fondamentali degli utenti finali.
L’AI Act classifica i sistemi di IA in quattro categorie di rischio:
- Rischio inaccettabile: Sono vietati i sistemi di IA che rappresentano una grave minaccia per i diritti fondamentali o la sicurezza.
- Rischio elevato: I sistemi di IA che rappresentano un rischio significativo per i diritti fondamentali o la sicurezza sono soggetti a requisiti rigorosi, come la supervisione umana e la trasparenza.
- Rischio limitato: I sistemi di IA che presentano un rischio limitato per i diritti fondamentali o la sicurezza sono soggetti a requisiti meno severi.
- Rischio minimo: I sistemi di IA che presentano un rischio minimo per i diritti fondamentali o la sicurezza sono soggetti a requisiti meno severi.
I fornitori di sistemi di IA ad alto rischio devono completare una valutazione di conformità prima di entrare nel mercato. Tale valutazione comporterà la dimostrazione dell’allineamento del sistema ai requisiti fondamentali delineati nella legge, che comprende elementi quali la governance dei dati, la trasparenza e la supervisione umana.
I legislatori dell’Unione Europea hanno raggiunto un consenso per modificare la bozza iniziale della legge sull’IA dell’UE, introducendo il divieto di sorveglianza biometrica e l’obbligo per gli sviluppatori di sistemi generativi di divulgare i contenuti generati dall’IA. La proposta del Parlamento imporrà obblighi specifici ai fornitori di sistemi generativi di IA. In particolare, gli obblighi si concentrano sulla salvaguardia dalla violazione dei diritti di proprietà intellettuale e, più specificamente, dalle violazioni del copyright. Ad esempio, garantendo che i sistemi di IA generativa siano progettati con salvaguardie efficaci per impedire la generazione di contenuti che violino tali leggi. Inoltre, questi emendamenti richiedono che le aziende di IA generativa forniscano una sintesi del materiale protetto da copyright estratto e incorporato nell’addestramento di ciascun sistema, con l’obiettivo generale di aumentare la trasparenza nel suo complesso.
Regno Unito
Il governo britannico sta attualmente sviluppando un nuovo quadro normativo sull’IA. Il governo ha espresso l’intenzione di stabilire un approccio normativo che promuova l’innovazione e allo stesso tempo sostenga un utilizzo dell’IA responsabile ed etico.
Nel marzo 2023, il governo britannico ha pubblicato un libro bianco sulla regolamentazione dell’IA, in cui ha esposto le sue proposte per il nuovo quadro normativo. Il libro bianco sostiene inoltre una strategia di regolamentazione dipendente dal rischio, con condizioni diverse applicabili ai diversi sistemi di IA. In particolare, afferma che i sistemi di IA classificati come ad alto rischio, in particolare quelli che influenzano decisioni critiche per la vita e il sostentamento, sarebbero soggetti ai requisiti più severi.
Il governo britannico sta attualmente esaminando il feedback ricevuto dagli stakeholder del settore a questo proposito.
Recentemente, la Competition & Markets Authority (CMA) ha pubblicato il suo rapporto iniziale sui modelli di fondazione, sottolineando il suo impegno a dare priorità alla concorrenza e alla protezione dei consumatori nella valutazione e nell’espansione di questi modelli. Nel rapporto si è scelto di affrontare il tema della responsabilità degli sviluppatori nei confronti dei consumatori, evidenziando sei aree di interesse principali:
- Accesso: Accesso continuo e immediato agli input principali.
- Diversità: Diversità costante dei modelli di business, compresi i modelli open e closed source.
- Scelta: Scelta sufficiente per le imprese, in modo che possano decidere come utilizzare i modelli di base.
- Flessibilità: La possibilità di cambiare o utilizzare più modelli di fondazione a seconda delle esigenze.
- Correttezza: Nessuna condotta anticoncorrenziale, compresi l’autopreferenza anticoncorrenziale, le vendite abbinate o l’abbinamento.
- Trasparenza: I consumatori e le aziende ricevono informazioni sui rischi e sui limiti dei contenuti generati, in modo da poter prendere decisioni informate.
Il Regno Unito sta guidando lo sforzo globale per sviluppare linee guida sull’IA. Il loro approccio favorevole all’innovazione sarà senza dubbio accolto con favore dall’industria tecnologica, considerando l’importanza di proteggere il pubblico da potenziali danni.
La regolamentazione nell’UE e nel Regno Unito continuerà a evolversi, con un’attenzione particolare all’equilibrio tra innovazione ed etica. Nel momento in cui questi quadri normativi prenderanno forma, è necessario notare che inevitabilmente incontreranno sfide e complessità continue. La tecnologia dell’IA è dinamica e in continua evoluzione, il che significa che possono sorgere problemi inaspettati al momento del suo sviluppo. Il monitoraggio continuo, l’adattamento e la collaborazione con le parti interessate saranno fondamentali per affrontare questi problemi emergenti e garantire che il panorama normativo rimanga efficace e reattivo in questo settore in rapida evoluzione.
Gibilterra è all’avanguardia nell’adozione delle tecnologie digitali. Analogamente all’approccio pionieristico nel settore delle criptovalute, Gibilterra sta investendo attivamente nella comprensione delle complessità dell’ intelligenza artificiale.