L’UE si avvia a diventare la prima grande potenza mondiale ad emanare leggi che regolano l’IA

Avantgardia

L’Europa ha raggiunto un accordo provvisorio sulle norme fondamentali dell’Unione europea che regolano l’uso dell’intelligenza artificiale, comprese le strategie dei governi.

L’accordo richiede che modelli di base come ChatGPT e sistemi di intelligenza artificiale per scopi generali (GPAI) rispettino gli obblighi di trasparenza prima di essere immessi sul mercato.

Le regole europee sull’IA, definite come ambiziose, potrebbero diventare un modello per altri governi e un’alternativa alla legislazione degli Stati Uniti e all’approccio leggero e alle regole provvisorie della Cina. Provvisorie perchè tendenzialmente il governo riesce a controllare e gestire tutto il main stream. Speriamo che questi sviluppi portino a un uso responsabile dell’IA e alla creazione di un futuro migliore per tutti.

Accordo UE sull’Intelligenza Artificiale

 Laccordo provvisorio: prevede norme che regolino l’uso dell’intelligenza artificiale (IA), incluso il controllo biometrico e la regolamentazione di sistemi come ChatGPT. L’UE si avvia a diventare la prima grande potenza mondiale con leggi specifiche per l’IA.

Dettagli dell’Accordo: Dopo quasi 15 ore di negoziati, i paesi dell’UE e il Parlamento europeo hanno concordato che modelli di base come ChatGPT e sistemi di IA generali (GPAI) devono rispettare gli obblighi di trasparenza, come la documentazione tecnica e il rispetto delle norme UE sul diritto d’autore.

Regolamentazione della Sorveglianza Biometrica: La sorveglianza biometrica in tempo reale negli spazi pubblici è permessa solo in casi specifici, come la prevenzione di attacchi terroristici o la ricerca di sospettati di gravi crimini. L’accordo vieta pratiche come la manipolazione cognitivo comportamentale e la categorizzazione biometrica per dedurre informazioni sensibili.

Diritti dei Consumatori e Sanzioni: I consumatori possono presentare reclami e richiedere spiegazioni significative. Le multe per le violazioni variano da 7,5 milioni di euro a 35 milioni di euro, o fino al 7% del fatturato globale.

Reazioni dell’Industria e dei Gruppi per i Diritti: DigitalEurope e European Digital Rights hanno espresso preoccupazioni sulle nuove regole, sottolineando l’onere per le aziende e i potenziali rischi per la privacy legati alla sorveglianza biometrica.

La legislazione dovrebbe entrare in vigore all’inizio del prossimo anno e applicarsi due anni dopo la ratifica formale da parte delle parti interessate.

I governi di tutto il mondo stanno cercando di bilanciare i vantaggi della tecnologia, che può impegnarsi in conversazioni simili a quelle umane, rispondere a domande e scrivere codici informatici, con la necessità di mettere in atto dei guardrail. Le regole europee sull’IA, che sono state definite come ambiziose, potrebbero diventare un modello per altri governi e un’alternativa alla legislazione degli Stati Uniti e all’approccio leggero e alle regole provvisorie della Cina. OpenAI, in cui Microsoft è un investitore, continua a scoprire nuovi usi per la loro tecnologia, suscitando sia plausi sia preoccupazioni. Il proprietario di Google Alphabet ha lanciato un nuovo modello di IA, Gemini, per rivaleggiare con OpenAI. Ovviamente tutti noi speriamo che questi continui e ancora non controllati sviluppi, portino a un uso responsabile dell’IA e alla creazione di un futuro migliore per tutti… ma di questo non si possono avere certezze.

Comments: 0

Your email address will not be published. Required fields are marked with *