L'Intelligenza Artificiale sta avanzando rapidamente e i governi di tutto il mondo stanno rispondendo con quadri normativi per bilanciare innovazione, sicurezza, considerazioni etiche e stabilità economica. Gli sviluppi recenti evidenziano approcci divergenti: la nuova legge sull'AI della Corea, la continua lotta dell'UE per controllare la narrazione sull'AI Act, i cambiamenti normativi negli Stati Uniti sotto Trump e le strategie di conformità aziendale adottate da leader del settore come Microsoft. Scopri l'offerta del Competence Center Enabling Technologies & Security di Impresoft in campo Artificial Intelligence.
In un drastico cambio di politica, il presidente Donald Trump ha revocato l'Executive Order (EO) del 2023 di Biden sull'AI che imponeva obblighi di divulgazione sulla sicurezza per i modelli AI ad alto rischio. L'EO originale richiedeva alle aziende di condividere risultati di test e informazioni sulla sicurezza prima di implementare i sistemi AI con l'obiettivo di mitigare i rischi per la sicurezza nazionale ed economica. Trump ha criticato l'ordine per "ostacolare l'innovazione" e ha giustificato la revoca come una difesa dello "sviluppo dell'AI radicato nella libertà di espressione".
La revoca elimina un'immediata supervisione federale sulla governance della sicurezza AI. Inoltre la nomina del venture capitalist David Sacks—un forte oppositore della regolamentazione tecnologica—come responsabile della politica AI-crypto di Trump segnala un approccio deregolamentato. Tuttavia Trump ha mantenuto l'ultimo EO di Biden relativo all'AI, che punta a espandere le infrastrutture AI domestiche per soddisfare la crescente domanda energetica, suggerendo una politica favorevole all'espansione economica guidata dall'AI piuttosto che alla sua regolamentazione.
La Corea del Sud si è posizionata come leader nella governance dell'AI approvando il "Basic Act on the Development of Artificial Intelligence and the Establishment of Trust". La Corea diventa così la seconda giurisdizione, dopo l'Unione Europea, ad adottare un quadro normativo completo per l'AI. La legge, che entrerà in vigore nel gennaio 2026, stabilisce una base per la politica nazionale sull'AI, rafforzando la ricerca e la sicurezza attraverso iniziative come il National AI Committee e l'AI Safety Research Institute. Essa impone requisiti di trasparenza, uso etico dell'AI e conformità alla sicurezza, classificando i modelli AI generativi e ad alto impatto come soggetti a regolamentazione.
La legge rafforza anche l'industria AI coreana promuovendo finanziamenti per la ricerca e sviluppo, standardizzazione dei dati e la creazione di cluster AI. Il ministro Yoo Sang-im ha sottolineato il ruolo strategico di questa legislazione nel ridurre l'incertezza per le aziende, consolidando la posizione della Corea come potenza AI globale.
Nonostante l'ambizione di guidare la regolamentazione globale dell'AI, l'UE sta affrontando critiche riguardo al suo AI Act. Mentre i legislatori europei affermano che l'atto richiede principalmente un'autovalutazione e non è eccessivamente restrittivo, le aziende temono il suo impatto sull'innovazione.
I critici sostengono che la legislazione, pensata per classificare i sistemi AI in base al livello di rischio, potrebbe creare barriere involontarie alla crescita. Carme Artigas, co-presidente del comitato consultivo AI delle Nazioni Unite, suggerisce che gli Stati Uniti stiano promuovendo questa narrazione per rendere le startup europee più vulnerabili alle acquisizioni. Alcune voci del settore, tra cui Clark Parsons della European Startup Network, affermano che la mancanza di capitali e di early adopters—piuttosto che la regolamentazione—stia spingendo le aziende AI europee verso la Silicon Valley.
Poiché l'adozione dell'AI in Europa è ancora bassa (solo l'8% delle aziende utilizza attualmente l'AI), l'obiettivo dell'AI Act di aumentare questa cifra al 75% è ambizioso. I responsabili politici dell'UE sostengono che il quadro normativo sia progettato per promuovere un uso responsabile dell'AI senza ostacolare il progresso tecnologico.
Mentre i governi dibattono sulla regolamentazione dell'AI, grandi aziende come Microsoft si stanno proattivamente allineando ai quadri normativi esistenti. Natasha Crampton, Chief Responsible AI Officer di Microsoft, ha dettagliato l'impegno dell'azienda nel rispettare l'AI Act dell'UE. Microsoft ha integrato i requisiti normativi nel proprio ciclo di sviluppo AI, enfatizzando la valutazione dei rischi, gli esercizi di red-teaming e le valutazioni sistematiche della sicurezza.
Man mano che l'UE finalizza le disposizioni sulle pratiche AI proibite, Microsoft sta aggiornando le proprie politiche interne, tra cui la revisione delle restrizioni d'uso e dei termini contrattuali. L'azienda riconosce la propria responsabilità nel garantire la conformità per i clienti che implementano modelli AI ad alto rischio.
L'AI Office dell'UE sta affrontando anche il tema dell'AI literacy, imponendo alle organizzazioni che implementano sistemi AI di uso generale di adottare misure educative adeguate entro febbraio 2025. L'iniziativa mira a fornire una formazione che bilanci la competenza tecnica con la comprensione delle implicazioni sociali ed etiche dell'AI. Impresoft con il suo Competence Center Enabling Technologies & Security e la sua Legal Entity Impresoft 4ward offre un programma completo di AI literacy e governance per aiutare le aziende ad aggiornarsi su questi temi.
Per le organizzazioni, l'AI literacy supporta la conformità agli standard etici e legali, mentre per gli individui favorisce l'empowerment digitale, il controllo democratico e decisioni informate nell'interazione con l'AI.
Perché è importante
Il panorama legale dell'AI sta evolvendo rapidamente, con le potenze globali che adottano approcci differenti alla governance. La legge strutturata della Corea, le sfide regolatorie dell'UE, la deregolamentazione negli Stati Uniti e le strategie di conformità aziendale stanno modellando il futuro dell'adozione e dello sviluppo dell'AI. Le aziende devono anticipare queste regolamentazioni per garantire la conformità, sfruttando al contempo il potenziale trasformativo dell'AI. Man mano che i governi affinano le loro strategie, l'equilibrio tra regolamentazione e innovazione determinerà il modo in cui l'AI guiderà il progresso economico e sociale nei prossimi anni.