L’Australia contro i contenuti creati con l’intelligenza artificiale: cancellate tutte le immagini intime, i deepfake e incitamenti all’odio.
Da diversi mesi il governo australiano stava valutando la possibilità di vietare l’utilizzo dell’intelligenza artificiale. Il governo ha infatti espresso grande preoccupazione per l’utilizzo di servizi di intelligenza artificiale generativa per creare immagini, video e testi offensivi o pericolosi. L’IA generativa, infatti, ha registrato un’impennata nel suo utilizzo, venendo sfruttata in ogni genere di settore, dalla scuola alla medicina.
Il nuovo regolamento sulla cybersicurezza introdotto dal governo federale dell’Australia ha deciso che piattaforme di social media e le compagnie high-tech saranno obbligate a sopprimere contenuti nocivi creati con l’uso dell’intelligenza artificiale, come immagini intime deep fake e incitamento all’odio.
L’Australia vieta l’uso dannoso dell’intelligenza artificiale e presto nuove norme anche in Europa
Dopo le numerose e costanti polemiche sull’utilizzo, la sicurezza e le fake news prodotte dall’intelligenza artificiale, viene da chiedersi se si raggiungerà mai una legislazione comune a livello internazionale. L’Australia, adesso, è al lavoro per mettere a punto una serie di regole per l’utilizzo dell’IA. Si tratta di proposte che hanno a che fare con la preoccupazione che questa tecnologia possa essere utilizzata in modo improprio.
Secondo le nuove regole di sicurezza online proposte dal governo australiano, le piattaforme di social media e le aziende tecnologiche dovranno eliminare il materiale dannoso creato con l’intelligenza artificiale, come le immagini intime falsificate e i discorsi di odio.
Lo ha annunciato Michelle Rowland, la ministra delle Comunicazioni, al National Press Club. La donna ha elencato una serie di misure per rispondere a “nuovi ed emergenti danni”. Ha espresso poi “significativa preoccupazione per i servizi generativi IA, ampiamente disponibili, usati per creare immagini, video e testi offensivi o pericolosi”.
La preoccupazione della Ministra riguarda la diffusione anche di contenuti antisemitici e islamofobici che vengono pubblicati sulla piattaforma X. “Mentre questa tecnologia ha un potenziale enorme come strumento positivo, la vediamo anche usata per creare immagini concepite per umiliare imbarazzare, offendere e anche abusare di altri”, ha aggiunto.
Le cosiddette Basic Online Safety Expectation (Bose), ovvero le linee guida in atto, richiedono alle compagnie high-tech di assicurare che gli algoritmi che decidono cosa gli utenti vedono online, sopprimano contenuti a sfondo razzista, sessista o omofobico.
In tal senso sembra muoversi anche l’Europa. Come parte della sua strategia digitale, l’UE è a un passo dall’approvazione de L’Artificial Intelligence Act. Si tratta della prima regolamentazione sull’Intelligenza Artificiale, la cui approvazione definitiva, da parte dell’Unione Europea, dovrebbe arrivare a fine anno e, secondo fonti vicine alle istituzioni europee, dovrebbe entrare in vigore tra il 2024 e il 2025.
La priorità per il Parlamento è quella di assicurarsi che i sistemi di intelligenza artificiale siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. Le norme seguono un approccio basato sul rischio. Nel dettaglio, stabiliscono obblighi per i fornitori e per coloro che impiegano sistemi di IA a seconda del livello di rischio che l’IA può generare. Saranno quindi vietati i sistemi di IA che presentano un livello di rischio inaccettabile.