La Cina introduce regolamentazioni pionieristiche sui chatbot con caratteristiche umane
La Cyberspace Administration of China ha pubblicato sabato una bozza di regolamento destinata a limitare l’influenza dei chatbot basati su intelligenza artificiale sulle emozioni umane, con particolare attenzione alla prevenzione di comportamenti autolesionistici e suicidari. Le nuove disposizioni rappresentano il primo tentativo a livello mondiale di regolamentare specificamente i servizi AI dotati di caratteristiche antropomorfe, secondo quanto dichiarato da Winston Ma, professore aggiunto presso la NYU School of Law.
Cosa prevedono le nuove norme
Protezione della salute mentale degli utenti
Il documento normativo stabilisce che i chatbot AI non potranno generare contenuti che incoraggino il suicidio o l’autolesionismo. È inoltre vietata qualsiasi forma di violenza verbale o manipolazione emotiva che possa danneggiare la salute psicologica degli utilizzatori. Un aspetto particolarmente significativo riguarda i protocolli di emergenza: qualora un utente manifesti esplicitamente intenzioni suicidarie, i fornitori tecnologici dovranno garantire l’intervento immediato di un operatore umano e contattare tempestivamente il tutore o un referente designato.
Restrizioni sui contenuti e tutela dei minori
Le piattaforme AI dovranno bloccare la generazione di contenuti relativi al gioco d’azzardo, materiale osceno o violento. Per quanto riguarda i minori, sarà obbligatorio il consenso del tutore per l’utilizzo di servizi di compagnia emotiva basati su AI, con limiti temporali di utilizzo prestabiliti. Le piattaforme saranno inoltre tenute a identificare gli utenti minorenni anche in assenza di dichiarazione esplicita dell’età, applicando in caso di dubbio le impostazioni più restrittive.
Obblighi per i fornitori di servizi AI
Il regolamento introduce requisiti specifici per le aziende tecnologiche: Promemoria di utilizzo: dopo due ore di interazione continua con un chatbot AI, gli utenti dovranno ricevere un avviso. Valutazioni di sicurezza obbligatorie: i chatbot con oltre 1 milione di utenti registrati o più di 100.000 utenti attivi mensili dovranno sottoporsi a verifiche di sicurezza approfondite.
Il contesto di mercato: IPO delle startup AI cinesi
La proposta normativa arriva in un momento cruciale per il settore. Due delle principali startup cinesi nel campo dei chatbot AI, Z.ai (nota anche come Zhipu) e Minimax, hanno recentemente presentato domanda per la quotazione alla Borsa di Hong Kong. Minimax è conosciuta a livello internazionale per l’app Talkie AI, che consente agli utenti di conversare con personaggi virtuali. L’applicazione e la sua versione domestica Xingye hanno generato oltre un terzo dei ricavi aziendali nei primi tre trimestri, con una media superiore ai 20 milioni di utenti attivi mensili. Z.ai ha dichiarato che la propria tecnologia supporta circa 80 milioni di dispositivi, inclusi smartphone, computer e veicoli intelligenti.
Un fenomeno globale sotto osservazione
L’influenza dell’intelligenza artificiale sul comportamento umano è diventata oggetto di crescente attenzione internazionale. Sam Altman, CEO di OpenAI, ha riconosciuto pubblicamente che la gestione delle conversazioni relative al suicidio rappresenta una delle sfide più complesse per ChatGPT. La questione ha assunto rilevanza legale quando una famiglia statunitense ha intentato causa contro OpenAI dopo il suicidio del figlio adolescente. In risposta, OpenAI ha annunciato l’assunzione di un Head of Preparedness per valutare i rischi dell’AI, dalla salute mentale alla cybersecurity.
Verso una governance globale dell’intelligenza artificiale
Le misure proposte dalla Cina si inseriscono in una strategia più ampia per influenzare le regole internazionali sulla governance dell’AI. Come sottolineato dal professor Ma, questo regolamento segna un’evoluzione significativa: dalla sicurezza dei contenuti alla sicurezza emotiva, un passaggio che potrebbe definire nuovi standard per l’intero settore tecnologico mondiale.
