Dal 29 ottobre 2025 nuove policy vietano armi, riconoscimento facciale, deepfake sessuali e manipolazione politica
Con l’aggiornamento delle policy di utilizzo entrate in vigore il 29 ottobre 2025, OpenAI introduce una serie di limitazioni più nette e formali per l’uso di ChatGpt e degli altri strumenti basati sui suoi modelli linguistici. L’obiettivo è rafforzare le tutele per gli utenti, in particolare quelli più vulnerabili, e definire in modo più chiaro i confini legali ed etici dell’intelligenza artificiale generativa.
Ma non mancano i fraintendimenti: alcuni utenti hanno segnalato, sui social e in alcuni articoli, che ChatGpt non fornirebbe più risposte mediche o legali. Un’affermazione smentita nei fatti, perché il chatbot continua a dare risposte anche su questi temi, con i consueti disclaimer e i limiti già presenti in passato.
Un codice più severo per proteggere utenti, minori e sistemi democratici
Le nuove linee guida sono frutto di mesi di consultazioni tra OpenAI, governi e centri di ricerca. In parte anticipano le direttive dell’AI Act europeo, che richiede maggiore trasparenza, tracciabilità e limiti precisi sugli usi ad alto rischio dell’intelligenza artificiale.

Molte delle regole introdotte riguardano attività che fino a oggi erano ambigue o lasciate al buon senso degli utenti. Ora diventano formalmente vietate.
I divieti più forti riguardano:
progettazione, sviluppo e gestione di armi, incluse quelle convenzionali
riconoscimento facciale senza consenso e sorveglianza biometrica in tempo reale
uso dell’immagine o della voce di una persona per creare contenuti falsi o fuorvianti
manipolazione dell’opinione pubblica, comprese interferenze elettorali e campagne di disinformazione
OpenAI specifica che non è più consentito l’uso di ChatGpt per attività legate al lobbying politico, alla propaganda o alla produzione di contenuti che possano influenzare le elezioni. Sono vietati anche i tentativi di smobilitazione dell’elettorato, così come la creazione di testi o immagini pensati per indurre un’opinione pubblica errata o alterata. È un riferimento diretto ai casi crescenti di AI usata per generare video deepfake, foto modificate o chatbot attivi nelle conversazioni online a fini di persuasione politica.
Grande attenzione è dedicata alla protezione dei minori, con una serie di divieti pensati per limitare contenuti che includano:
abuso sessuale o adescamento
immagini esplicite o violente
contenuti che stigmatizzano l’aspetto fisico
sfide pericolose o giochi di ruolo sessuali o violenti
In parallelo, è vietato l’uso dell’AI per incoraggiare disturbi alimentari, atti di autolesionismo o suicidio. Alcuni di questi divieti non erano nuovi, ma ora sono esplicitamente normati, anche alla luce della crescente diffusione di video generati da AI con contenuti disturbanti o pericolosi, spesso indirizzati proprio a un pubblico giovane.
Profilazione sociale, consulenze professionali e limiti all’automazione decisionale
Tra le novità più rilevanti ci sono i divieti che toccano la profilazione sociale e il valore predittivo attribuito alle persone. Vietato classificare individui in base al comportamento sociale, ai dati biometrici o alle caratteristiche personali. Non si possono usare i modelli per valutare l’emotività di un soggetto sul posto di lavoro o a scuola, né per stimare il rischio che una persona commetta un reato, in base a parametri generali. Si tratta di un riferimento indiretto ai sistemi di sorveglianza predittiva attivi in alcuni Paesi, tra cui la Cina, e che l’AI Act vuole evitare in Europa.
OpenAI vieta anche l’utilizzo dei modelli per scopi legati alla sicurezza nazionale o all’intelligence, a meno che non ci sia un’autorizzazione formale da parte dell’azienda stessa. Questo lascia uno spiraglio aperto alla collaborazione con governi, ma sotto condizioni precise.
Altro punto chiave: le consulenze professionali. Le nuove policy vietano a ChatGpt di fornire consulenze personalizzate in ambito legale, medico o finanziario senza l’intervento di un professionista abilitato. Non significa che il chatbot non possa rispondere su questi temi – cosa che effettivamente fa – ma che non deve sostituire un espertoin contesti decisionali sensibili. È un modo per prendere distanza legale da possibili responsabilità, specificando che l’automazione decisionale ad alto impatto resta vietata, specie per aziende e pubbliche amministrazioni.
Infine, l’azienda proibisce l’utilizzo dei suoi strumenti per attività considerate illegali, tra cui:
truffe, frodi o furti d’identità
violazioni della proprietà intellettuale
violenza basata sull’odio o contenuti sessuali non consensuali
attività informatiche abusive o dannose
gioco d’azzardo con denaro reale
Le nuove regole, pur lasciando aperti molti spazi d’uso, indicano una svolta formale importante. OpenAI, sotto la pressione delle autorità europee e globali, prende una posizione più netta su una lunga lista di usi etici, politici e legalidell’intelligenza artificiale. Alcune limitazioni avranno impatto diretto solo in casi specifici, ma il quadro generale definisce un nuovo contesto operativo anche per sviluppatori, aziende e utenti comuni.
