Cosa non puoi più chiedere a ChatGpt da ottobre (e cosa succede se lo fai lo stesso)

Cambiamenti per ChatGpt

Cosa è cambiato e cosa succeda ora-adbve.it

Franco Vallesi

Novembre 7, 2025

Dal 29 ottobre 2025 nuove policy vietano armi, riconoscimento facciale, deepfake sessuali e manipolazione politica

Con l’aggiornamento delle policy di utilizzo entrate in vigore il 29 ottobre 2025, OpenAI introduce una serie di limitazioni più nette e formali per l’uso di ChatGpt e degli altri strumenti basati sui suoi modelli linguistici. L’obiettivo è rafforzare le tutele per gli utenti, in particolare quelli più vulnerabili, e definire in modo più chiaro i confini legali ed etici dell’intelligenza artificiale generativa.

Ma non mancano i fraintendimenti: alcuni utenti hanno segnalato, sui social e in alcuni articoli, che ChatGpt non fornirebbe più risposte mediche o legali. Un’affermazione smentita nei fatti, perché il chatbot continua a dare risposte anche su questi temi, con i consueti disclaimer e i limiti già presenti in passato.

Un codice più severo per proteggere utenti, minori e sistemi democratici

Le nuove linee guida sono frutto di mesi di consultazioni tra OpenAI, governi e centri di ricerca. In parte anticipano le direttive dell’AI Act europeo, che richiede maggiore trasparenza, tracciabilità e limiti precisi sugli usi ad alto rischio dell’intelligenza artificiale.

Limite
Cosa è vietato chiedere e perché-adbve.it

Molte delle regole introdotte riguardano attività che fino a oggi erano ambigue o lasciate al buon senso degli utenti. Ora diventano formalmente vietate.

I divieti più forti riguardano:

  • progettazione, sviluppo e gestione di armi, incluse quelle convenzionali

  • riconoscimento facciale senza consenso e sorveglianza biometrica in tempo reale

  • uso dell’immagine o della voce di una persona per creare contenuti falsi o fuorvianti

  • manipolazione dell’opinione pubblica, comprese interferenze elettorali e campagne di disinformazione

OpenAI specifica che non è più consentito l’uso di ChatGpt per attività legate al lobbying politico, alla propaganda o alla produzione di contenuti che possano influenzare le elezioni. Sono vietati anche i tentativi di smobilitazione dell’elettorato, così come la creazione di testi o immagini pensati per indurre un’opinione pubblica errata o alterata. È un riferimento diretto ai casi crescenti di AI usata per generare video deepfake, foto modificate o chatbot attivi nelle conversazioni online a fini di persuasione politica.

Grande attenzione è dedicata alla protezione dei minori, con una serie di divieti pensati per limitare contenuti che includano:

  • abuso sessuale o adescamento

  • immagini esplicite o violente

  • contenuti che stigmatizzano l’aspetto fisico

  • sfide pericolose o giochi di ruolo sessuali o violenti

In parallelo, è vietato l’uso dell’AI per incoraggiare disturbi alimentari, atti di autolesionismo o suicidio. Alcuni di questi divieti non erano nuovi, ma ora sono esplicitamente normati, anche alla luce della crescente diffusione di video generati da AI con contenuti disturbanti o pericolosi, spesso indirizzati proprio a un pubblico giovane.

Profilazione sociale, consulenze professionali e limiti all’automazione decisionale

Tra le novità più rilevanti ci sono i divieti che toccano la profilazione sociale e il valore predittivo attribuito alle persone. Vietato classificare individui in base al comportamento sociale, ai dati biometrici o alle caratteristiche personali. Non si possono usare i modelli per valutare l’emotività di un soggetto sul posto di lavoro o a scuola, né per stimare il rischio che una persona commetta un reato, in base a parametri generali. Si tratta di un riferimento indiretto ai sistemi di sorveglianza predittiva attivi in alcuni Paesi, tra cui la Cina, e che l’AI Act vuole evitare in Europa.

OpenAI vieta anche l’utilizzo dei modelli per scopi legati alla sicurezza nazionale o all’intelligence, a meno che non ci sia un’autorizzazione formale da parte dell’azienda stessa. Questo lascia uno spiraglio aperto alla collaborazione con governi, ma sotto condizioni precise.

Altro punto chiave: le consulenze professionali. Le nuove policy vietano a ChatGpt di fornire consulenze personalizzate in ambito legale, medico o finanziario senza l’intervento di un professionista abilitato. Non significa che il chatbot non possa rispondere su questi temi – cosa che effettivamente fa – ma che non deve sostituire un espertoin contesti decisionali sensibili. È un modo per prendere distanza legale da possibili responsabilità, specificando che l’automazione decisionale ad alto impatto resta vietata, specie per aziende e pubbliche amministrazioni.

Infine, l’azienda proibisce l’utilizzo dei suoi strumenti per attività considerate illegali, tra cui:

  • truffe, frodi o furti d’identità

  • violazioni della proprietà intellettuale

  • violenza basata sull’odio o contenuti sessuali non consensuali

  • attività informatiche abusive o dannose

  • gioco d’azzardo con denaro reale

Le nuove regole, pur lasciando aperti molti spazi d’uso, indicano una svolta formale importante. OpenAI, sotto la pressione delle autorità europee e globali, prende una posizione più netta su una lunga lista di usi etici, politici e legalidell’intelligenza artificiale. Alcune limitazioni avranno impatto diretto solo in casi specifici, ma il quadro generale definisce un nuovo contesto operativo anche per sviluppatori, aziende e utenti comuni.