
OpenAI ha confermato che, nel caso in cui vengano rilevate conversazioni con ChatGPT che implicano rischi concreti verso terzi, queste potranno essere segnalate alle forze dell’ordine. Come spiega il blog ufficial: “Quando individuiamo utenti che intendono arrecare danno ad altri, inoltriamo le loro conversazioni a canali specializzati dove vengono esaminate da un piccolo team… Se i revisori umani stabiliscono che un caso comporta una minaccia imminente di grave danno fisico ad altri, potremmo segnalarlo alle forze dell’ordine“.
Privacy preservata per autolesionismo
OpenAI chiarisce che nei casi di autolesionismo, ovvero quando l’utente manifesta intenti suicidi o dannosi verso sé stesso, tali conversazioni non verranno inoltrate alle autorità, in un approccio che salvaguarda la riservatezza della persona. In queste situazioni, il sistema raccoglie le informazioni e offre risorse di supporto, come numeri di emergenza e indicazioni verso servizi specializzati.
Un passo controverso verso una sicurezza più attiva
La decisione ha suscitato un acceso dibattito. Da un lato, c’è chi la considera una scelta responsabile e necessaria per prevenire situazioni di pericolo reale. Dall’altro, emergono critiche sul piano della privacy e dell’eccessiva soglia difensiva.
Contesto normativo e reazioni
La novità segue anche le richieste da parte di autorità statali in USA, quali California e Delaware, che hanno espresso serie preoccupazioni riguardo alla sicurezza di ChatGPT. Su questo fronte, l’intervento di OpenAI è stato interpretato come un tentativo di rafforzare le misure di protezione utente.
Sistemi bilanciati tra privato e pubblico
La strategia di OpenAI si fonda su un mix di automazione e intervento umano, volto a tutelare l’incolumità fisica, ma anche a rispettare la privacy nelle questioni personali e mentali più delicate. L’obiettivo dichiarato è rendere ChatGPT più di supporto e meno pericoloso, senza prevaricare il confine tra la sicurezza e il diritto alla confidenzialità
Fonte: OpenAI










