Da fonti ufficiali si apprende che dal 29 Ottobre 2025 Chatgpt ha consolidato nelle policy le sue politiche d'uso, consigliando agli utenti di non richiedere consigli medici e legali a chatgpt, soprattutto se supportati con allegati contenenti dati sensibili.
I rischi principali sono 2:
- Fuga di dati sensibili (contenuti all'interno dei documenti)
- Rischio di utilizzarli a proprio sfavore
La nuova policy stabilisce che i servizi di OpenAI non possono essere utilizzati per la "provisione di consulenze personalizzate che richiedono un’abilitazione professionale" (come quelle mediche o legali) senza il coinvolgimento appropriato di un professionista autorizzato.
Sebbene l'azienda abbia chiarito che il cambiamento non è una novità assoluta ma una consolidazione di regole preesistenti, la sostanza è chiara: ChatGPT è ora definito ufficialmente come uno strumento educativo e informativo.
Attenzione al Falso Senso di Sicurezza e alla Responsabilità Legale:
• Verifica Professionale: Le risposte generate automaticamente dall’IA dovrebbero sempre essere verificate con un professionista medico, legale o finanziario.
• Mancanza di Privilegio Legale: Le conversazioni con ChatGPT non sono coperte da “legal privilege” (protezione giuridica). Se vengono scritte informazioni sensibili, non sono legalmente protette e possono essere citate in giudizio (subpoenaed) in tribunale.
Consigli Pratici per l'Uso Responsabile:
1. Non inserire dati personali identificabili (come dati sanitari o codici fiscali).
2. Evita di caricare documenti riservati.
3. Se devi testare idee sensibili, considera di farlo disattivando la cronologia per evitare la memorizzazione