L’uso dell’intelligenza artificiale da parte dei più giovani è diventato uno dei temi centrali del dibattito tecnologico globale. In un contesto segnato da crescenti preoccupazioni sulla sicurezza digitale degli under 18, società come OpenAI e Anthropic stanno sperimentando nuove misure per individuare e gestire l’accesso dei minorenni ai chatbot, mentre alcuni Paesi, come Australia, introducono restrizioni più rigide sull’uso dei social.
Il nuovo approccio di OpenAI sulla sicurezza
La società che sviluppa ChatGPT ha aggiornato il proprio model spec, ovvero l’insieme di linee guida che regolano il comportamento dell’IA. Come riportato dal sito specializzato The Verge, l’aggiornamento introduce quattro nuovi indicatori pensati specificamente per riconoscere gli utenti minorenni. Questi principi, identificati come U18, mirano a “mettere la sicurezza degli adolescenti al primo posto”, anche quando entra in tensione con quella che OpenAI definisce “massima libertà intellettuale”.
Adolescenti al centro, ma senza paternalismi
Nel delineare il nuovo corso, OpenAI sottolinea l’intenzione di promuovere il supporto del mondo reale, incoraggiando relazioni offline e il ricorso a risorse di fiducia. L’obiettivo dichiarato è trattare gli adolescenti come tali, evitando sia un approccio accondiscendente sia l’errore opposto di considerarli adulti. Una linea che prova a bilanciare tutela e autonomia, in un contesto dove l’IA è sempre più presente nella quotidianità dei più giovani.
Anthropic, una linea più rigida sull’accesso
Anche Anthropic si muove nella stessa direzione, ma con regole più stringenti. A differenza di altri operatori, la società vieta già esplicitamente l’uso dell’IA ai minori e sta sviluppando un sistema capace di individuare “segnali conversazionali che indicano quando un utente potrebbe essere minorenne”. Una volta rilevato un profilo under 18, la conversazione viene bloccata e l’indirizzo email di registrazione inserito in una blacklist.
Identità digitale e responsabilità degli utenti
La posizione di Anthropic è chiara anche sul piano della responsabilità individuale. “Chiunque usi i nostri strumenti deve dichiarare di avere almeno 18 anni. Se qualcuno mente, segnaleremo e disabiliteremo gli account”, afferma l’azienda. Un approccio che punta sulla dichiarazione esplicita dell’età e su controlli successivi, aprendo però interrogativi sulla reale efficacia dei sistemi di verifica online.
Un dibattito destinato a crescere
Le iniziative di OpenAI e Anthropic si inseriscono in un quadro più ampio, in cui governi, aziende tecnologiche e famiglie cercano un equilibrio tra innovazione e protezione dei minori. Con chatbot sempre più evoluti e accessibili, la questione non riguarda solo le regole tecniche, ma il ruolo stesso dell’IA nella formazione, nelle relazioni e nello sviluppo cognitivo delle nuove generazioni.
22 Dicembre 2025
© I.CO.E. grippi associati
https://www.grippiassociati.com/focus.do?dettagli=intelligenza-artificiale-e-minori&key=1766399774
Editoriale realizzato in collaborazione con la I.CO.E.
Centro studi su innovazione, comunicazione ed etica.
Copywriters
Francesca S., Matteo R., Laura A., Antonella B., Giorgio F., Anna C., Miriam M., Stefano G., Adele P., Francesca N. e Roberto C.
Indice articoli

+39.06.5654.8962 phone
+39.338.146.147.6 infoline
+39.06.2331.8513 fax
consulting@grippiassociati.com
Messaggio WhatsApp
Privacy e Cookies (GDPR)
grippi associati ICT
Via Giosué Carducci, 10
00187 Roma IT
PI 14592991005
GoogleMap
Data Center: Via C. Pavese RM-EUR
30th Anniversary 1996–2026
© 1996, grippi associati ICT. Tutti i diritti sono riservati.