La Commissione europea e OpenAI mantengono aperto un confronto sul nuovo modello di ChatGpt, con particolare attenzione agli aspetti legati alla sicurezza informatica. Un dialogo che, secondo quanto riferito da un portavoce europeo, non si è limitato a un singolo incontro ma proseguirà anche nei prossimi giorni.
Un confronto ancora in corso
Durante il briefing con la stampa, un portavoce della Commissione Ue ha confermato che lo scambio con OpenAI è già avvenuto e continuerà anche questa settimana. Le discussioni, quindi, risultano ancora aperte e riguardano i possibili passaggi successivi legati al nuovo modello di intelligenza artificiale.
Il punto centrale sembra essere la possibilità per la Commissione di ottenere un accesso diretto al modello, così da poter osservare più da vicino il modo in cui verrà implementato e valutare eventuali aspetti critici sul piano della sicurezza.
La trasparenza di OpenAI vista come un segnale positivo
La Commissione europea ha accolto favorevolmente l’atteggiamento di OpenAI, sottolineando la disponibilità dell’azienda a condividere informazioni e a consentire un possibile accesso al nuovo sistema. Per Bruxelles, questo elemento rappresenta un passaggio rilevante in un settore in cui la trasparenza non è solo una scelta comunicativa, ma anche una condizione utile per costruire fiducia.
La crescita dei modelli di intelligenza artificiale generativa, infatti, porta con sé grandi opportunità ma anche interrogativi concreti. Tra questi ci sono la gestione dei dati, la prevenzione di usi impropri, la protezione degli utenti e la capacità di individuare eventuali vulnerabilità prima che possano diventare un problema più ampio.
Sicurezza informatica e controllo dei nuovi modelli
Il tema della sicurezza informatica è uno degli aspetti più delicati nello sviluppo dei sistemi di intelligenza artificiale. Un modello avanzato come ChatGpt può essere utilizzato per molte attività utili, dalla produttività alla ricerca, dalla scrittura alla programmazione, ma proprio per questo richiede controlli attenti.
La Commissione sembra voler seguire da vicino non solo il funzionamento tecnico del nuovo modello, ma anche le sue possibili implicazioni operative. L’obiettivo è comprendere se esistano rischi specifici e se possano essere affrontati in modo preventivo, prima della piena diffusione o durante le fasi di rilascio.
Il possibile accesso al modello
Tra i punti in discussione c’è il cosiddetto potenziale accesso al modello. Questa espressione indica la possibilità che la Commissione possa analizzare direttamente il nuovo sistema, o comunque ricevere elementi sufficienti per verificarne il comportamento in determinati contesti.
Non si tratta soltanto di una questione tecnica. L’accesso a un modello di intelligenza artificiale può diventare uno strumento importante per valutare la conformità alle regole europee, verificare i livelli di sicurezza dichiarati e comprendere se le misure adottate siano adeguate rispetto ai rischi.
Un rapporto sempre più stretto tra tecnologia e regolazione
Il dialogo tra OpenAI e la Commissione Ue conferma un dato ormai evidente, l’intelligenza artificiale non è più soltanto una questione industriale o scientifica. È diventata anche un tema politico, normativo e sociale.
L’Europa sta cercando di costruire un equilibrio tra innovazione e tutela dei cittadini. Da una parte c’è la necessità di non frenare lo sviluppo tecnologico, dall’altra c’è il bisogno di garantire che strumenti così potenti vengano progettati e utilizzati con criteri di sicurezza, responsabilità e controllo.
Un passaggio importante per la fiducia degli utenti
La disponibilità di OpenAI al confronto può essere letta come un segnale importante anche per gli utenti finali. Quando un modello di intelligenza artificiale viene sottoposto a una maggiore attenzione istituzionale, aumenta la possibilità di individuare criticità, correggere problemi e rafforzare le misure di protezione.
Naturalmente, le discussioni sono ancora in corso e non è possibile sapere quali saranno i prossimi passaggi concreti. Tuttavia, il fatto che Commissione e azienda stiano dialogando direttamente sul nuovo modello rappresenta un elemento significativo nel rapporto tra grandi piattaforme tecnologiche e istituzioni pubbliche.
L’intelligenza artificiale entra in una fase più matura
Il caso conferma che l’intelligenza artificiale sta entrando in una fase più matura, nella quale non basta più presentare modelli sempre più potenti. Servono anche garanzie, verifiche, procedure di controllo e un confronto costante con le autorità competenti.
Per OpenAI, la trasparenza può diventare un modo per consolidare la propria credibilità. Per la Commissione europea, invece, il dialogo rappresenta un’occasione per monitorare da vicino l’evoluzione di una tecnologia destinata a incidere sempre di più sulla vita digitale, sul lavoro, sulla sicurezza e sull’informazione.
13 Maggio 2026
© I.CO.E. grippi associati
https://www.grippiassociati.com/focus.do?dettagli=openai-e-commissione-ue&key=1778666233
Editoriale realizzato in collaborazione con la I.CO.E.
Centro studi su innovazione, comunicazione ed etica.
Copywriters
Francesca S., Matteo R., Laura A., Antonella B., Giorgio F., Anna C., Miriam M., Stefano G., Adele P., Francesca N. e Roberto C.
Indice articoli

+39.06.5654.8962 phone
+39.338.146.147.6 infoline
+39.06.2331.8513 fax
consulting@grippiassociati.com
Messaggio WhatsApp
Privacy e Cookie (GDPR)
grippi associati ICT
Via Giosué Carducci, 10
00187 Roma IT
PI 14592991005
GoogleMap
Data Center: Via C. Pavese RM-EUR
30th Anniversary 1996–2026
© 1996, grippi associati ICT. Tutti i diritti sono riservati.