Usi ChatGPT o strumenti di Intelligenza Artificiale in azienda? Attenzione alla compliance.
Sempre più aziende utilizzano strumenti di AI per scrivere testi, analizzare dati o automatizzare attività. Tuttavia, l’utilizzo di questi strumenti comporta precisi obblighi normativi.
Nel momento in cui vengono elaborati dei documenti contenenti dati personali, bisogna tenere conto del GDPR, ma non solo: oggi, sono da considerare anche il Regolamento europeo sull’Intelligenza Artificiale (AI Act) e la Legge 132/2025, che introducono regole e responsabilità per chi utilizza sistemi di AI in ambito professionale.
Ricordiamo che i dati personali, contenuti in documenti che vengono inseriti, quindi condivisi, in sistemi “open” come Chat Gpt, Gemini, Claude, etc., sono illecitamente diffusi, se non sottoposti a procedure di omissis dei dati o a funzionali pseudonimizzazioni.
Gli aspetti riguardanti gli impatti e la sicurezza diventano centrali.
Le normative sopracitate, richiedono una serie di adempimenti, di processi e di misure adeguate.
Tra le principali attività richieste:
- mappatura degli strumenti di AI utilizzati
• analisi dei rischi
• valutazioni di impatto sui dati personali e sui diritti delle persone
• definizione di procedure interne e controlli sull’uso dell’AI
• formazione del personale.
Anche l’utilizzo di strumenti apparentemente semplici può richiedere verifiche e misure organizzative adeguate, al fine di generare un modello organizzativo integrato tra GDPR e AI ACT.



