Usi ChatGPT o strumenti di Intelligenza Artificiale in azienda? Attenzione alla compliance.

Sempre più aziende utilizzano strumenti di AI per scrivere testi, analizzare dati o automatizzare attività. Tuttavia, l’utilizzo di questi strumenti comporta precisi obblighi normativi.

Nel momento in cui vengono elaborati dei documenti contenenti dati personali, bisogna tenere conto del GDPR, ma non solo: oggi, sono da considerare anche il Regolamento europeo sull’Intelligenza Artificiale (AI Act) e la Legge 132/2025, che introducono regole e responsabilità per chi utilizza sistemi di AI in ambito professionale.

Ricordiamo che i dati personali, contenuti in documenti che vengono inseriti, quindi condivisi, in sistemi “open” come Chat Gpt, Gemini, Claude, etc., sono illecitamente diffusi, se non sottoposti a procedure di omissis dei dati o a funzionali pseudonimizzazioni.

Gli aspetti riguardanti gli impatti e la sicurezza diventano centrali.

Le normative sopracitate, richiedono una serie di adempimenti, di processi e di misure adeguate.

Tra le principali attività richieste:

  • mappatura degli strumenti di AI utilizzati
    • analisi dei rischi
    • valutazioni di impatto sui dati personali e sui diritti delle persone
    • definizione di procedure interne e controlli sull’uso dell’AI
    • formazione del personale.

Anche l’utilizzo di strumenti apparentemente semplici può richiedere verifiche e misure organizzative adeguate, al fine di generare un modello organizzativo integrato tra GDPR e AI ACT.

Kruzer S.r.l. supporta aziende e professionisti nell’analisi e nell’adeguamento alle normative su privacy e intelligenza artificiale.

Contattaci per maggiori informazioni. 

Condividi