Linee guida per l'uso dell'Intelligenza Artificiale

Introduzione e Principi Fondamentali

Perché questa Policy

L'intelligenza artificiale è una risorsa potente che può migliorare il nostro modo di studiare, insegnare, fare ricerca e lavorare. L'Università di Verona promuove il suo uso consapevole, mettendo sempre le persone al centro.

Questa Policy stabilisce i principi fondamentali per usare l'IA in modo etico, legale e responsabile, nel rispetto delle normative europee (AI Act, GDPR) e della normativa italiana (Legge 132/2025).

I nostri principi

  • La persona prima di tutto: L'IA è uno strumento di supporto, non un sostituto delle capacità umane
  • La decisione finale è sempre umana: Nessuna decisione importante può essere affidata interamente a un sistema di IA
  • Trasparenza: Ogni uso dell'IA deve essere dichiarato esplicitamente
  • Equità e riduzione dei pregiudizi: Verificare criticamente i risultati e non accettare passivamente ciò che l'IA genera
  • Qualità e controllo: Chi usa l'IA deve sempre verificare, correggere e validare i risultati prodotti

Protezione dei Dati - Regole Obbligatorie

❌ È VIETATO inserire in sistemi di IA:

  • Dati personali senza una base giuridica idonea (interesse pubblico, esecuzione contratto, obbligo legale, consenso)
  • Dati personali di categorie particolari (art. 9 GDPR): dati genetici, biometrici, relativi alla salute, orientamento sessuale, opinioni politiche
  • Informazioni riservate o coperte da segreto: bozze di atti amministrativi, quesiti d'esame, dati di ricerca non pubblicati

✅ È CONSENTITO usare l'IA:

  • Con dati anonimi o pubblici
  • In ambienti protetti e controllati dall'Ateneo
  • Seguendo il principio di minimizzazione: usa solo i dati strettamente pertinenti e necessari

Sistemi Vietati e ad Alto Rischio

❌ Sistemi VIETATI

Tecnologie che manipolano, controllano o discriminano le persone (es. social scoring, sistemi manipolativi).

⚠️ Sistemi ad ALTO RISCHIO

Sistemi che possono incidere significativamente sui diritti delle persone richiedono:

  • Valutazione preventiva (FRIA e DPIA)
  • Autorizzazione formale
  • Monitoraggio continuo

Esempi: sistemi per valutazione prestazioni del personale, valutazione automatizzata domande di ammissione a corsi a numero chiuso.

Importante: Prima di adottare qualsiasi nuovo sistema, l'Università effettua una valutazione preliminare del rischio.

Uso dell'IA nella Didattica

📚 Per gli studenti:

  • CONSENTITO: L'IA può aiutare per brainstorming, revisione linguistica, organizzazione delle idee
  • NON puoi usarla per svolgere interamente esami o tesi senza autorizzazione esplicita del docente
  • DEVI sempre dichiarare se e come hai usato l'IA nel tuo lavoro

👨‍🏫 Per i docenti:

  • L'IA è un'integrazione, non sostituisce il rapporto docente-studente
  • Comunica chiaramente nel syllabus del corso le regole sull'uso dell'IA
  • Valuta criticamente i lavori degli studenti considerando l'eventuale uso di IA

Uso dell'IA in Ricerca e Amministrazione

🔬 Ricerca

  • L'IA può supportare analisi dati, letteratura, scrittura
  • Supervisione umana obbligatoria su tutto ciò che l'IA genera
  • Un sistema di IA non può mai essere considerato autore o coautore di pubblicazioni scientifiche
  • Rimani pienamente responsabile per accuratezza, originalità e qualità metodologica
  • Dichiara sempre l'uso dell'IA nelle pubblicazioni

🏛️ Amministrazione

  • L'IA può assistere nella redazione di documenti, analisi di dati, ricerca normativa
  • Verifica umana indispensabile: controlla accuratezza, fonti, riferimenti normativi
  • Gli atti amministrativi devono rimanere verificabili, spiegabili e giustificabili
  • L'IA può suggerire, non decidere al posto di chi ha responsabilità pubbliche
  • Nessun procedimento amministrativo può essere completamente automatizzato

Governance e Responsabilità

Chi fa cosa

  • Team AI: Indirizza l'Ateneo nell'adozione dei sistemi di IA con funzioni strategiche
  • Responsabile Transizione Digitale (RTD): Referente per l'attuazione delle Linee Guida
  • Data Protection Officer (DPO): Vigila sulla conformità GDPR e protezione dati personali
  • Dirigenti e Direttori: Garantiscono il rispetto delle disposizioni nel loro ambito

Controlli e Monitoraggio

  • Registro dei sistemi di IA: Tutti i sistemi vengono registrati e monitorati
  • Audit annuale: Verifiche della conformità normativa e assenza di bias
  • Revisione Policy: Aggiornamento annuale o più frequente se necessario

Formazione e Conformità

Formazione Continua

L'Università si impegna a promuovere programmi formativi per sviluppare competenze critiche sull'uso dell'IA (AI Literacy), rivolti a tutta la comunità accademica.

Sistemi già in uso

Il Team AI provvederà entro 90 giorni dall'adozione della Policy a:

  • Riclassificare i sistemi di IA già attivi secondo i criteri di rischio
  • Valutarli (FRIA/DPIA se necessario)
  • Tenere il Registro dei sistemi come previsto dalle norme

Per saperne di più

Le Linee Guida specifiche per didattica, ricerca e amministrazione forniranno istruzioni dettagliate e operative.

Per domande o chiarimenti, contatta il Responsabile della Transizione Digitale.

Le Tue Responsabilità - Riepilogo

In sintesi, le tue responsabilità obbligatorie:

  1. Dichiara sempre quando usi l'IA
  2. Non inserire dati personali o riservati in sistemi esterni
  3. Verifica e valida tutto ciò che l'IA produce
  4. Mantieni il controllo: tu sei responsabile, non l'IA
  5. Formati: impara a usare l'IA in modo critico e consapevole

Esempio di Dichiarazione d'Uso IA

"Durante la preparazione di questo lavoro, gli autori hanno utilizzato Claude per: parafrasare e riformulare, migliorare lo stile di scrittura e controllare grammatica e ortografia. Dopo aver utilizzato questi strumenti, gli autori hanno revisionato e modificato il contenuto secondo necessità e si assumono la piena responsabilità del contenuto del proprio elaborato."