Linee guida per l'uso dell'Intelligenza Artificiale
Introduzione e Principi Fondamentali
Perché questa Policy
L'intelligenza artificiale è una risorsa potente che può migliorare il nostro modo di studiare, insegnare, fare ricerca e lavorare. L'Università di Verona promuove il suo uso consapevole, mettendo sempre le persone al centro.
Questa Policy stabilisce i principi fondamentali per usare l'IA in modo etico, legale e responsabile, nel rispetto delle normative europee (AI Act, GDPR) e della normativa italiana (Legge 132/2025).
I nostri principi
- La persona prima di tutto: L'IA è uno strumento di supporto, non un sostituto delle capacità umane
- La decisione finale è sempre umana: Nessuna decisione importante può essere affidata interamente a un sistema di IA
- Trasparenza: Ogni uso dell'IA deve essere dichiarato esplicitamente
- Equità e riduzione dei pregiudizi: Verificare criticamente i risultati e non accettare passivamente ciò che l'IA genera
- Qualità e controllo: Chi usa l'IA deve sempre verificare, correggere e validare i risultati prodotti
Protezione dei Dati - Regole Obbligatorie
❌ È VIETATO inserire in sistemi di IA:
- Dati personali senza una base giuridica idonea (interesse pubblico, esecuzione contratto, obbligo legale, consenso)
- Dati personali di categorie particolari (art. 9 GDPR): dati genetici, biometrici, relativi alla salute, orientamento sessuale, opinioni politiche
- Informazioni riservate o coperte da segreto: bozze di atti amministrativi, quesiti d'esame, dati di ricerca non pubblicati
✅ È CONSENTITO usare l'IA:
- Con dati anonimi o pubblici
- In ambienti protetti e controllati dall'Ateneo
- Seguendo il principio di minimizzazione: usa solo i dati strettamente pertinenti e necessari
Sistemi Vietati e ad Alto Rischio
❌ Sistemi VIETATI
Tecnologie che manipolano, controllano o discriminano le persone (es. social scoring, sistemi manipolativi).
⚠️ Sistemi ad ALTO RISCHIO
Sistemi che possono incidere significativamente sui diritti delle persone richiedono:
- Valutazione preventiva (FRIA e DPIA)
- Autorizzazione formale
- Monitoraggio continuo
Esempi: sistemi per valutazione prestazioni del personale, valutazione automatizzata domande di ammissione a corsi a numero chiuso.
Importante: Prima di adottare qualsiasi nuovo sistema, l'Università effettua una valutazione preliminare del rischio.
Uso dell'IA nella Didattica
📚 Per gli studenti:
- CONSENTITO: L'IA può aiutare per brainstorming, revisione linguistica, organizzazione delle idee
- NON puoi usarla per svolgere interamente esami o tesi senza autorizzazione esplicita del docente
- DEVI sempre dichiarare se e come hai usato l'IA nel tuo lavoro
👨🏫 Per i docenti:
- L'IA è un'integrazione, non sostituisce il rapporto docente-studente
- Comunica chiaramente nel syllabus del corso le regole sull'uso dell'IA
- Valuta criticamente i lavori degli studenti considerando l'eventuale uso di IA
Uso dell'IA in Ricerca e Amministrazione
🔬 Ricerca
- L'IA può supportare analisi dati, letteratura, scrittura
- Supervisione umana obbligatoria su tutto ciò che l'IA genera
- Un sistema di IA non può mai essere considerato autore o coautore di pubblicazioni scientifiche
- Rimani pienamente responsabile per accuratezza, originalità e qualità metodologica
- Dichiara sempre l'uso dell'IA nelle pubblicazioni
🏛️ Amministrazione
- L'IA può assistere nella redazione di documenti, analisi di dati, ricerca normativa
- Verifica umana indispensabile: controlla accuratezza, fonti, riferimenti normativi
- Gli atti amministrativi devono rimanere verificabili, spiegabili e giustificabili
- L'IA può suggerire, non decidere al posto di chi ha responsabilità pubbliche
- Nessun procedimento amministrativo può essere completamente automatizzato
Governance e Responsabilità
Chi fa cosa
- Team AI: Indirizza l'Ateneo nell'adozione dei sistemi di IA con funzioni strategiche
- Responsabile Transizione Digitale (RTD): Referente per l'attuazione delle Linee Guida
- Data Protection Officer (DPO): Vigila sulla conformità GDPR e protezione dati personali
- Dirigenti e Direttori: Garantiscono il rispetto delle disposizioni nel loro ambito
Controlli e Monitoraggio
- Registro dei sistemi di IA: Tutti i sistemi vengono registrati e monitorati
- Audit annuale: Verifiche della conformità normativa e assenza di bias
- Revisione Policy: Aggiornamento annuale o più frequente se necessario
Formazione e Conformità
Formazione Continua
L'Università si impegna a promuovere programmi formativi per sviluppare competenze critiche sull'uso dell'IA (AI Literacy), rivolti a tutta la comunità accademica.
Sistemi già in uso
Il Team AI provvederà entro 90 giorni dall'adozione della Policy a:
- Riclassificare i sistemi di IA già attivi secondo i criteri di rischio
- Valutarli (FRIA/DPIA se necessario)
- Tenere il Registro dei sistemi come previsto dalle norme
Per saperne di più
Le Linee Guida specifiche per didattica, ricerca e amministrazione forniranno istruzioni dettagliate e operative.
Per domande o chiarimenti, contatta il Responsabile della Transizione Digitale.
Le Tue Responsabilità - Riepilogo
In sintesi, le tue responsabilità obbligatorie:
- Dichiara sempre quando usi l'IA
- Non inserire dati personali o riservati in sistemi esterni
- Verifica e valida tutto ciò che l'IA produce
- Mantieni il controllo: tu sei responsabile, non l'IA
- Formati: impara a usare l'IA in modo critico e consapevole
Esempio di Dichiarazione d'Uso IA
"Durante la preparazione di questo lavoro, gli autori hanno utilizzato Claude per: parafrasare e riformulare, migliorare lo stile di scrittura e controllare grammatica e ortografia. Dopo aver utilizzato questi strumenti, gli autori hanno revisionato e modificato il contenuto secondo necessità e si assumono la piena responsabilità del contenuto del proprio elaborato."