L’Università della Valle d’Aosta promuove un uso responsabile, etico e consapevole dei sistemi di Intelligenza Artificiale (IA) a supporto della didattica, della ricerca e dei servizi amministrativi.
L’IA è uno strumento di supporto, non un sostituto del pensiero umano, del giudizio critico e della responsabilità personale.
✅ Principi fondamentali
- Centralità della persona: le decisioni restano sempre umane
- Responsabilità individuale: chi usa l’IA è responsabile degli output
- Trasparenza: l’uso dell’IA deve essere dichiarabile e verificabile
- Sicurezza e protezione dei dati
- Non discriminazione e inclusione
✅ Quali strumenti IA sono utilizzabili
L’Ateneo mette a disposizione del personale docente di ruolo e del personale amministrativo sistemi di IA autorizzati e conformi alla normativa, tra cui:
- strumenti di IA generativa e assistiva forniti tramite contratti istituzionali con la CRUI (es: Microsoft 365 Copilot, Openai Chatgpt).
👉 L’uso di strumenti non forniti dall’Ateneo è possibile sotto la responsabilità esclusiva dell’utilizzatore, nel rispetto delle Linee guida.
❌ Cosa NON è consentito fare con l’IA
È vietato usare l’IA per:
- valutazioni automatiche di studenti o personale;
- selezione, gestione delle carriere o valutazione delle performance del personale;
- decisioni unicamente automatizzate;
- inserire nei prompt:
- dati personali sensibili,
- informazioni riservate,
- materiali coperti da diritto d’autore senza autorizzazione.
🎓 IA nella didattica e nello studio
- L’IA può supportare studio, progettazione didattica, esercizi, revisione linguistica.
- Non può sostituire il lavoro intellettuale personale.
- Studenti e docenti restano sempre responsabili dei contenuti prodotti.
- L’uso dell’IA deve essere:
- coerente con le indicazioni del docente,
- dichiarato quando richiesto.
- I software di “IA detector” non sono affidabili da soli per valutare un elaborato.
🔬 IA nella ricerca
- L’uso dell’IA è consentito come supporto alle varie fasi della ricerca.
- I risultati generati devono essere verificati criticamente.
- L’uso dell’IA deve essere:
- dichiarato nelle pubblicazioni,
- conforme alle regole delle riviste scientifiche.
- I dati personali possono essere usati solo in forma aggregata e anonimizzata.
🏢 IA nei servizi amministrativi
- L’IA può supportare attività ripetitive, analisi dati, redazione di schemi.
- Non sostituisce mai la valutazione professionale.
- Ogni decisione assistita da IA:
- deve essere validata da un umano,
- deve essere documentabile.
🔐 Dati, sicurezza e privacy
- Non inserire nei sistemi IA dati personali particolari o riservati.
- I trattamenti IA ad alto rischio richiedono:
- valutazione preventiva,
- coinvolgimento degli uffici competenti e del DPO.
- L’accesso ai sistemi IA di Ateneo avviene solo con credenziali istituzionali.
🧭 Chi coordina l’uso dell’IA in Ateneo
Il Responsabile della Transizione Digitale (RTD):
- coordina l’adozione e l’evoluzione dei sistemi IA,
- presidia sicurezza, trasparenza e conformità normativa,
- promuove formazione e cultura digitale.
👉 Il RTD non decide al posto di docenti, ricercatori o personale amministrativo, ma garantisce che l’IA sia usata correttamente e in sicurezza.
📚 Formazione
L’Ateneo promuove attività di formazione sull’uso consapevole dell’IA, rivolte a:
- personale tecnico‑amministrativo,
- dirigenti,
- docenti e ricercatori,
- studenti.
L’IA è un’opportunità per migliorare il lavoro e l’apprendimento, ma richiede consapevolezza, responsabilità e rispetto delle regole.