Main Menu

Arin. Conformità normativa

Arin. Conformità normativa

Arin. Conformità normativa

Arin. Conformità normativa

Dichiarazione di conformità alle normative sulla protezione dei dati personali e sull’intelligenza artificiale

INTRODUZIONE 
Il presente documento è stato redatto facendo riferimento alle “Linee guida per l’introduzione dell’Intelligenza Artificiale nelle Istituzioni scolastiche - Versione 1.0” del Ministero dell’istruzione e del merito. Esso intende evidenziare come gli enti del consorzio (finanziatore, capofile, partner) hanno ideato e implementato il progetto, di stampo certamente innovativo, nel rispetto delle normative più recenti dell’Unione Europea riguardanti il mondo digitale. 

DESCRIZIONE DEL PROGETTO 
Pathway Companion è una piattaforma con tutoring intelligente al servizio dei bisogni educativi speciali. Il progetto prevede una fase di ricerca e individuazione dei bisogni; una fase implementativa in cui la piattaforma viene progettata, sviluppata e testata; ed una fase operativa, in cui la piattaforma viene utilizzata per fini reali e l’adozione verrà ampliata. La fase implementativa include anche l’addestramento del modello di intelligenza artificiale che costituirà il cuore della piattaforma. La fase operativa includerà anche l’utilizzo della FMD Academy per la distribuzione dei contenuti generati dalla piattaforma. 

RUOLI 
Per quanto riportato nel paragrafo precedente, si identificano i seguenti soggetti e relativi ruoli: 

  • Google.org (nel seguito: Google): il soggetto finanziatore, che non ha ruoli operativi ma a cui saranno documentati i progressi ed i risultati;
  • Fondazione Mondo Digitale (FMD): il soggetto capofila del progetto, che assumerà anche il ruolo di “fornitore” della piattaforma nella fase operativa;
  • Fondazione Don Carlo Gnocchi (FDG): partner clinico responsabile della raccolta e analisi dei bisogni e della definizione di indicazioni cliniche di riferimento per la progettazione funzionale, con esclusione di attività di sviluppo del sistema di IA;
  • IT LogiX SRL (ITLOGIX): partner tecnico responsabile delle attività di analisi, sviluppo, test, deployment e supporto della piattaforma;
  • Le scuole che adotteranno la piattaforma come strumento didattico di supporto, che assumeranno quindi il ruolo di “deployer”;
  • la comunità educante (insegnanti, tutor, genitori), che utilizzerà operativamente la piattaforma e che assumerà il ruolo di "interessati" ai fini della normativa sui dati personali. 

Da notare che i ragazzi con bisogni educativi speciali, beneficiari ultimi del progetto, per scelta implementativa non assumono nessun ruolo operativo e non entrano in contatto con la piattaforma. 

PROTEZIONE DEI DATI PERSONALI 
I ragazzi con bisogni educativi speciali sono parte, sia come età che per la condizione, della categoria definita “soggetti fragili”, e che secondo la giurisprudenza e le indicazioni relative alla normativa di protezione dei dati personali, merita particolari garanzie. Nella fase implementativa, tali soggetti entrano nella fase di addestramento del modello, ma esclusivamente tramite dati aggregati ed anonimizzati (il set di dati di addestramento è relativo a conoscenze, metodologie di esperti della FDG). Nella fase operativa, l’utente (soggetto educante) utilizza la piattaforma dando come input solo l’età ed il tipo di difficoltà del ragazzo. Pertanto, ai fini della normativa in oggetto gli studenti non rientrano tra gli “interessati” perché non esiste trattamento di dati personali. All’inizio della fase implementativa, sono stati coinvolti su base volontaria alcuni soggetti per partecipare a dei “focus group” che definissero le aspettative della piattaforma fornendo informazioni sui comportamenti, sulle necessità, sui bisogni, sulle opinioni dei destinatari rispetto all’uso della tecnologia, dei suoi strumenti e processi nei contesti di apprendimento. Questa attività comportava trattamento di dati personali nella forma di registrazioni audio. Pertanto, la partecipazione è stata condizionata alla concessione di una liberatoria in forma di un modulo cartaceo da firmare (tale liberatoria costituisce un consenso ai fini della normativa in oggetto, ed includeva un’informativa breve ed un riferimento alla informativa completa). Titolare di questo trattamento è FMD. Come misure di sicurezza, sono state introdotte la pseudonimizzazione (disaccoppiando la registrazione dall’identità dell’interessato) e la cancellazione della registrazione appena completato il suo utilizzo. In fase operativa, gli utenti della piattaforma saranno i soggetti educanti (docenti, familiari, caregiver). I dati personali raccolti sono quelli necessari per la creazione ed il mantenimento di un account personale, analogo a quello di moltissimi servizi internet; si evidenzia però che l’account sarà creato solo a fronte di una semplice dimostrazione dell’effettiva necessità di utilizzo della piattaforma, che quindi si deve intendere non aperta a tutto il pubblico. Per tali soggetti sarà disponibile l’informativa sul trattamento dei dati personali e dei cookies. È stata effettuata una fase di test su una versione demo della piattaforma; i partecipanti ai test sono stati individuati da FMD all’interno dei propri elenchi di contatti (che hanno rilasciato il loro consenso a partecipare ad altre iniziative), e hanno avuto accesso attraverso un account analogo a quello della piattaforma definitiva, semplicemente mancando la fase di verifica della richiesta di accesso. Tali account sono stati poi mantenuti anche sulla piattaforma definitiva. 

INTELLIGENZA ARTIFICIALE 
Come descritto in precedenza, la piattaforma effettua una trasformazione di un contenuto educativo in una forma più fruibile dai ragazzi con bisogni speciali. Tutta la fase decisionale, inclusa l’eventuale correzione dell’output generato, è completamente affidata a persone, in particolare della comunità educante. Pertanto, la piattaforma non viene utilizzata per determinare l'accesso, l'ammissione o l'assegnazione di persone fisiche agli istituti di istruzione e formazione professionale; valutare i risultati dell'apprendimento; valutare il livello di istruzione adeguato che una persona riceverà o a cui potrà accedere; monitorare e rilevare comportamenti vietati degli studenti durante le prove; e di conseguenza non è assegnabile alla categoria dei sistemi di IA ad alto rischio. Di conseguenza, la piattaforma può essere considerata appartenente alla categoria dei sistemi AI a rischio limitato (che interagiscono direttamente con persone fisiche), per i quali è previsto come obbligo quello che le persone fisiche interessate siano informate del fatto di stare interagendo con un sistema di IA. Tale obbligo viene assolto tramite un avviso al primo accesso alla piattaforma da parte di un nuovo utente, con spunta di presa visione, che contenga una informativa breve ed i riferimenti sia all’informativa completa sul trattamento dei dati personali che ad un estratto del presente documento che riporti tutte le informazioni necessarie all’utente per prendere consapevolezza della reale funzionalità della piattaforma. VALUTAZIONI SUI RISCHI Sulla base di quanto sopra riportato, si evidenzia il fatto che non risultano necessarie le valutazioni di impatto previste delle normative: per la DPIA (valutazione di impatto sul trattamento dei dati personali, prevista dal GDPR), per la mancanza di trattamenti di dati personali relativi ai soggetti fragili, ed il basso rischio dei trattamenti relativi alle altra categorie di interessati; per la FRIA (valutazione di impatto sui diritti fondamentali, prevista dall’AI Act), per l’appartenenza ai sistemi AI a rischio limitato. Tuttavia, si riportano qui alcune considerazioni relativamente ai rischi della piattaforma. Riguardo ai soggetti fragili come sopra ricordati, la minimizzazione del rischio è stata dall’inizio del progetto (privacy by design e by default) la preoccupazione principale dei partner coinvolti. Da questa preoccupazione derivano la decisione di non permettere l’interazione diretta, ma solo mediata dai soggetti educanti che assumono la responsabilità completa del contenuto che sarà poi fruito. In fase implementativa, per l’addestramento del modello (ma anche per raffinare le funzionalità della piattaforma), si è appositamente scelto di ricorrere ad un partner che avesse il know-how necessario (FDG), ed in parte i dati, a cui delegare completamente l’attività (evitando quindi al massimo la necessità di trasferimenti di dati potenzialmente “particolari” o comunque ad alto rischio); nonché, per il reclutamento dei partecipanti ai focus group, di affidarsi alla piena volontarietà ed all’implementazione di garanzie (le misure sopra ricordate) che minimizzassero il rischio di fuoriuscita o di reidentificazione di informazioni sensibili. Va anche ricordato che i soggetti fragili sono i beneficiari ultimi della piattaforma, il cui impatto positivo bilancia il rischio residuo. Per quanto riguarda gli utenti della piattaforma, appartenenti quindi alla comunità educante, si sottolinea che i trattamenti sui loro dati personali sono sostanzialmente costituiti dalla gestione di un account su un servizio pubblicamente disponibile su rete internet, necessario in quanto l’accesso alla piattaforma deve essere limitato alle persone direttamente coinvolte all’educazione dei ragazzi e che tale accesso sia personalizzato (pur in presenza di input anonimi) in modo da evitare visibilità di dati oltre lo stretto necessario. L’account in questione richiede dati di tipologia comune ed a basso rischio. 

APPENDICE - SPIEGABILITÀ DEL FUNZIONAMENTO DELL’INTELLIGENZA ARTIFICIALE 

  1. Ruolo dell’Intelligenza Artificiale nel sistema 
    La piattaforma utilizza sistemi di Intelligenza Artificiale a supporto di docenti, tutor, caregiver e genitori con funzione di assistenza decisionale e operativa, senza sostituirsi al giudizio umano. L’IA non assume decisioni autonome sul percorso educativo, ma fornisce suggerimenti, adattamenti e proposte sempre modificabili, verificabili e supervisionabili dall’utente. Il sistema rientra in un utilizzo di IA human-in-the-loop, in cui l’utente mantiene il pieno controllo sugli input forniti e sugli output prodotti.
  2. Tipologie di input utilizzate dal sistema 
    L’IA elabora esclusivamente informazioni fornite o validate dall’utente, in particolare: 
    ● Dati descrittivi del profilo educativo dello studente (difficoltà, classe frequentata, bisogni specifici); 
    ● Preferenze e strumenti compensativi selezionati o confermati dall’utente; 
    ● Contenuti didattici di partenza, caricati manualmente o inseriti tramite editor; 
    ● Indicazioni conversazionali fornite durante l’interazione in chat; 
    ● Dati aggregati di fruizione dei contenuti, se la sessione è tracciata (es. utilizzo TTS, tempi di lettura, esiti dei quiz). Non vengono utilizzati dati biometrici né informazioni non pertinenti alle finalità educative dichiarate.
  3. Processo di elaborazione (input → output) 
    Il funzionamento dell’IA può essere descritto secondo le seguenti fasi logiche: 
    Fase 1 – Interpretazione dell’input L’IA analizza: 
    ● il profilo educativo dello studente; 
    ● il contenuto didattico originale; 
    ● le richieste esplicite dell’utente (es. semplificazione, riformulazione, supporti visivi, mappe, quiz). Questa fase serve a comprendere contesto, obiettivi e vincoli educativi, senza introdurre informazioni esterne non controllate. 
    Fase 2 – Applicazione di conoscenza validata L’IA utilizza: 
    ● criteri pedagogici e didattici validati da esperti, integrati nel sistema; 
    ● regole di adattamento coerenti con i principali strumenti compensativi e con i bisogni educativi speciali; 
    ● modelli linguistici addestrati a riformulare e strutturare contenuti, non ad alutarli clinicamente. In questa fase non viene generata alcuna diagnosi, né classificazione automatica dello studente. 
    Fase 3 – Generazione dell’output Il sistema produce output quali: 
    ● contenuti didattici adattati; 
    ● mappe concettuali; 
    ● quiz; 
    ● suggerimenti di miglioramento del contenuto. 
    Ogni output: 
    ● è esplicitamente collegato all’input fornito; 
    ● è visualizzabile e modificabile dall’utente; 
    ● può essere ulteriormente raffinato tramite interazione iterativa. 
    Fase 4 – Verifica e supervisione umana L’utente può: 
    ● modificare manualmente i contenuti; 
    ● richiedere variazioni tramite chat; 
    ● rifiutare o sostituire qualsiasi proposta dell’IA; 
    ● utilizzare i dati di fruizione per migliorare ulteriormente i materiali. L’output finale è sempre il risultato di una scelta consapevole dell’utente umano.
  4. Spiegabilità degli output 
    Per garantire il principio di spiegabilità: 
    ● l’utente può sempre ricostruire il percorso logico che ha portato alla generazione di un contenuto (profilo → richiesta → adattamento); 
    ● le funzionalità sono organizzate in passaggi chiari e separati (profilo, contenuto, mappa, quiz, miglioramento); 
    ● l’IA esplicita le proprie azioni attraverso il dialogo conversazionale (es. “sto adattando il contenuto in base al profilo indicato”). Questo consente all’utente di comprendere perché un determinato output è stato prodotto e come modificarlo. 
  5. Limiti del sistema e responsabilità 
    L’Intelligenza Artificiale: 
    ● non sostituisce il docente, il tutor o il caregiver; 
    ● non fornisce valutazioni cliniche o diagnostiche; 
    ● non assume decisioni educative vincolanti. La responsabilità dell’uso dei contenuti generati rimane in capo all’utente, che opera all’interno di un sistema progettato per supportare, non automatizzare, il processo educativo.
  6. Coerenza con l’AI Act Il sistema è progettato in conformità ai principi di: 
    ● trasparenza (art. 13); 
    ● supervisione umana (art. 14); 
    ● uso proporzionato e contestuale dell’IA; 
    ● tutela dei soggetti vulnerabili, in particolare minori e persone con bisogni educativi speciali.

Get updated on our latest activities, news and events