L’intelligenza artificiale (IA) sta per fare il suo ingresso nelle scuole e nelle università italiane, promettendo di rivoluzionare molti aspetti della didattica e della gestione scolastica: ma quali sono i rischi correlati al suo impiego e quali sono le sfide per gli istituti e gli atenei?


L’uso di applicativi IA in ambito educativo potrebbe semplificare operazioni come la correzione dei compiti, la sorveglianza durante gli esami o l’ammissione a corsi di studio. Tuttavia, questo progresso solleva una questione delicata: la protezione della privacy.

Il nuovo regolamento europeo sull’intelligenza artificiale, n. 2024/1689, impone una serie di norme per gestire i rischi connessi all’uso di questi sistemi, ponendo l’accento sul loro impiego ad “alto rischio” nell’ambito dell’istruzione.

Secondo il regolamento, l’intelligenza artificiale verrà utilizzata per diverse attività cruciali, come determinare l’accesso agli istituti scolastici e valutare le competenze degli studenti. Tra i compiti assegnati a questi sistemi vi è anche la sorveglianza durante le prove d’esame, con l’obiettivo di monitorare eventuali comportamenti scorretti. Il testo chiarisce che tali sistemi possono essere applicati a tutti i livelli di istruzione, dalla scuola primaria fino alle università e agli istituti professionali.

La sperimentazione italiana

Il Ministero dell’Istruzione e del Merito italiano ha deciso di lanciare una fase di sperimentazione per l’anno scolastico 2024/2025 in 15 scuole pilota. Questo progetto biennale introdurrà un assistente virtuale capace di individuare le difficoltà di apprendimento degli studenti e segnalarle sia agli insegnanti che agli stessi studenti.

L’obiettivo è quello di offrire un supporto personalizzato, permettendo ai docenti di adattare le loro strategie educative in base alle esigenze specifiche di ciascun alunno. Sebbene l’iniziativa rappresenti un passo avanti significativo nell’uso della tecnologia per migliorare l’apprendimento, solleva diverse preoccupazioni, soprattutto riguardo la tutela della privacy.

Intelligenza artificiale in scuole e università: i rischi legati alla sua pervasività

L’introduzione dell’intelligenza artificiale (IA) nelle scuole rappresenta un passo innovativo, ma non privo di criticità. I sistemi di IA, che promettono di migliorare la gestione e l’efficienza del processo educativo, presentano rischi considerevoli, soprattutto in termini di privacy e diritti degli studenti. L’elemento chiave che desta preoccupazione è la quantità e la natura dei dati che questi sistemi raccolgono e analizzano.

La gestione dei dati personali: una questione di vulnerabilità

L’utilizzo dell’IA nelle scuole implica la raccolta di informazioni sensibili, che spaziano dal rendimento scolastico alle abitudini di apprendimento, fino al comportamento durante le prove d’esame. Questi dati, se non gestiti correttamente, possono esporre gli studenti a una serie di rischi, inclusi l’abuso e la violazione della privacy.

Il rischio principale deriva dalla possibilità che tali informazioni finiscano nelle mani sbagliate, venendo utilizzate per scopi non autorizzati. Ad esempio, i dati raccolti potrebbero essere sfruttati da terze parti per attività di marketing o, ancor peggio, per la profilazione degli studenti in base alle loro performance scolastiche e comportamentali. Un simile scenario potrebbe portare alla stigmatizzazione di alcuni studenti, compromettendo la loro crescita personale e la fiducia nel sistema educativo.

Un altro aspetto da considerare è la conservazione di questi dati. Quali misure vengono adottate per proteggerli? E per quanto tempo le informazioni raccolte verranno mantenute? Un sistema educativo che si affida massicciamente all’IA rischia di accumulare una mole di dati che, nel tempo, potrebbe divenire difficile da gestire e proteggere adeguatamente. La mancanza di trasparenza su come queste informazioni vengono archiviate e chi vi abbia accesso rappresenta una minaccia concreta per la sicurezza dei dati.

Decisioni automatizzate e mancanza di trasparenza

Un altro rischio rilevante nell’uso dell’IA per valutare le prestazioni degli studenti è legato alla possibilità di decisioni automatizzate che risultino poco accurate o ingiuste. I sistemi di IA, infatti, operano attraverso algoritmi che si basano su modelli predittivi e database predefiniti. Tuttavia, se questi modelli non vengono continuamente aggiornati e verificati, possono introdurre errori significativi nel processo decisionale.

Ad esempio, un sistema di intelligenza artificiale potrebbe erroneamente interpretare una performance scolastica temporaneamente inferiore come segno di una difficoltà cronica, senza tenere conto di fattori contestuali, come lo stato emotivo o familiare dello studente. In assenza di un intervento umano nel processo di valutazione, si rischia di perpetuare giudizi erronei, con conseguenze a lungo termine sulla carriera scolastica e personale degli alunni.

Inoltre, la mancanza di trasparenza nel funzionamento degli algoritmi utilizzati per prendere decisioni sugli studenti rappresenta una minaccia per la fiducia nel sistema educativo. Se gli studenti non comprendono come vengono valutate le loro prestazioni o come vengono prese le decisioni in merito al loro percorso formativo, potrebbero sviluppare una percezione di ingiustizia e disuguaglianza.

Il rischio della sorveglianza continua

Uno degli usi più controversi dell’IA in ambito scolastico è la sorveglianza durante le prove d’esame. In alcuni casi, si utilizzano sistemi avanzati di monitoraggio che, attraverso algoritmi di riconoscimento facciale o di analisi comportamentale, sono in grado di rilevare possibili irregolarità. Sebbene questa tecnologia possa ridurre il rischio di frodi, introduce un elemento di controllo continuo che rischia di risultare altamente invasivo.

L’essere costantemente osservati da un sistema automatizzato, che analizza ogni movimento e comportamento degli studenti, potrebbe creare un ambiente di studio e di esame oppressivo. La percezione di essere sempre sotto osservazione potrebbe generare ansia e stress, compromettendo non solo le performance degli studenti, ma anche il loro benessere psicologico.

Inoltre, esistono preoccupazioni legate all’affidabilità di questi sistemi di sorveglianza. Gli algoritmi di riconoscimento facciale e di analisi comportamentale non sono infallibili e possono commettere errori. Uno studente potrebbe essere accusato ingiustamente di aver infranto le regole d’esame semplicemente perché il sistema ha interpretato male un suo movimento. In questi casi, diventa essenziale garantire che esistano procedure di revisione e contestazione delle decisioni automatizzate, per evitare ingiustizie che potrebbero avere un impatto significativo sul percorso scolastico degli studenti.

La sfida della trasparenza e della responsabilità

Per gestire questi rischi, la trasparenza nell’utilizzo dei sistemi di IA è fondamentale. Le scuole e le università devono informare in modo chiaro gli studenti e le loro famiglie su come vengono utilizzati i dati raccolti, quali sono gli scopi di tali raccolte e quali misure di sicurezza vengono adottate per proteggerli.

Oltre alla trasparenza, è necessario stabilire responsabilità chiare. Chi è responsabile se un sistema di IA commette un errore nella valutazione di uno studente? Come possono gli studenti far valere i propri diritti in caso di decisioni ingiuste o scorrette? Senza risposte precise a queste domande, si rischia di creare un vuoto normativo in cui gli studenti diventano vulnerabili agli abusi del sistema.

Infine, è fondamentale che le scuole mantengano un equilibrio tra l’uso dell’IA e l’intervento umano. L’intelligenza artificiale può essere un utile strumento di supporto, ma non deve mai sostituire completamente il giudizio umano, soprattutto in contesti così delicati come l’educazione.

Il testo del regolamento

Qui il documento completo.