Chi: insegnanti, sindacati di base e attivisti contro l’imposizione di IA nelle scuole. Cosa: si discute sull’uso di ChatGPT e Gemini, risposte verosimili o false, e sulla centralità della relazione umana. Quando: già in atto, con iniziative e conferenze programmate. Dove: in Italia, con eventi anche online. Perché: per contrastare l’introduzione di tecnologie centralizzate e promuovere software libero e formazione critica.
Risposte delle IA nelle scuole: affidabilità e preoccupazioni
Le risposte generate da ChatGPT e Gemini, pur apparendo spesso credibili, non sono sempre affidabili in ambito educativo. Questi strumenti, infatti, possono fornire informazioni errate o incomplete, e la loro capacità di distinguere tra ciò che è corretto e ciò che è fuorviante non è ancora pienamente garantita. Ciò rappresenta un rischio concreto, specialmente quando vengono utilizzati senza una supervisione umana adeguata, compromettendo il processo di apprendimento degli studenti. I sindacati di base sottolineano anche come questa dipendenza dalle tecnologie sia accompagnata da una riduzione del ruolo della relazione umana tra insegnanti e studenti, elemento essenziale per un’efficace formazione educativa. Inoltre, si evidenzia la preoccupazione che l’introduzione accelerata di queste IA, senza un’adeguata regolamentazione e senza strumenti di verifica, possa portare a una perdita di controllo e a problematiche legate alla privacy e alla sicurezza dei dati degli studenti. Per questo motivo, molti sostengono che l’uso di software liberi, con maggiore trasparenza e possibilità di verifica, rappresenti un’alternativa più sicura e etica. La discussione oggi si concentra sulla necessità di mantenere un equilibrio tra innovazione e tutela dei diritti e della qualità dell’insegnamento, puntando alla valorizzazione della relazione umana come elemento insostituibile nel processo educativo.
Perché le IA centralizzate sollevano critiche
Le critiche verso le IA centralizzate si concentrano anche sul fatto che strumenti come ChatGPT e Gemini, pur dando risposte che spesso sembrano verosimili, possono facilmente fornire informazioni false o fuorvianti. Questa capacità di generare risposte convincenti, ma non sempre accurate, rischia di alimentare una disinformazione che può influenzare negativamente il processo educativo. I sindacati di base evidenziano come l'imposizione di queste tecnologie senza un'adeguata valutazione e senza coinvolgimento diretto degli operatori scolastici porti a una perdita di autonomia delle scuole e degli insegnanti. La qualità delle risposte generate dall'intelligenza artificiale non può sostituire la componente umana, fondamentale per un insegnamento critico e personalizzato. Inoltre, molte di queste tecnologie sono gestite da grandi aziende tecnologiche che, attraverso approcci centralizzati, rischiano di imporre un modello di educazione standardizzato e poco adattabile alle diverse realtà locali. Per questi motivi, esiste un forte movimento che promuove l'uso di software libero e soluzioni educative più partecipative, che privilegino la relazione umana e il controllo diretto sui contenuti e le tecnologie adottate nelle scuole, contro un modello di intelligenza artificiale imposto dall'alto dalle grandi multinazionali.
La centralità della relazione umana e il software libero
In un’epoca in cui strumenti come ChatGPT e Gemini possono offrire risposte verosimili o, talvolta, false, è fondamentale mettere in evidenza la centralità della relazione umana nel processo educativo. La tecnologia deve essere vista come un supporto e non come un sostituto delle interazioni dirette tra insegnanti e studenti, poiché solo attraverso il dialogo, la crittografia e l’interazione personale si può sviluppare un pensiero critico e una comprensione autentica. Purtroppo, le recenti tendenze imposte dalle grandi aziende del settore tecnologico, come Big Tech, tendono a introdurre intelligenze artificiali avanzate nelle scuole senza tutelare adeguatamente valori fondamentali quali autonomia, trasparenza e controllo locale. Per questa ragione, i sindacati di base insistono sulla promozione di software libero e open source, che consentano a insegnanti, studenti e genitori di avere il pieno controllo sugli strumenti utilizzati. Un approccio basato sull’uso di software conviviali ed eticamente trasparenti favorisce l’autonomia scolastica, riduce i rischi di manipolazioni e garantisce che le tecnologie siano strumenti di arricchimento e non di omologazione o controllo centralizzato. La scuola del futuro, quindi, deve essere fondata su un equilibrio tra innovazione tecnologica e un inalienabile valore della relazione umana, preservando la capacità critica degli studenti e mantenendo vivo il ruolo insostituibile dell’interazione educativa personale. Solo così sarà possibile fornire un’educazione realmente democratica, libera da influenze monopolistiche e orientata a un sviluppo autentico e partecipato.
Eventi e iniziative a supporto di un’educazione critica e libera
Durante l'incontro, si discuterà delle recenti problematiche sollevate dall’utilizzo di chatbot come ChatGPT e Gemini, che spesso forniscono risposte verosimili ma talvolta false, rischiando di compromettere il percorso di apprendimento critico degli studenti. I partecipanti metteranno in evidenza l'importanza di promuovere un’educazione basata sul ruolo fondamentale della relazione umana tra insegnanti e studenti, ribadendo la necessità di adottare software libero e open source per garantire trasparenza e autonomia nel processo educativo. La discussione si concentrerà anche sulla resistenza dei sindacati di base contro l’imposizione di strumenti digitali controllati dai Big Tech, sostenendo che l’utilizzo di tecnologie aperte possa favorire un ambiente scolastico più equo e critico, evitando il rischioso processo di centralizzazione e monopolio digitale nelle scuole. L’obiettivo è promuovere un dialogo costruttivo per sensibilizzare istituzioni e cittadini sull'importanza di preservare un’educazione libera, critica e orientata al pensiero autonomo.
Progetti e piani futuri per una strategia educativa critica
Valerio De Luca, fondatore della Scuola Spes Academy e presidente del Comitato italiano di data governance e IA, ha annunciato la creazione di un documento collaborativo con l’Università Bocconi e altre realtà, che definirà un quadro strategico per l’insegnamento e l’utilizzo dell’intelligenza artificiale nelle scuole italiane. L’obiettivo è promuovere un’educazione digitale etica, basata sulla relazione umana e sul software libero, per sviluppare un pensiero critico tra studenti e docenti.
Riflessioni sulla cultura digitale e il ruolo dell’educazione
È fondamentale diffondere nelle scuole italiane una cultura critica sull’IA e sulle sue possibili implicazioni sociali ed etiche. Solo attraverso un’educazione che integri tecnologia e relazione umana si può evitare che le scuole diventino ambienti automatizzati, soggetti alle logiche di profitto delle Big Tech. La priorità resta quella di formare cittadini consapevoli e capaci di discernere tra risposte affidabili e false, promuovendo un uso consapevole e critico delle tecnologie digitali.
FAQs
Il dibattito sull’intelligenza artificiale a scuola: tra risposte verosimili, rischi e la difesa della relazione umana
No, le risposte di ChatGPT e Gemini possono essere verosimili ma non sempre accurate o complete, soprattutto senza supervisione umana.
No, i sindacati di base sono contrari all’imposizione di IA come ChatGPT e Gemini, sostenendo la centralità della relazione umana e il software libero.
Perché possono fornire risposte false o fuorvianti, ridurre l’autonomia delle scuole e favorire il controllo monopolistico da parte di grandi aziende tecnologiche.
È fondamentale, poiché solo il dialogo e l’interazione diretta sviluppano pensiero critico e comprensione autentica, che le IA non possono sostituire totalmente.
Per garantire trasparenza, autonomia e controllo locale sugli strumenti educativi, riducendo i rischi di manipolazione e dipendenza da grandi aziende.
Favorendo l’uso di software libero, valorizzando la relazione umana e sviluppando programmi di formazione che insegnino a distinguere tra informazioni affidabili e false.
Creare documenti strategici in collaborazione con università e istituzioni, promuovendo un’educazione digitale etica basata sulla relazione umana e sul software libero, come annunciato da Valerio De Luca nel 16/10/2023.
Per educare cittadini consapevoli a discernere tra risposte affidabili e false, prevenendo l’automazione delle scuole e la perdita di autonomia, promuovendo valori di trasparenza e partecipazione.