La Commissione europea dal 2004 ha istituito la giornata della Sicurezza in Internet, denominata “Safer Internet Day” (SID), che si celebra il secondo martedì del mese di febbraio, al fine di promuovere un utilizzo più responsabile delle tecnologie legate ad internet, specialmente tra i bambini e gli adolescenti.
Nota 9 febbraio 2026, AOODGSIP 378
Safer Internet Day: 10 febbraio 2026 – Giornata Mondiale per la Sicurezza in Rete: Evento in diretta streaming e attività di educazione all’uso sicuro delle tecnologie digitali
Il Ministero dell’Istruzione e del Merito celebra il Safer Internet Day (SID) 2026, la Giornata mondiale per la sicurezza in rete, con un evento nazionale in diretta streaming e un ampio programma di attività educative rivolte a tutte le Scuole del I e del II ciclo, in coerenza con quanto disciplinato dalle Linee guida per l’insegnamento dell’Educazione Civica, con particolare riferimento al nucleo concettuale “CITTADINANZA DIGITALE”.
L’iniziativa si inserisce nell’ambito del Safer Internet Centre – Generazioni Connesse, coordinato dal Ministero dell’Istruzione e del Merito e realizzato in collaborazione con Autorità Garante per l’Infanzia e l’Adolescenza, Agenzia Nazionale Cybersicurezza, Presidenza del Consiglio – Dipartimento per la Famiglia, Autorità per le Garanzie nelle Comunicazioni, Garante per la protezione dei dati personali, Polizia di Stato, gli Atenei di Firenze e ‘La Sapienza’ di Roma, Save the Children Italia, Telefono Azzurro, la cooperativa EDI onlus, Skuola.net e l’Ente Autonomo Giffoni Experience.
Il consorzio opera in modo integrato sui pilastri della sensibilizzazione, educazione, partecipazione giovanile, supporto e tutela, in raccordo con le politiche europee per un internet migliore per i minori.
L’appuntamento principale si terrà a Roma, presso il Teatro Ambra Jovinelli, dalle ore 10:15 alle 12:30, con la partecipazione in presenza di circa 600 studentesse e studenti e la possibilità di collegamento in diretta streaming per tutte le istituzioni scolastiche interessate.
I giovani saranno protagonisti di uno spettacolo di improvvisazione teatrale, accompagnati da esperti del consorzio e da momenti di confronto con rappresentanti istituzionali su tre grandi temi di particolare attualità: Benessere digitale, Intelligenza artificiale e deepfake, Adescamento online.
Il Mese della Sicurezza in Rete”: la campagna nazionale dal 1° al 28 febbraio
In concomitanza con il Safer Internet Day, il consorzio del Safer Internet Centre – Generazioni Connesse promuoverà la campagna “Il Mese della Sicurezza in Rete”: dal 1° al 28 febbraio 2026 le scuole potranno documentare e condividere le attività realizzate attraverso un apposito form disponibile nella sezione dedicata al SID 2026 sul sito www.generazioniconnesse.it, contribuendo alla mappatura e alla valorizzazione delle buone pratiche a livello nazionale.
Safer Internet Day 2026: il 77,5% degli studenti dipendente dai dispositivi digitali
9 ragazzi su 10 temono effetti su salute mentale e fisica
I dati dell’Osservatorio sull’Educazione Digitale in vista del Safer Internet Day 2026: i ragazzi riconoscono la dipendenza e l’impatto del digitale sul proprio benessere, ma faticano a cambiare abitudini senza un accompagnamento educativo coerente.
I ragazzi sanno di essere troppo online. E sanno anche che questo ha un costo, in termini di salute mentale e fisica. In occasione del Safer Internet Day, la Giornata mondiale per la sicurezza in Rete istituita e promossa dalla Commissione Europea e celebrata il 10 febbraio, l’Associazione Social Warning – Movimento Etico Digitale APS presenta i risultati della survey 2025 condotta dall’Osservatorio Scientifico del Movimento Etico Digitale, che ha coinvolto oltre 20.000 studenti.
Dai dati emerge un quadro chiaro: il 77,5% degli studenti tra gli 11 e i 18 anni dichiara di sentirsi dipendente dai dispositivi digitali, in aumento di quasi cinque punti percentuali rispetto all’anno precedente (72,6%). Una consapevolezza diffusa che però non si traduce automaticamente nella capacità di ridurre il tempo trascorso davanti agli schermi.
Nel dettaglio, il 41,8% parla di una dipendenza moderata, il 33,3% di una dipendenza lieve e una quota più contenuta riconosce una forma grave. Solo il 22,5% afferma di non sentirsi dipendente. Ma il dato più critico emerge guardando ai tentativi di cambiamento: tra i ragazzi che hanno provato a ridurre il tempo online, solo il 23,3% dichiara di esserci riuscito davvero.
Alla percezione di dipendenza si affianca una crescente preoccupazione per la salute fisica e mentale: già nel 2024, oltre il 60% degli studenti riteneva che l’uso eccessivo dei dispositivi digitali potesse influire sia sulla salute mentale che fisica, evidenziando effetti su attenzione, qualità del sonno, postura, vista e benessere psicologico.
Nel 2025, questa consapevolezza si rafforza ulteriormente. Alla domanda “Credi che l’uso eccessivo dei dispositivi digitali possa influire sulla tua salute fisica o mentale?” oltre il 91% dei ragazzi riconosce un impatto diretto del digitale sul proprio benessere. Nel dettaglio: ben il 72,2% risponde che può incidere su entrambe, il 15% solo sulla salute mentale e il 4,1% solo su quella fisica. Solo l’8,7% dichiara di non vedere alcuna correlazione.
Parallelamente cresce il tempo trascorso online nelle fasce più sensibili della giornata: aumenta infatti in modo significativo la navigazione tra le 13.00 e le 19.00– con un incremento di oltre sei punti percentuali- e continua a crescere anche la fascia serale 19.00–23.00. Ore tradizionalmente dedicate allo studio, alle relazioni e al riposo risultano sempre più assorbite dalla connessione continua.
Questo scenario si riflette anche nel modo in cui i ragazzi percepiscono il loro stare online. Se il 57% dichiara di sentirsi “bene”, cresce in modo marcato la quota di chi risponde “né bene né male”, che arriva al 31%. Un dato che, secondo l’Osservatorio, non indica equilibrio, ma piuttosto una forma di assuefazione: Internet non è più percepito come uno spazio che fa stare bene o male, ma come un ambiente costante, inevitabile.
«Quando oltre tre ragazzi su quattro si sentono dipendenti e più di nove su dieci riconoscono effetti sulla salute, siamo davanti a una richiesta di supporto», afferma Davide Dal Maso, presidente di Social Warning – Movimento Etico Digitale «È sufficiente il tempo che si dedica a scuola e in famiglia a questi temi? C’è un’educazione sufficiente su questi aspetti? I giovani sanno riconoscere sia i rischi che le opportunità di questi strumenti che occupano una parte molto rilevante della loro quotidianità? Anche per questo come Movimento Etico Digitale promuoviamo un uso consapevole e proattivo del web e abbiamo promosso la Giornata Nazionale della Cittadinanza Digitale, una proposta di legge già approvata in Senato».
Sul piano educativo, i dati mostrano una difficoltà che va oltre la tecnologia. «Incontro sempre più bambini e ragazzi consapevoli del tempo che passano online, dei rischi e del tema della dipendenza», osserva Gregorio Ceccone, pedagogista del digitale, vicepresidente del Movimento Etico Digitale e referente dell’Osservatorio Scientifico sull’Educazione Digitale. «Il problema non è la loro scarsa consapevolezza ma il messaggio spesso incoerente che ricevono dagli adulti. A scuola si lavora su equilibrio e cittadinanza digitale, ma in ambito familiare troppo spesso mancano regole chiare o continuità educativa. Non di rado ci si sente rispondere che l’educazione digitale è una questione privata, mentre è una responsabilità condivisa».
SAFER INTERNET DAY 2026 / DI MATTEI (PRESIDENTE OPL): “NECESSARIO RAFFORZARE LE ALLEANZE EDUCATIVE”
Milano, 9 febbraio 2026 – Si è svolta oggi presso l’Università Bocconi di Milano la giornata di dibattito “Crescere con l’Intelligenza Artificiale: scelte consapevoli in un mondo connesso”, promossa da Telefono Azzurro in occasione del Safer Internet Day 2026. L’iniziativa ha riunito istituzioni, mondo accademico ed esperti per riflettere sull’impatto dell’Intelligenza Artificiale e dell’evoluzione digitale sulla crescita e sulla salute mentale di bambini e adolescenti.
Nel corso dei lavori sono stati approfonditi i temi della sicurezza online, dell’evoluzione del digitale e del ruolo dell’Intelligenza Artificiale nella vita quotidiana dei bambini e adolescenti con un focus specifico sulla salute mentale.
Tra i relatori è intervenuta anche Valentina Di Mattei, Presidente dell’Ordine degli Psicologi.
“Il digitale è ormai parte integrante della vita dei più giovani e rappresenta uno spazio di relazione, apprendimento e costruzione dell’identità. Per questo è fondamentale accompagnarli a un uso consapevole, riconoscendo al tempo stesso l’importanza di una normativa equilibrata che tuteli uno sviluppo sano. A livello internazionale diversi Paesi stanno lavorando su nuove forme di tutela, segno di una crescente attenzione alla salute psicologica dei minori. Anche in Italia è importante adottare un approccio strutturato che integri regolazione, educazione e prevenzione”, ha dichiarato Valentina Di Mattei, Presidente dell’Ordine degli Psicologi
“Come Ordine degli Psicologi della Lombardia lavoriamo su questi temi con le Istituzioni e attraverso i nostri Gruppi di Lavoro dedicati al benessere digitale e al disagio giovanile. Un elemento per noi centrale è la presenza dello psicologo a scuola: un presidio stabile di ascolto e prevenzione che può intercettare precocemente segnali di disagio e rafforzare le alleanze educative. È il cuore del progetto “Scuola in Ascolto”, sviluppato insieme a Regione Lombardia, con l’obiettivo di rendere la presenza dello psicologo un riferimento strutturale e permanente nel sistema educativo. Ringrazio Telefono Azzurro per questa iniziativa, che favorisce un confronto tra istituzioni, professionisti e mondo educativo. Solo lavorando in rete possiamo costruire risposte efficaci e durature per la tutela e la promozione della salute mentale di bambini e adolescenti”. conclude Di Mattei
UNICEF/Safer Internet Day (10/2): focus su Intelligenza Artificiale
Lanciati 9 consigli per i genitori e caregivers nell’era dell’intelligenza artificiale
9 febbraio 2026 – In occasione del Safer Internet Day (10 febbraio), l’UNICEF ricorda che più di 1 studente su 5 di 10 anni in 26 Paesi su 32 non è in grado di distinguere se un sito web sia affidabile o meno* e dedica la giornata al tema “Smart tech, safe choises: exploring the safe and responsible use of AI” (Tecnologia intelligente, scelte sicure: esplorare l’uso sicuro e responsabile dell’IA) perché la tecnologia, se usata con attenzione e ponderazione, può essere di supporto ai bambini.
In Italia i dati** indicano che tra i bambini e gli adolescenti tra i 9 e i 16 anni: il 9,5% non possiede competenze nel cambiare le impostazioni della privacy; il 9,2% non possiede competenze nello scegliere le migliori parole chiave per ricerche; l’11,9% non possiede competenze nel rimuovere persone dalla lista dei contatti; il 18,9% non possiede competenze nel creare contenuti (musica o video).
Anche la percezione dell’Intelligenza Artificiale tra i giovani evidenzia forti divari. Secondo un sondaggio*** condotto attraverso la piattaforma digitale U-Report, a livello internazionale su un campione di 61.400 partecipanti, il 18% ritiene di avere familiarità con i sistemi di IA, il 22% in maniera moderata, il 25% parzialmente e il 35% quasi per nulla. Inoltre, su 57.670 partecipanti il 45% sente di avere le skill necessarie per lavorare con l’IA, il 20% ritiene di non averle e il 35% non si sente sicuro nell’usarle.
L’UNICEF ha recentemente lanciato un allarme sul rapido aumento del volume di immagini sessualizzate generate dall’Intelligenza Artificiale che circolano, compresi casi in cui fotografie di bambini sono state manipolate e sessualizzate. In uno studio condotto da UNICEF, ECPAT e INTERPOL in 11 paesi, almeno 1,2 milioni di bambini hanno rivelato che le loro immagini sono state manipolate in deepfake sessualmente espliciti nell’ultimo anno. In alcuni paesi, ciò rappresenta 1 bambino su 25, l’equivalente di un bambino in una classe tipica. In alcuni dei paesi oggetto dello studio, fino a due terzi dei bambini hanno dichiarato di temere che l’intelligenza artificiale possa essere utilizzata per creare false immagini o video a sfondo sessuale.
«In un mondo in cui l’intelligenza artificiale è sempre più presente nella vita quotidiana di bambini e adolescenti, è fondamentale accompagnarli nello sviluppo di competenze digitali, spirito critico e consapevolezza», ha dichiarato Nicola Graziano, Presidente dell’UNICEF Italia. «I dati ci dicono che troppi bambini faticano ancora a riconoscere fonti affidabili e a orientarsi online in modo sicuro. Per questo è necessario un impegno condiviso tra famiglie, scuole, istituzioni e aziende per costruire ambienti digitali che tutelino i diritti dei bambini e ne promuovano il benessere, oggi e in futuro, garantendo il loro ascolto e loro partecipazione. La Convenzione ONU sui diritti dell’infanzia fornisce una bussola certa, grazie al Commento generale n.25 del Comitato ONU dedicato ai diritti dei minorenni in relazione all’ambiente digita».
Per supportare famiglie e coloro che si prendono cura dei bambini a navigare nel mondo digitale in modo sicuro, fiducioso e responsabile l’UNICEF Italia diffonde 9 consigli pratici per genitori e caregivers nell’era dell’Intelligenza Artificiale (IA):
1. Iniziare presto. I bambini incontrano l’intelligenza artificiale in molti aspetti della vita quotidiana, anche senza usare personalmente strumenti di IA. Potrebbero notare l’IA a casa, sentirne parlare a scuola, vederla sui media. Quando fanno domande o notano qualcosa legato all’IA, è un buon momento per introdurre in modo semplice che cos’è e come funziona.
2. Tenere presenti i rischi. Alcuni strumenti di IA raccolgono dati personali, espongono a contenuti fuorvianti o pericolosi o interagiscono in modi inappropriati. Altri sono progettati per mantenere alta l’attenzione per obiettivi commerciali più che per il benessere dei bambini. Le interazioni con l’IA possono anche influenzare il modo in cui i bambini imparano a gestire le sfide sociali. È importante incoraggiare un uso equilibrato e consapevole, in modo che il vostro bambino continui a sviluppare abilità utili per la vita reale come comunicazione e problem solving.
3. Usare esempi quotidiani. I bambini piccoli capiscono meglio l’intelligenza artificiale quando è collegata a oggetti familiari. Parlate degli strumenti di intelligenza artificiale che avete in casa, se li avete, come gli altoparlanti smart o altri dispositivi domestici. Spiegate che questi strumenti seguono istruzioni e riconoscono schemi. Esplorate insieme l’IA ponendo semplici domande a un chatbot o a un assistente vocale e parlando delle risposte. Questo aiuterà il bambino a capire cosa può o non può fare l’IA.
4. Aiutare i bambini a imparare con l’IA. L’intelligenza artificiale può sostenere l’apprendimento dei bambini spiegando le idee in modo chiaro, rispondendo alle domande su richiesta e fornendo esercitazioni personalizzate. Tuttavia, un’assistenza eccessiva può ridurre le opportunità per i bambini di pensare ai problemi in modo indipendente. Incoraggiate vostro figlio a usare l’IA come uno strumento utile, non come una scorciatoia.
5. Proteggere la privacy del vostro bambino. Gli strumenti di intelligenza artificiale potrebbero richiedere dettagli come l’età del bambino o le informazioni di contatto del genitore. I bambini possono anche condividere informazioni personali durante l’uso quotidiano, come nomi, abitudini, amicizie o sentimenti. Esaminate insieme le impostazioni sulla privacy e verificate quali dati raccolgono e condividono le diverse piattaforme. Conversazioni continue e ricerche su ciò che è sicuro divulgare aiuteranno vostro figlio a costruire abitudini solide nel tempo.
6. Imparare insieme. Molti adulti si sentono insicuri nel guidare i bambini, dato che l’IA si evolve così rapidamente. Non è necessario che i genitori siano esperti per sostenere l’alfabetizzazione all’IA. Imparare a conoscere l’IA insieme a vostro figlio può essere un punto di partenza efficace e di supporto. Le recensioni di app di IA da parte di fonti affidabili possono offrire alle famiglie punti di ingresso pratici. Alcune scuole possono anche fornire un elenco di strumenti approvati. Piccoli passi e conversazioni aperte fanno una grande differenza.
7. Prestare attenzione ai segnali di allarme. Le interazioni non salutari con l’IA possono includere un uso eccessivo e il mostrare disagio quando viene chiesto di smettere. I genitori potrebbero notare che i figli si affidano all’IA per il sostegno emotivo invece che a persone fidate. Se appaiono questi schemi, iniziate con domande gentili e aperte. Insieme, potete concordare semplici limiti e controlli regolari per mantenere l’uso dell’IA sano ed equilibrato.
8. Dialogare apertamente con la scuola. I genitori possono chiedere alle scuole come viene utilizzata l’IA per l’apprendimento e i compiti a casa, cosa gli insegnanti trovano utile e dove vedono dei limiti. Se i bambini abusano dell’IA per i compiti scolastici, spesso il problema è legato alla motivazione o alla preparazione, non solo all’accesso a uno strumento. Lavorare con le scuole come partner può aiutare le famiglie a guidare i bambini in modo responsabile.
9. Mantenere l’IA nella giusta prospettiva. L’IA sta diventando una parte sempre più importante del gioco, dell’apprendimento e della vita sociale dei bambini, ma è solo una parte del loro mondo. Ciò che conta di più è l’ambiente in cui i bambini crescono e prosperano. Le relazioni, le routine e gli interessi vengono prima di tutto. Mantenere questa visione equilibrata può aiutare la famiglia a fare scelte ponderate e sicure sull’IA.
*dati del 2021-2022, tratti da UNICEF Innocenti: Report Card 19 Il benessere di bambine, bambini e adolescenti in un mondo imprevedibile (2025).
**tratti da: UNICEF Innocenti, Childhood in a Digital World, (2025).
***(U-Report – Artificial Intelligence (AI): Familiarity, impact on the workspace and preparedness to work alongside AI technologies, 2024).
SAFER INTERNET DAY 2026
TELEFONO AZZURRO: 1 ADOLESCENTE SU 3 UTILIZZA CHATBOT IA. CRESCONO LE SFIDE PER LA SALUTE MENTALE
Milano, 9 febbraio 2026 – Il rapido sviluppo dell’Intelligenza Artificiale generativa e la crescente diffusione dei chatbot IA, sempre più utilizzati anche da bambini e adolescenti, pongono nuove sfide per la salute mentale e lo sviluppo neurocognitivo delle giovani generazioni. Le più recenti rilevazioni internazionali (Ofcom, Common Sense Media, Eurostat) confermano che l’uso di questi strumenti digitali è in costante aumento e destinato a crescere ulteriormente nei prossimi anni. In occasione del Safer Internet Day 2026, Telefono Azzurro ha organizzato presso l’Università Bocconi di Milano la giornata “Crescere con l’Intelligenza Artificiale: scelte consapevoli in un mondo connesso”, realizzata con il patrocinio del Senato della Repubblica, della Camera dei Deputati, di AgID, di AGCOM, di GPDP, dell’Università Bocconi e di Generazioni Connesse. L’obiettivo: approfondire uno dei temi più urgenti del nostro tempo: l’impatto dell’Intelligenza Artificiale sulla crescita e sulla salute mentale di bambini e adolescenti.
Un contesto già fragile: i dati sulla salute mentale giovanile
Il quadro della salute mentale in età evolutiva appare già critico. Secondo l’Organizzazione Mondiale della Sanità, circa 1 adolescente su 7 (14%) tra i 10 e i 19 anni sperimenta un disagio psichico, spesso non riconosciuto né trattato. Ansia, depressione, solitudine e isolamento sociale rappresentano le problematiche più diffuse. Preoccupa in particolare il dato sulla solitudine: 1 adolescente su 5 dichiara di sentirsi solo, con percentuali più elevate tra le ragazze. Studi recenti evidenziano inoltre una correlazione tra uso problematico dei social network e sintomi ansiosi e depressivi, alimentati dal confronto sociale, dalla paura di esclusione e da sentimenti di inadeguatezza.
Chatbot AI: diffusione elevata tra i giovani
In questo contesto, l’uso dei chatbot basati su Intelligenza Artificiale è ormai una pratica diffusa anche in Italia. Secondo i dati dell’indagine promossa da Telefono Azzurro in collaborazione con Ipsos Doxa su ragazzi tra i 12 e i 18 anni, nel 2025 il 35% dichiara di utilizzare strumenti di IA (come ChatGPT) tra le attività online svolte più frequentemente. La conoscenza dei chatbot IA è molto elevata: il 74% del campione afferma di conoscerli e, dopo una breve spiegazione, il 75% dichiara di utilizzarli. L’uso aumenta con l’età ed è leggermente più diffuso tra i ragazzi rispetto alle ragazze. ChatGPT risulta il chatbot più utilizzato (83%), seguito da Gemini (36%), Meta AI (27%) e Microsoft Copilot (7%).
Dallo studio al supporto personale
L’impiego principale dei chatbot resta legato allo studio, ai compiti e alla ricerca, ma emerge anche un utilizzo a fini personali. Il 14% dei ragazzi dichiara di rivolgersi spesso a un chatbot per ricevere consigli personali, mentre il 34% lo ha fatto almeno qualche volta. Il livello medio di fiducia attribuito a questi strumenti è pari a 6,6 su una scala da 1 a 10, con il 58% dei rispondenti che assegna un punteggio superiore a 7, segnalando un rapporto di fiducia elevato e potenzialmente critico. I ragazzi attribuiscono ai chatbot un certo grado di “umanità”: il livello medio di antropomorfismo è 3,2 su 5. Sebbene il 38% dichiari di non aver mai instaurato interazioni personali, tra chi lo ha fatto emergono motivazioni legate alla curiosità (36%), alla qualità dei consigli (23%), al sentirsi non giudicati (15%) o meno soli (10%). Una minoranza significativa (7%) afferma di non avere altre persone di riferimento.
Emozioni, benefici percepiti e rischi
Dal punto di vista emotivo, l’interazione con i chatbot suscita prevalentemente curiosità e divertimento, ma il 23% dei ragazzi dichiara di essersi sentito non giudicato e il 16% meno solo. Solo il 9% riferisce un’esperienza insoddisfacente. Accanto ai benefici percepiti, emergono chiaramente anche i rischi. Il 40% dei ragazzi segnala una possibile riduzione del pensiero critico, il 35% una diminuzione delle relazioni sociali reali, il 33% il rischio di confondere realtà e finzione, il 25% la possibilità di sviluppare dipendenza, il 20% la diffusione di informazioni errate e il 19% rischi per la privacy. Solo il 10% ritiene che non vi siano effetti negativi.
“I dati ci dicono con chiarezza che i chatbot basati su Intelligenza Artificiale sono ormai entrati nella quotidianità degli adolescenti” – sottolinea Ernesto Caffo, Presidente di Telefono Azzurro. “Parliamo di strumenti che offrono potenzialità significative, ma che espongono anche a rischi concreti, in particolare sul piano della salute mentale, soprattutto per i bambini e i ragazzi più vulnerabili. L’Intelligenza Artificiale non è né buona né cattiva in sé, ma indubbiamente è uno strumento potente. Senza regole, competenze e responsabilità condivise può diventare dannosa. Con una governance capace di mettere al centro il benessere di bambini e adolescenti e uno sviluppo guidato dall’etica, può invece rappresentare un fattore di inclusione, benessere e opportunità”.
INTELLIGENZA ARTIFICIALE: 2 RAGAZZI SU 3 LA CONSIDERANO ALLO STESSO TEMPO UN’OPPORTUNITA’ E UN RISCHIO
TELEFONO AZZURRO CHIEDE UN PATTO ETICO SULL’AI PER UNA PROGETTAZIONE CHILD-FRIENDLY
COMUNICATO STAMPA
Roma, 10 febbraio 2026 – L’Intelligenza Artificiale rappresenta una delle trasformazioni più profonde e pervasive del nostro tempo, con un impatto crescente sulla vita quotidiana di bambini e adolescenti. Comunicazione, apprendimento, informazione e relazioni sociali sono sempre più mediati da sistemi digitali che, per le nuove generazioni, non costituiscono uno spazio separato, ma si intrecciano con i processi di crescita, costruzione dell’identità e sviluppo emotivo. Telefono Azzurro richiama l’urgenza di una responsabilità etica rafforzata nell’adozione e nello sviluppo dei sistemi di Intelligenza Artificiale, affinché la tutela dei più piccoli non sia limitata a misure difensive o regolatorie, ma diventi un principio guida della progettazione tecnologica.
È questo l’appello che la Fondazione ha lanciato in occasione del Safer Internet Day 2026, con l’iniziativa dal titolo “Crescere con l’Intelligenza Artificiale: scelte consapevoli in un mondo connesso” che ha offerto un dibatto costruttivo rispetto a uno dei temi più urgenti del nostro tempo: l’impatto dell’Intelligenza Artificiale sulla crescita di bambini e adolescenti e la necessità dirafforzare le misure legislative per il loro ascolto e la loro protezione online. L’evento è stato anche un’occasione importante per presentare le attività diTrusted Flagger, ruolo riconosciuto a Telefono Azzurro da AGCOM nell’ambito del Digital Services Act e che rappresenta uno strumento operativo in più a tutela dei minori, rendendo più efficace l’azione di prevenzione. Da 38 anni, infatti, la Fondazione opera ininterrottamente, 24 ore su 24, attraverso servizi di ascolto ed emergenza come il 19696, offrendo accoglienza e supporto a centinaia di bambini e adolescenti coinvolti in episodi di violenza tra pari. Recentemente, Telefono Azzurro ha affiancato all’intervento umano l’utilizzo di chatbot e sistemi di Intelligenza Artificiale per supportare bambini e adolescenti nella richiesta di aiuto. Tra questi, il VoiceBOT, progettato per ottimizzare la gestione delle chiamate e supportare le prime valutazioni dei casi, consente di migliorare l’efficienza complessiva dei servizi e permettere agli operatori di concentrare le risorse sui casi più critici, con valutazioni iniziali più rapide.
Oggi, ciò che desta maggiore preoccupazione non è soltanto l’aumento dei casi, ma la profondità dell’impattoche questi fenomeni hanno sulle vittime. Un cambiamento che si intreccia con la crescente centralità della dimensione digitale e, più recentemente, con la diffusione dell’intelligenza artificiale generativa, che ha amplificato la produzione e la circolazione di contenuti violenti, umilianti o denigratori, rendendo possibili anche nuove forme di abuso come i deepfake.
“Non basta limitare l’accesso o introdurre vincoli tecnici ai dispositivi digitali” – sottolinea il Presidente di Telefono Azzurro Ernesto Caffo – “È fondamentale ripensare radicalmente il modo in cui l’IA viene progettata, implementata e governata, mettendo al centro la dignità, il benessere e la salute mentale di bambini e adolescenti. Telefono Azzurro invita tutte le istituzioni, le aziende e la società civile a governare in maniera responsabile questo rapporto, senza imporre divieti, ma guidando l’uso dello strumento. Solo un approccio collettivo e attento alla salute mentale può garantire che l’IA diventi davvero uno strumento a misura di ragazzo”.
Secondo i dati dell’indagine promossa da Telefono Azzurro e realizzata in collaborazione con Ipsos-Doxal’Intelligenza Artificiale viene percepita dai giovani in modo ambivalente: 2 ragazzi su 3 la considerano allo stesso tempo un’opportunità e un rischio. Una consapevolezza che riflette un approccio tutt’altro che superficiale alle nuove tecnologie, ma che mette in luce anche preoccupazioni diffuse e concrete.
Tra i principali rischi segnalati, il 41% dei ragazzi teme unariduzione della creatività, mentre il 40% esprime forte preoccupazione per la diffusione di deepfake e immagini false. Seguono il timore legato alla circolazione di notizie false (39%), la possibilità di sviluppare forme di dipendenza (28%), l’esposizione a contenuti non adeguati all’età (24%), la perdita di privacy (22%) e l’utilizzo dei dati personali per finalità commerciali(17%).
Particolarmente allarmante è il dato secondo cui un ragazzo su quattro teme che qualcuno possa creare contenuti falsi su di lui. Di fronte a questa eventualità, quasi la metà degli intervistati (49%) dichiara che si sentirebbe molto preoccupato, mentre il 39% si dice profondamente infastidito. Solo una minoranza reagirebbe minimizzando l’accaduto: il 5% lo considererebbe uno scherzo, mentre il 7% ammette di non sapere come reagire.
La fotografia scattata dall’indagine trova conferma dai dati internazionali più recenti che mettono in luce anche un crescente utilizzo degli strumenti e app che usano l’AI. Negli Stati Uniti, l’indagine “Teens & AI Companions” di Common Sense Media (2025) evidenzia come il 72% degli adolescenti tra i 13 e i 17 anni abbia utilizzato un AI companion almeno una volta, il 52% in modo regolare e il 13% quotidianamente. Un terzo dichiara di usarli per interazioni sociali o emotive, mentre il 24% ha condiviso dati personali con il sistema e il 34% ha vissuto episodi di disagio.
Le tematiche affrontate nel corso dell’iniziativa di oggi saranno approfondite ulteriormente in occasione dellaGlobal Scientific Conference on 21st Century Child Abuse, l’importante appuntamento internazionale annunciato da Telefono Azzurro, in programma dall’8 al 10 giugno a Roma presso il Pontificio Istituto Patristico Augustinianum, che riunirà esperti, ricercatori e professionisti da tutto il mondo per confrontarsi, condividere evidenze scientifiche e sviluppare strategie collaborative per la tutela dei più piccoli in una società sempre più interconnessa.
L’uso dell’intelligenza artificiale nei compiti scolastici influisce negativamente sull’apprendimento
Il 68% dei docenti italiani concorda sul fatto che le risorse didattiche tradizionali garantiscono l’acquisizione delle competenze di base in materia di alfabetizzazione e calcolo. Il confronto con i dati europei.
Cinisello Balsamo, 9 febbraio 2026 – Una nuova ricerca condotta in Europa e commissionata da Epson mostra che il 68% degli insegnanti italiani (74% in Europa) ritiene che l’uso dell’IA da parte degli studenti per svolgere i compiti scolastici abbia un effetto negativo sull’apprendimento.
Stando ai dati, il 79% dei docenti italiani (75% in Europa) ha notato che gli studenti utilizzano strumenti di IA per svolgere i compiti scolastici e quelli assegnati a casa, il 58% (60% in Europa) precisa che l’uso dell’IA per completare i compiti permette agli studenti di aggirare loro livello di istruzione, e il 72% (73% in Europa) esprime preoccupazione per il fatto che un eccessivo affidamento all’IA sta riducendo la capacità degli studenti di individuare le informazioni false e di pensare in modo critico. Non solo: il 52% (il 54% in Europa) afferma che tutto questo sta portando a risultati scolastici peggiori, poiché senza l’IA gli studenti hanno difficoltà a ottenere buoni risultati.
La tecnologia non va abbandonata, ma è necessario creare una buona base con i sistemi tradizionali
È importante sottolineare che gli insegnanti non chiedono l’abbandono della tecnologia, ma sostengono che prima di tutto devono esserci le basi: il 64% (61% il dato europeo) desidera infatti una maggiore attenzione alle risorse tradizionali, come fogli di lavoro e libri di testo, poiché per il 68% (74%) queste risorse rimangono essenziali per garantire il consolidamento delle basi dell’alfabetizzazione e della matematica.
La ricerca ha anche rilevato che il 46% degli insegnanti italiani (il 60% di quelli europei) ritiene che gli studenti imparino meglio sulla carta che sugli schermi, mentre il 66% (stesso dato europeo) sostiene che i metodi tradizionali forniscono le basi per l’apprendimento permanente. Gli esperti accademici condividono questa opinione; in particolare, la dottoressa Lili Yu della Scuola di Scienze Psicologiche dell’Università Macquarie in Australia afferma: “La comprensione diminuisce quando utilizziamo uno schermo per leggere testi ricchi di informazioni, come un libro di testo”.
“Ecco perché – afferma Fabio Girotto di Epson Europa – gli strumenti pratici sono importanti: le stampanti nelle scuole aiutano a garantire che gli studenti possano ancora accedere e interagire con i materiali cartacei che rafforzano queste basi.”
Il 69% degli insegnanti italiani (54% in Europa) concorda con l’opinione di Girotto, specificando che le stampanti sono fondamentali per l’istruzione, in quanto permettono agli studenti di apprendere dai materiali tradizionali. Tuttavia, il 40% in Italia (quasi un terzo in Europa) dichiara di non disporre di un numero sufficiente di stampanti nella propria scuola per fornire risorse cartacee ogni volta che sono necessarie, mentre un ulteriore 55% (68% in Europa) concorda sul fatto che le istituzioni dovrebbero tenere conto delle stampanti quando prendono decisioni su come migliorare i risultati scolastici.
Serve un equilibrio accurato tra le tecnologie digitali e quelle tradizionali
Tornando ai dati sull’intelligenza artificiale, per l’82% degli insegnanti italiani (il 78% in Europa) questa tecnologia ha un ruolo importante da svolgere nell’istruzione, ma deve essere utilizzata con cautela; pertanto, l’87% (88% in Europa) afferma che è necessario trovare un equilibrio tra didattica digitale e tradizionale.
“L’intelligenza artificiale – continua Girotto – sta indubbiamente cambiando il mondo. Per trarne il massimo vantaggio in futuro, gli studenti a scuola devono utilizzarla con attenzione: prima di tutto è necessario concentrarsi sull’acquisizione delle nozioni di base con i metodi di insegnamento tradizionali. In breve, per creare una forza lavoro pronta all’intelligenza artificiale, capace di pensare in modo critico e di saperla utilizzare responsabilmente, dobbiamo poter costruire delle solide fondamenta, che si creano più facilmente con carta e penna in classe.”
Informazioni sulla ricerca
La ricerca è stata commissionata da Epson Europa : il lavoro sul campo è stato condotto tramite la piattaforma tecnologica proprietaria di Focaldata, collegata tramite API a una rete di panel online. Nell’autunno 2025 sono stati intervistati in totale 1.624 insegnanti di diversi tipi di scuole e materie, sia dell’istruzione primaria sia secondaria, in Francia, Germania, Italia, Paesi Bassi, Polonia, Portogallo, Spagna e Regno Unito.Gruppo EpsonEpson è leader mondiale nel settore tecnologico e si impegna a cooperare per generare sostenibilità e per contribuire in modo positivo alle comunità facendo leva sulle proprie tecnologie efficienti, compatte e di precisione e sulle tecnologie digitali per mettere in contatto persone, cose e informazioni. L’azienda si concentra sullo sviluppo di soluzioni utili alla società attraverso innovazioni nella stampa a casa e in ufficio, nella stampa commerciale e industriale, nella produzione, nella grafica e nello stile di vita. Epson ha l‘obiettivo di diventare carbon-negative ed eliminare l’uso di risorse naturali esauribili, come petrolio e metallo, entro il 2050. Guidato da Seiko Epson Corporation con sede in Giappone, il Gruppo Epson genera un fatturato annuo di circa 1.000 miliardi di Yen. https://corporate.epson/en/Environmental Vision 2050 http://eco.epson.com/
Mi piace:
Mi piace Caricamento...
Devi effettuare l'accesso per postare un commento.