di Domenica Puleio
Non è più solo fantascienza o un gioco per esperti di coding. Oggi, 10 febbraio 2026, mentre il mondo celebra il Safer Internet Day, i dati parlano chiaro: oltre il 90% degli adolescenti interagisce quotidianamente con strumenti di Intelligenza Artificiale. Se per i “boomer” l’IA è uno strumento di lavoro, per i ragazzi è diventata un tutor, un confidente e, talvolta, un surrogato emotivo.
È finito il tempo dei filtri per i contenuti espliciti o della caccia al cyberbullo di quartiere. Oggi, la sfida che bussa alle porte delle camerette dei nostri figli ha un volto molto più amichevole e, proprio per questo, più insidioso: quello di un’intelligenza artificiale generativa che non si limita a rispondere, ma inizia a sostituire. Se fino a due anni fa l’IA era l’eccezione, oggi è l’architettura invisibile su cui poggia la quotidianità di milioni di minori, trasformando il concetto di “sicurezza in rete” da una questione di protezione dei dati a una questione di protezione dell’identità cognitiva.

Il paradosso che emerge dai dati di quest’anno è folgorante. Da un lato, l’IA ha abbattuto muri che parevano insormontabili per gli studenti con disturbi dell’apprendimento, trasformandosi in un tutor infaticabile capace di tradurre concetti astratti in mappe visive personalizzate, offrendo una forma di equità didattica mai vista prima. È l’esoscheletro del talento: permette a chi ha grandi idee, ma scarse risorse tecniche, di competere alla pari nella creazione di mondi digitali e soluzioni innovative. Eppure, proprio in questa efficienza senza attriti si nasconde il rischio più profondo: l’atrofia del pensiero critico. Quando un adolescente delega la fatica della sintesi e l’elaborazione dell’errore a un chatbot, non sta solo velocizzando i compiti; sta rinunciando a quel processo biologico di “resistenza” intellettuale che è la base della maturazione. Il rischio reale non è che l’IA dia risposte sbagliate, ma che i ragazzi smettano di porsi le domande giuste.
Sul fronte psicologico, la cronaca di questo 2026 ci consegna l’immagine di una generazione che sta trovando nei chatbot un rifugio emotivo pericolosamente accogliente. In un’età in cui il confronto con l’altro dovrebbe essere il motore della crescita, l’IA offre una relazione speculare, priva di giudizio e di conflitto. Se per un giovane in crisi questo può rappresentare un primo soccorso contro la solitudine, nel lungo periodo rischia di generare un’incapacità cronica di gestire la complessità dei rapporti umani reali, fatti di silenzi, rifiuti e compromessi. La sicurezza, oggi, significa impedire che la “bolla di compiacenza” dell’algoritmo diventi l’unico spazio in cui un minore si senta compreso, profilando nel frattempo, a ogni confidenza digitata, un’ombra digitale che lo inseguirà per i decenni a venire.

L’appello che si leva dalle piazze del Safer Internet Day non è dunque un grido di luddismo, ma un richiamo alla consapevolezza inattaccabile: l’IA è uno strumento di emancipazione straordinario, ma solo se chi lo impugna possiede ancora la bussola della propria autonomia decisionale. Proteggere i minori nel 2026 non significa staccare la spina, ma insegnare loro che la vera intelligenza non risiede nella velocità dell’output, ma nella capacità di abitare l’incertezza e la fatica del pensare. Perché un mondo in cui le risposte sono tutte pronte è un mondo in cui nessuno sente più il bisogno di immaginare qualcosa di nuovo.
@Riproduzione riservata

