Von der Leyen: “I bambini non sono piccoli adulti”, l’Ue studia nuove tutele su AI e social

Dal summit di Copenhagen alle conclusioni del Consiglio sull’AI a scuola, Bruxelles mette insieme regole, piattaforme e alfabetizzazione digitale
2 ore fa
4 minuti di lettura
DENMARK EU CONFERENCE AI
La presidente della Commissione europea Ursula von der Leyen interviene al vertice europeo su intelligenza artificiale e minori (Afp)

“I bambini non sono merci e nessuna azienda tecnologica al mondo dovrebbe poterli trattare come tali”. Ursula von der Leyen sceglie Copenhagen per portare il dibattito europeo sull’intelligenza artificiale fuori dal lessico tecnico e dentro una questione più semplice da capire, ma più difficile da regolare: che cosa succede quando l’ambiente in cui crescono bambini e adolescenti è progettato per catturare attenzione, dati e fragilità.

Al vertice europeo su intelligenza artificiale e minori, la presidente della Commissione europea parla di tecnologia senza nostalgia analogica. Riconosce “le straordinarie opportunità” della rivoluzione digitale: accesso alla conoscenza, creatività, scambio, sostegno, senso di appartenenza. Ma il punto del discorso è un altro. I bambini, avverte, “non sono piccoli adulti”. La loro vulnerabilità psicologica è diversa, la loro resilienza è ancora in formazione, le ferite prodotte online possono accompagnarli a lungo.

Per anni il dibattito pubblico ha girato intorno a una domanda familiare: quante ore davanti allo schermo sono troppe. A Copenhagen, von der Leyen sposta l’asse. Non basta più misurare il tempo, controllare il telefono, invitare i genitori alla prudenza. Bisogna chiedersi chi disegna quello spazio, con quali incentivi e a quale prezzo.

“La domanda non è se i giovani debbano avere accesso ai social media. La domanda è se i social media debbano avere accesso ai giovani”, dice la presidente della Commissione. È una formula che riassume il nuovo approccio di Bruxelles: meno responsabilità scaricata sui minori e sulle famiglie, più obblighi per le piattaforme.

Non solo schermi

Nel discorso di Copenhagen, il problema non è lo smartphone in sé. È l’insieme di meccanismi che accompagnano bambini e adolescenti dentro una presenza digitale continua: like, condivisioni, notifiche, scroll infinito, autoplay, raccomandazioni, pubblicità personalizzata. “Giudizio costante, confronto costante e paura costante di non essere abbastanza”, dice von der Leyen, descrivendo la pressione che i social possono esercitare su chi sta ancora costruendo identità e autostima.

La presidente della Commissione cita conseguenze ormai entrate nel vocabolario della sicurezza online: privazione del sonno, ansia, depressione, cyberbullismo, grooming, sfruttamento, autolesionismo. E aggiunge che con il rapido avanzare dell’intelligenza artificiale “questi rischi si stanno moltiplicando velocemente”.

L’Ai, in questa cornice, non è un capitolo separato, è un acceleratore. Può generare immagini false, rendere credibili contenuti manipolati, amplificare materiale dannoso, creare o diffondere immagini sessualizzate senza consenso. Von der Leyen cita esplicitamente il caso di ragazze e donne le cui foto vengono usate per produrre immagini sessualizzate con l’intelligenza artificiale. E richiama anche il rischio di materiali che raffigurano abusi sessuali su minori.

Il cuore del discorso, però, è economico prima ancora che tecnologico. “Questi rischi non sono accidentali”, afferma. Sono il risultato di modelli di business che trattano l’attenzione dei bambini come una merce: più tempo online significa più ricavi. “Più attenzione, più profitto”.

Togliere alibi alle piattaforme

Bruxelles rivendica di avere già iniziato a muoversi. Von der Leyen richiama il Digital Services Act, il regolamento europeo sui servizi digitali, come lo strumento che consente alla Commissione di intervenire sui rischi sistemici delle grandi piattaforme. Cita le azioni contro TikTok per i meccanismi di design potenzialmente dipendenti, contro Meta per l’applicazione dell’età minima su Instagram e Facebook, contro X per l’uso di Grok nella creazione e diffusione di materiale illegale relativo ad abusi su minori.

“Siamo noi a decidere le nostre regole, non le aziende tecnologiche”, ha detto von der Leyen. Per la Commissione, i grandi operatori digitali non possono più presentarsi come semplici intermediari neutri quando i loro prodotti sono costruiti per orientare comportamenti e trattenere attenzione.

Da qui il principio della sicurezza fin dalla progettazione. Von der Leyen usa un’immagine semplice: “Non chiediamo ai bambini di progettare da soli le cinture di sicurezza. Non chiediamo ai genitori di installare gli airbag a casa”. Lo stesso, sostiene, deve valere per i social media e per i servizi digitali. Chi sviluppa un prodotto deve essere responsabile della sua sicurezza.

Dentro questa cornice entra anche il possibile rinvio dell’accesso ai social per i più giovani. La presidente della Commissione parla di un “social media delay” e dice che, in base al lavoro del panel europeo di esperti sulla sicurezza online dei minori, Bruxelles potrebbe arrivare a una proposta legislativa in estate. Non c’è ancora una soglia europea fissata, ma il riferimento all’Australia, che ha scelto i 16 anni, indica la direzione del dibattito.

Per rendere applicabili eventuali limiti, serve però una verifica dell’età. Von der Leyen annuncia che l’Unione ha sviluppato un’app europea, open source, compatibile con qualsiasi dispositivo e costruita con standard elevati di privacy. In Danimarca dovrebbe essere disponibile entro l’estate e l’obiettivo è integrarla nei portafogli digitali nazionali. “Niente più scuse: la tecnologia per la verifica dell’età è disponibile”, dice.

La scuola come antidoto lento

Il discorso di Copenhagen si collega anche al lavoro del Consiglio Ue sull’intelligenza artificiale nell’istruzione. Mentre la Commissione guarda alle piattaforme e alle regole, i ministri europei dell’Istruzione insistono su formazione degli insegnanti, alfabetizzazione digitale e uso dell’Ai con finalità pedagogiche chiare.

Von der Leyen chiude il cerchio parlando di competenze. Bambini e adolescenti devono imparare “la logica dei social media”, devono sapere come proteggersi dagli effetti negativi e come usare quelli positivi. Devono riconoscere fonti, notizie false, immagini generate dall’Ai. Il principio, dice, è “pensare criticamente prima di cliccare”.

È la parte meno immediata della strategia europea, ma anche quella che può durare di più. Un limite d’età può ridurre l’accesso, una verifica può rendere più difficile aggirare le regole, il Digital Services Act può costringere le piattaforme a correggere i propri sistemi. Ma in un ambiente digitale popolato da algoritmi e contenuti sintetici, la protezione passa anche dalla capacità di capire.

Per questo il vertice di Copenhagen racconta un cambio di scala. La sicurezza online dei minori non viene più presentata solo come una questione familiare, né come un capitolo tecnico della regolazione digitale. Diventa un terreno di politica europea: regole per le aziende, strumenti comuni, responsabilità nella progettazione e scuola come luogo in cui costruire autonomia.

“Diamo ai bambini più tempo per diventare resilienti”, dice von der Leyen. Tempo per giocare con amici reali, sviluppare idee proprie, distinguere realtà e falsificazione. In fondo, il punto politico del discorso è tutto qui: portare nel mondo digitale le stesse garanzie che l’Europa rivendica per l’infanzia offline.

Gli ultimi articoli