“Effetto tana di coniglio”, perché Meta è nel mirino dalla Commissione Ue

Già negli scorsi giorni, Meta ha subito l’avvio di un altro procedimento ma relativo alla disinformazione politica in vista delle elezioni europee
1 mese fa
2 minuti di lettura
Tastiera Social
Tastiera Social

Meta ancora nel mirino della Commissione europea. Questa volta, il colosso tech è accusato di creare un “effetto tana di coniglio” nei confronti dei minori. Ieri, infatti, la Commissione ha avviato un procedimento formale per valutare se Meta, il fornitore di Facebook e Instagram, possa aver violato la legge sui servizi digitali (DSA) in ambiti legati alla protezione di questa fascia di popolazione. Ma capiamo meglio cos’è questo effetto.

“Dipendenza dai social”

Non è la prima volta che la Commissione mostra il proprio timore nei confronti di Facebook e Instagram, compresi i loro algoritmi. La preoccupazione è quella che questi strumenti possano stimolare dipendenze comportamentali nei bambini. Inoltre, la Commissione è preoccupata anche per i metodi di assicurazione e di verifica dell’età messi in atto da Meta.

Per questo motivo, ieri, è stata avviata un’analisi preliminare del rapporto di valutazione del rischio inviato da Meta nel settembre 2023, sulle risposte del privato alle richieste formali di informazioni della Commissione in relazione alla tutela dei minori.

I procedimenti attuali riguardano le seguenti aree:

  1. Il rispetto da parte di Meta degli obblighi sui servizi digitali e sulla valutazione e mitigazione dei rischi causati dalla progettazione delle interfacce online di Facebook e Instagram, che potrebbero sfruttare i punti deboli e l’inesperienza dei minori e causare comportamenti di dipendenza, e/o rafforzare il cosiddetto effetto ‘tana del coniglio’. “Tale valutazione è necessaria per contrastare i rischi potenziali per l’esercizio del diritto fondamentale al benessere fisico e mentale dei minori, nonché al rispetto dei loro diritti”, scrive la Commissione.
  2. Conformità di Meta ai requisiti DSA in relazione alle misure di mitigazione per impedire l’accesso da parte di minori a contenuti inappropriati, in particolare strumenti di verifica dell’età utilizzati da Meta, che potrebbero non essere ragionevoli, proporzionati ed efficaci.
  3. Conformità di Meta agli obblighi DSA di mettere in atto misure adeguate e proporzionate per garantire un elevato livello di privacy, sicurezza e protezione per i minori, in particolare per quanto riguarda le impostazioni predefinite sulla privacy per i minori come parte della progettazione e del funzionamento dei loro sistemi di raccomandazione.

Se dimostrate, tali inadempienze costituirebbero delle violazioni alle quali seguirebbe un procedimento formale che non ne pregiudica l’esito e non pregiudica qualsiasi altro procedimento che la Commissione possa decidere di avviare su qualsiasi altra condotta che possa costituire una violazione ai sensi della DSA.

Cosa accadrà?

La Commissione effettuerà ora un’indagine approfondita. Raccoglierà le dovute prove, ad esempio inviando ulteriori richieste di informazioni, conducendo interviste o ispezioni. Facebook e Instagram sono stati designati come Very Large Online Platforms nel 2023 ai sensi della legge sui servizi digitali dell’UE, poiché entrambi hanno più di 45 milioni di utenti attivi mensili appartenenti agli Stati membri.

Il 30 aprile 2024 la Commissione aveva già avviato un procedimento formale contro Meta, in relazione sia a Facebook che a Instagram, sulla pubblicità ingannevole, sui contenuti politici, sui meccanismi di notifica e di azione, sull’accesso ai dati da parte dei ricercatori e sulla mancata disponibilità di un servizio efficace di discorso civico in tempo reale da parte di terzi e strumento di monitoraggio elettorale in vista delle elezioni del Parlamento europeo.