
Instagram rafforza la sicurezza nei DM degli adolescenti
Instagram, sotto la gestione di Meta, ha introdotto nel 2025 una serie di misure potenziate per migliorare la sicurezza dei messaggi diretti (DM), soprattutto per adolescenti e minori. Le nuove regole mirano a bloccare abusi, adescamento e contenuti inappropriati tramite un sistema multilivello che include filtri automatici, blocchi personalizzati e segnalazioni semplificate. Inoltre, per gli account di bambini gestiti da adulti sono state introdotte restrizioni aggiuntive con l’obiettivo di prevenire interazioni indesiderate e garantire un ambiente protetto. L’iniziativa si avvale dell’intelligenza artificiale per inviare consigli personalizzati ai giovani utenti, aiutandoli a riconoscere segnali di pericolo e a difendersi efficacemente. Fonti ufficiali riportano la rimozione quasi 135.000 account per commenti sessualmente espliciti in un anno, e il 99% degli adolescenti preferisce mantenere attive le funzioni di filtro delle immagini di nudo, confermando l’efficacia degli strumenti implementati. Meta coordina inoltre collaborazioni con ONG e autorità per integrare costantemente aggiornamenti e contenuti educativi. Nonostante il consenso diffuso, permangono dibattiti sul bilanciamento tra sicurezza e privacy, con critiche relative al rischio di limitare la libertà di espressione o incentivare contromisure non controllate dagli adolescenti. In sintesi, le nuove funzionalità rappresentano un passo significativo verso un ambiente digitale più sicuro e responsabile, auspicando un futuro di socialità protetta e consapevole nei social network.