Meta por fin toma medidas para los jóvenes en Instagram y Facebook. Contenidos que incluyan autolesiones, suicidio o trastornos alimentarios quedarán limitados en estas redes sociales. Expertos consideran que no son suficientes.
Créditos: CNN, El Español, AP

Que el contenido en Internet puede llegar a ser peligroso es un hecho conocido por muchos. Por eso gobiernos de todo el mundo están obligando a la Big Tech como Google o Meta que refuercen sus sistemas de protección a los jóvenes. Meta, sin ir más lejos, ha sido la última en anunciar medidas de protección para adolescentes en Instagram y Facebook.
Cabe destacar que, aunque recién ahora anuncien medidas para cuidar por su seguridad, los menores de edad representan una gigantesca fuente de ingresos para las empresas de redes sociales. Sólo en Estados Unidos, durante 2023 obtuvieron colectivamente más de 11 mil millones de dólares en ingresos por publicidad de menores.
Para “cuidar” a los menores, y por ende también una de sus principales fuentes de ingresos antes de que aparezcan legislaciones que restrinjan su participación en redes, la empresa matriz de WhatsApp, Facebook e Instagram comenzará a ocultar ciertos tipos de contenidos dañinos en las dos principales redes sociales del grupo. Una configuración que se implementará de forma automática a todos los adolescentes de estas redes, aplicándose la configuración de control de contenido más restrictiva en estos casos.
Algunos de estos contenidos están relacionados con desórdenes alimenticios y sobre todo con el acto de autolesionarse, incluyendo el suicidio. Meta habla también de cómo los contenidos educativos referentes a estos puntos también pueden ser poco adecuados para los jóvenes, por lo que también quedarán incluidos dentro de estas restricciones.
¿Cómo funcionarán los algoritmos de Meta para controlar contenidos en menores?
La empresa de Mark Zuckerberg menciona en su comunicado que se han desarrollado más de 30 herramientas y recursos para ayudar no solo a los adolescentes de estas redes sociales, sino a los padres que gestionan el contenido que sus hijos ven en estas. También afirman consultar de forma regular a expertos en materia para proporcionar un mayor nivel de seguridad.
La propia Meta pone un ejemplo de contenido potencialmente dañino que se sale de lo más obvio, como sería un contenido que promueve el suicidio y las autolesiones. «Por ejemplo, alguien publica sobre su lucha constante contra pensamientos autolesivos. Es una historia importante que puede ayudar a desestigmatizar estos temas, pero es un tema complejo y no es necesariamente adecuado para los jóvenes».
Este tipo de contenido comenzará ser eliminado «de las experiencias de los adolescentes en Instagram y Facebook», con la idea de que estos no se recomienden en los lugares más propensos a ello, como los Reels y la pestaña Explore. «Dejaremos de mostrarlo a los adolescentes en Feed y Stories, incluso si lo comparte alguien a quien siguen».
Todo esto también se aplica a los contenidos sobre trastornos alimentarios, que en los casos más agresivos puede provocar todo tipo de problemas en este sentido (como un TCA, sin ir más lejos». Estos cambios se comenzarán a aplicar a menores de 18 años, y en los próximos meses estarán «plenamente implantados» tanto en Facebook como en Instagram.
Esta configuración de control de contenidos se aplicará automáticamente a estos adolescentes, pese a que ya se aplica a aquellos adolescentes que se registran por primera vez en estas redes sociales. La diferencia es que ahora estos cambios se amplían a los adolescentes que ya usan estas aplicaciones. Así, en palabras de Meta, será más difícil que los usuarios «encuentren contenidos o cuentas potencialmente delicados» en Explorar y Buscar.
Meta insiste en que aún con todo, se permitirá a los usuarios compartir contenidos que hablen sobre lo que ellos llaman «luchas personales» contra las autolesiones, el suicidio y los trastornos alimentarios. La cuestión es que estos contenidos ya no se recomendarán, y los esfuerzos se centrarán en que sean más difíciles de encontrar. Ahora, cuando se busquen términos relacionados con estas cuestiones, los resultados quedarán ocultos.
No solo eso; además de ocultar estos resultados, los cuadros de búsqueda añadirán accesos directos para encontrar ayuda en fuentes especializadas. «Ya ocultamos los resultados de términos de búsqueda relacionados con el suicidio y las autolesiones […] y estamos ampliando esta protección para incluir más términos». Un cambio que se irá aplicando a lo largo de las siguientes semanas.
Por último, Meta añadirá un conjunto de nuevas notificaciones que se enviarán a los adolescentes, en los que se animará a estos a «actualizar sus ajustes a una experiencia más privada». Si así lo quieren, se cambiará automáticamente su configuración para restringir «quién puede volver a publicar su contenido, etiquetarlos o mencionarlos», además de implantar otras medidas.
Aseguran que las medidas de Meta no son suficientes
El anuncio de Meta se produce cuando la compañía enfrenta demandas de docenas de estados de EE. UU. que la acusan de dañar a los jóvenes y contribuir a la crisis de salud mental juvenil al diseñar de manera consciente y deliberada funciones en Instagram y Facebook que hacen que los niños sean adictos a sus plataformas.
Los críticos dijeron que los movimientos de Meta no van lo suficientemente lejos.
«El anuncio de hoy de Meta es otro intento desesperado por evitar la regulación y una increíble bofetada a los padres que han perdido a sus hijos por daños en línea en Instagram», dijo Josh Golin, director ejecutivo del grupo de defensa de los niños en línea Fairplay.
“Si la empresa es capaz de ocultar contenidos pro suicidio y trastornos alimentarios, ¿por qué han esperado hasta 2024 para anunciar estos cambios?”