Instagram anunció que a partir de “la próxima semana” comenzará a notificar a los padres cuando sus hijos adolescentes realicen búsquedas repetidas de términos relacionados con suicidio o autolesión en su plataforma. La compañía matriz Meta dio a conocer la medida este jueves 26 de febrero de 2026 a través de un comunicado oficial.
La nueva funcionalidad se activará exclusivamente para los padres que utilizan las herramientas de supervisión parental de la red social en Estados Unidos, Reino Unido, Australia y Canadá, y estará disponible en otras regiones “a finales de este año”.
Contenido
¿Cómo funcionarán las alertas?
Las notificaciones se activarán cuando un adolescente intente buscar repetidamente “frases que sugieran que quiere autolesionarse”, así como términos específicos como “suicidio” o “autolesión” en un corto período de tiempo.
Los padres recibirán los avisos a través de correo electrónico, mensajes de texto (SMS) o WhatsApp, según la información de contacto que tengan registrada, además de una notificación directa en la aplicación de Instagram.

“Al hacer clic en la notificación, se abrirá un mensaje a pantalla completa explicando que su hijo adolescente ha intentado buscar repetidamente en Instagram términos relacionados con el suicidio o la autolesión en un corto período de tiempo”, detalló Meta en su comunicado.
La compañía agregó que los padres también tendrán la opción de consultar “recursos de expertos diseñados para ayudarles a abordar conversaciones potencialmente delicadas”.
Contexto de presión judicial
La implementación de estas nuevas herramientas de supervisión parental ocurre en medio de un incremento de la presión judicial contra Meta. La compañía enfrenta actualmente dos juicios en Estados Unidos relacionados con el impacto de sus plataformas en la salud mental de los menores.
Un juicio en Los Ángeles cuestiona si las plataformas de Meta están “deliberadamente diseñadas para ser adictivas y dañar a los menores”, mientras que otro en Nuevo México busca determinar si la compañía no protegió adecuadamente a los niños de la explotación sexual en sus redes.
Miles de familias, junto con distritos escolares y entidades gubernamentales, han demandado a Meta y otras empresas de redes sociales, alegando que diseñan intencionalmente sus plataformas para ser adictivas y no protegen a los menores de contenido que puede provocar depresión, trastornos alimenticios y suicidio.
El consejero delegado de Meta, Mark Zuckerberg, compareció la semana pasada ante el Tribunal Superior de Los Ángeles en el marco de una demanda interpuesta por una usuaria que alega haber desarrollado adicción a las plataformas durante su adolescencia.
Durante su testimonio, Zuckerberg reiteró que “el cuerpo existente de trabajo científico no ha demostrado que las redes sociales causen daños a la salud mental”.
Políticas de contenido y nuevas medidas
Meta subrayó que tiene “políticas estrictas contra el contenido que promueve o glorifica el suicidio o la autolesión”, pero permite “que las personas compartan contenido sobre sus propias dificultades”.
Este tipo de contenido se oculta “a los adolescentes, incluso si lo comparte alguien a quien siguen”.
La compañía también anunció que está desarrollando alertas parentales similares para “ciertas experiencias de inteligencia artificial (IA)”. Estas notificarán a los padres si un adolescente intenta entablar “ciertos tipos de conversaciones relacionadas con el suicidio o la autolesión con la IA”.
“Sabemos que los adolescentes recurren cada vez más a la inteligencia artificial en busca de apoyo.
Si bien nuestra IA ya está entrenada para responder de forma segura a los adolescentes y proporcionar recursos sobre estos temas según corresponda, ahora estamos creando alertas parentales similares”, explicó Meta.
La compañía señaló que compartirá más información sobre este trabajo en los “próximos meses”.
Posición frente a la verificación de edad
Durante las audiencias judiciales, Zuckerberg defendió la postura de la tecnológica de que la responsabilidad de verificar la edad de los usuarios debería recaer en los propietarios de los sistemas operativos y tiendas de aplicaciones, como Apple y Google, y no en los desarrolladores de las aplicaciones.
“Es muy difícil” mantener a los menores de 13 años fuera de las plataformas, admitió Zuckerberg, señalando que los usuarios a veces mienten sobre su edad. Para verificarla, Instagram solicita a los usuarios datos como su fecha de nacimiento, identificación con fotografía y un video.
La Comisión Federal de Comercio (FTC) anunció esta semana que no sancionará a determinados operadores que recopilen datos con el fin de desarrollar tecnologías de verificación de edad, pese a las restricciones de la Regla de Protección de la Privacidad Infantil en Línea (COPPA).
También te puede interesar: World Aquatics cancela Copa Mundial de Clavados en Zapopan por ola de violencia tras muerte de “El Mencho”






Sé el primero en comentar post