Instagram enviará alertas a padres por búsquedas sensibles de adolescentes
La red social avisará a padres si adolescentes buscan repetidamente términos sobre suicidio o autolesión en Instagram.
Instagram refuerza la seguridad de los adolescentes con una inesperada actualización.
ShutterstockMeta anunció que Instagram empezará a enviar alertas a padres cuando detecte que sus hijos adolescentes intentan buscar de forma reiterada términos vinculados al suicidio o la autolesión. La medida forma parte de las herramientas de supervisión parental dentro de la plataforma y apunta a dar aviso temprano ante posibles señales de riesgo.
La función se activará en las próximas semanas para quienes utilicen la supervisión parental en Estados Unidos, Reino Unido, Australia y Canadá. Más adelante llegará a otras regiones. Según la empresa, la gran mayoría de los adolescentes no realiza este tipo de búsquedas y, cuando lo hacen, el sistema bloquea los resultados y muestra recursos de ayuda.
Instagram y la supervisión en redes sociales
Las nuevas notificaciones se enviarán cuando un adolescente intente buscar varias veces, en un período corto, frases que promuevan el suicidio o la autolesión, o expresiones que indiquen intención de hacerse daño. Entre los términos contemplados se incluyen palabras como “suicidio” o “autolesión”.
Los padres recibirán el aviso por correo electrónico, SMS, WhatsApp o mediante una notificación dentro de la aplicación. Al abrirla, verán un mensaje en pantalla completa que explica que su hijo intentó buscar contenido asociado a esos temas. También tendrán acceso a recursos elaborados por especialistas para abordar la conversación.
Para el especialista, el cambio va en la línea de los reclamos de expertos en seguridad infantil.
Adolescente, inteligencia artificial y prevención
Meta explicó que definió un umbral específico para evitar notificaciones innecesarias. El sistema requiere varias búsquedas en poco tiempo antes de enviar el aviso. La empresa reconoce que puede haber alertas en casos donde no exista un riesgo concreto, pero sostiene que prefiere actuar con cautela.
La compañía también confirmó que trabaja en alertas similares para interacciones con su sistema de inteligencia artificial. Cada vez más adolescentes recurren a chats con IA para hablar sobre salud mental. En esos casos, la herramienta ya ofrece respuestas seguras y deriva a líneas de ayuda cuando corresponde. En el futuro, ciertas conversaciones podrán generar avisos para los padres.
Instagram mantiene políticas que prohíben contenido que promueva o glorifique el suicidio o la autolesión. Cuando detecta términos asociados, bloquea los resultados y redirige a organizaciones locales de apoyo. Además, puede contactar a servicios de emergencia si identifica un riesgo inminente.
El anuncio se da en un contexto donde las redes sociales enfrentan mayor presión regulatoria sobre la protección de adolescentes. Con estas alertas, Meta busca sumar una capa adicional de control parental sin eliminar el acceso de los jóvenes a la plataforma.



