A modo de potenciar la importancia en torno a la salud mental en los más jóvenes, Instagram comenzará a notificar a los padres cuando sus hijos adolescentes busquen de manera insistente contenidos vinculados con el suicidio o la autolesión. El anuncio de Meta, propietaria de la plataforma, llega en un contexto de creciente presión judicial y regulatoria sobre el uso que los menores hacen de las redes sociales y el eventual impacto en su salud.
Las alertas se activarán cuando un adolescente realice múltiples búsquedas de términos asociados a esas temáticas en un periodo corto de tiempo. Es la primera vez que la compañía opta por advertir de manera proactiva a las familias sobre los hábitos de búsqueda de sus hijos.
En una primera etapa, la medida se implementará en Estados Unidos, Reino Unido, Australia y Canadá para usuarios inscriptos en el programa de supervisión parental y en la experiencia de Cuentas Adolescentes. Más adelante se extenderá al resto del mundo. Los padres recibirán notificaciones por correo electrónico, mensaje de texto, WhatsApp o dentro de la propia aplicación, junto con recursos elaborados por especialistas para orientar conversaciones sensibles.
“Pecar de cautelosa”:
Meta explicó que definió el umbral de activación tras consultar a su Grupo Asesor de Suicidio y Autolesiones, y que prefirió “pecar de cautelosa”, incluso si eso implica que algunas alertas se envíen sin que exista un riesgo real. El objetivo, señaló en una entrada de blog, es “empoderar a los padres para intervenir si las búsquedas sugieren que sus hijos podrían necesitar apoyo”, evitando al mismo tiempo la sobreexposición a notificaciones que pierdan efectividad.
La decisión, sin embargo, fue recibida con escepticismo por organizaciones de prevención del suicidio. La Molly Rose Foundation --creada por la familia de Molly Russell, la adolescente británica que se quitó la vida en 2017 tras exponerse a contenidos de autolesión en redes-- advirtió que las “divulgaciones forzadas” podrían generar pánico en los padres y no necesariamente proteger mejor a los jóvenes. Su director ejecutivo, Andy Burrows, sostuvo que la medida desplaza la responsabilidad hacia las familias en lugar de abordar el diseño y los algoritmos que recomiendan material dañino.
En la misma línea, la organización Papyrus Prevention of Young Suicide y la ONG 5Rights señalaron que el problema de fondo no es solo la búsqueda activa de contenidos, sino la recomendación automática de publicaciones vinculadas a depresión o autolesiones a usuarios vulnerables. Meta rechazó investigaciones previas que sostienen que Instagram continúa promoviendo ese tipo de material y afirmó que los informes “tergiversan” sus esfuerzos de protección.
Tiempos delicados para la empresa:
El anuncio coincide con un momento delicado para la compañía. En California, un jurado analiza si las plataformas de Meta y otras empresas tecnológicas diseñaron deliberadamente sistemas adictivos para menores. En otro proceso en Nuevo México se evalúa si la empresa falló en proteger a niños de la explotación sexual. Miles de familias y distritos escolares en Estados Unidos iniciaron demandas colectivas por supuestos daños psicológicos asociados al uso intensivo de redes sociales.
Durante su declaración en uno de esos juicios, el director ejecutivo Mark Zuckerberg negó que exista evidencia científica concluyente que pruebe que las redes sociales causan por sí mismas trastornos de salud mental. No obstante, el escrutinio público se intensifica. Gobiernos de distintos países avanzan con regulaciones más estrictas: Australia prohibió el acceso a redes a menores de 16 años, mientras que Francia, España y el Reino Unido evalúan medidas similares.
Instagram adelantó además que trabaja en notificaciones equivalentes cuando adolescentes intenten mantener conversaciones sobre suicidio o autolesión con su chatbot de inteligencia artificial, reconociendo que cada vez más jóvenes recurren a estas herramientas en busca de apoyo.
El debate de fondo excede a una funcionalidad técnica. Para expertos en ciberacoso y salud digital, la efectividad de la medida dependerá no solo de la alerta, sino de la calidad de la información que la acompañe y de la capacidad real de las plataformas para limitar la circulación y amplificación de contenidos dañinos. En ese equilibrio entre supervisión, privacidad y prevención se juega una nueva etapa del vínculo entre redes sociales, adolescentes y responsabilidad corporativa.