Una nueva función diseñada para difuminar las fotos de desnudos enviadas a adolescentes en mensajes privados de Instagram está siendo atacada incluso antes de su puesta en marcha.
La función, que Meta Platforms Inc. tiene previsto empezar a probar el mes que viene, pretende disuadir de los delitos de sextorsión en línea, que han provocado más de dos docenas de suicidios de adolescentes en los dos últimos años. Pero los usuarios pueden anularla: Un toque en la imagen borrosa y todo queda al descubierto.
“Esto es demasiado poco y demasiado tarde y, francamente, no hace nada por proteger a los niños”, afirma Lina Nealon, vicepresidenta y directora de iniciativas estratégicas corporativas del National Center on Sexual Exploitation, una organización contra la pornografía. Esa imagen desnuda sigue estando “a un simple clic de distancia”, afirmó.
Arturo Bejar, que pasó seis años trabajando en herramientas de seguridad infantil en Meta, calificó la nueva función de “lamentablemente insuficiente.” Bejar renunció en 2021 tras advertir a los ejecutivos de que los adolescentes, incluida su propia hija, estaban recibiendo demasiadas insinuaciones sexuales no deseadas en la plataforma. En una comparecencia ante el Senado en noviembre, declaró que la empresa no estaba haciendo lo suficiente para evitar daños a sus usuarios más jóvenes.