Una investigación determina que las herramientas de moderación de Facebook e Instagram fueron “demasiado lejos” al eliminar contenido de la guerra de Israel con Hamás

20 diciembre, 2023 , , ,
Foto ilustrativa del cono de la aplicación Facebook en la pantalla de un spartphone. Foto: Yuri Samoilov/CC BY 2.0, via Wikimedia Commons.Foto ilustrativa del cono de la aplicación Facebook en la pantalla de un spartphone. Foto: Yuri Samoilov/CC BY 2.0, via Wikimedia Commons.

Desde el ataque de Hamás sobre Israel el 7 de octubre, comenzaron a circular en las redes sociales miles de publicaciones, en muchos casos con imágenes y videos, del ataque y la consecuente escalada del conflicto. 

Hoy en día, las redes sociales tienen políticas de moderación automática del contenido, para evitar la difusión de contenido ofensivo o que viole las políticas de convivencia de los sitios. Sin embargo, ante eventos de la magnitud del ataque de Hamás, este tipo de políticas automatizadas corren el riesgo de eliminar contenido educativo, o que aporte información sobre una situación relevante.

Esto sucedió en Facebook. La red social eliminó dos publicaciones, una que era un video que mostraba el secuestro de una mujer durante el 7 de octubre, y otro que mostraba las consecuencias de un ataque en Gaza, cerca del hospital Al-Shifa.

A partir de esto, la empresa Meta, dueña de ambas redes sociales, resolvió formar un panel de supervisión independiente para analizar estos casos. Este martes, esa Junta de Supervisión de Meta informó públicamente que consideraba que se utilizaron las “herramientas automatizadas de manera más agresiva para eliminar contenido que pudiera violar sus políticas”.

Además, en el comunicado se explicó que “si bien esto redujo la probabilidad de que Meta no eliminara contenido infractor que de otro modo podría evadir la detección o donde la capacidad de revisión humana era limitada, también aumentó la probabilidad de que Meta eliminara por error contenido no infractor relacionado con el conflicto”.

Además, la junta informó que, hasta la semana pasada, aún no se habían restablecido los «umbrales de confianza» a los niveles previos al 7 de octubre. Como consecuencia, el riesgo de eliminación inapropiada de contenido sigue siendo mayor que antes del ataque.

Es por esto que le pidió a la empresa que trabaje en el perfeccionamiento de su sistema de moderación de contenido.

Compartir
One thought on “Una investigación determina que las herramientas de moderación de Facebook e Instagram fueron “demasiado lejos” al eliminar contenido de la guerra de Israel con Hamás”

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.