Desde el ataque de Hamás sobre Israel el 7 de octubre, comenzaron a circular en las redes sociales miles de publicaciones, en muchos casos con imágenes y videos, del ataque y la consecuente escalada del conflicto.
Hoy en día, las redes sociales tienen políticas de moderación automática del contenido, para evitar la difusión de contenido ofensivo o que viole las políticas de convivencia de los sitios. Sin embargo, ante eventos de la magnitud del ataque de Hamás, este tipo de políticas automatizadas corren el riesgo de eliminar contenido educativo, o que aporte información sobre una situación relevante.
Esto sucedió en Facebook. La red social eliminó dos publicaciones, una que era un video que mostraba el secuestro de una mujer durante el 7 de octubre, y otro que mostraba las consecuencias de un ataque en Gaza, cerca del hospital Al-Shifa.
A partir de esto, la empresa Meta, dueña de ambas redes sociales, resolvió formar un panel de supervisión independiente para analizar estos casos. Este martes, esa Junta de Supervisión de Meta informó públicamente que consideraba que se utilizaron las “herramientas automatizadas de manera más agresiva para eliminar contenido que pudiera violar sus políticas”.
Además, en el comunicado se explicó que “si bien esto redujo la probabilidad de que Meta no eliminara contenido infractor que de otro modo podría evadir la detección o donde la capacidad de revisión humana era limitada, también aumentó la probabilidad de que Meta eliminara por error contenido no infractor relacionado con el conflicto”.
Además, la junta informó que, hasta la semana pasada, aún no se habían restablecido los «umbrales de confianza» a los niveles previos al 7 de octubre. Como consecuencia, el riesgo de eliminación inapropiada de contenido sigue siendo mayor que antes del ataque.
Es por esto que le pidió a la empresa que trabaje en el perfeccionamiento de su sistema de moderación de contenido.
Moderacion si hasta pornografia tienen