6.6.23

La evidencia de crímenes de guerra que está desapareciendo de las redes sociales y puede perderse para siempre

 Pruebas de posibles violaciones a los derechos humanos están en riesgo de perderse al ser eliminadas por las empresas tecnológicas, según evidenció una investigación de la BBC.


Las plataformas sociales están eliminando videos gráficos, a menudo utilizando inteligencia artificial, sin importar que imágenes que pueden ayudar a los enjuiciamientos de los perpetradores de estos abusos puedan ser retiradas sin ser archivadas antes.

Meta y YouTube afirmaron que su objetivo es equilibrar sus obligaciones de informar y de proteger a los usuarios de contenidos nocivos.

Sin embargo, Alan Rusbridger, que forma parte del Consejo de Supervisión de Meta, aseveró que la industria está siendo "demasiado cautelosa" en su moderación.

Sin embargo, cuando se trata de moderar imágenes violentas relacionadas con guerras, los programas son incapaces de identificar lo que podrían ser violaciones de los derechos humanos.

El ejemplo más reciente

Ihor Zakharenko, antiguo periodista especializado en turismo, se topó con este problema en Ucrania. Desde la invasión rusa ha estado documentando ataques a civiles.

La BBC se reunió con él en un suburbio de Kyiv donde, hace un año, hombres, mujeres y niños murieron por disparos de las tropas rusas cuando intentaban huir de la ocupación.

El hombre filmó los cadáveres -al menos 17- y los vehículos calcinados.

Quiso colgar los vídeos en Internet para que el mundo viera lo ocurrido y contrarrestar la versión del Kremlin. Pero cuando los subió a Facebook e Instagram fueron retiradosrápidamente.

"Los propios rusos decían que eran falsos, que no habían tocado a civiles y que sólo habían luchado con el ejército ucraniano", explicó Ihor.

La BBC subió las imágenes de Zakharenko a Instagram y YouTube utilizando cuentas falsas.

Instagram retiró tres de los cuatro vídeos en menos de un minuto.

Al principio, YouTube aplicó restricciones de edad a los mismos tres, pero 10 minutos después los retiró todos.

Lo intentamos de nuevo, pero no se cargaron. La firma rechazó una solicitud para restaurar los vídeos, pese a alegar que incluían pruebas de crímenes de guerra.

Piden afinar los sistemas

Figuras clave del sector afirmaron que es urgente que las redes sociales eviten que este tipo de información desaparezca.

"Puedes ver que han desarrollado y entrenado a sus máquinas para que, en el momento en que vean algo que parece traumático lo retiren", dijo Rusbridger a la BBC.

El Consejo de Supervisión de Meta, del que forma parte, fue creado por Mark Zuckerberg y se conoce como una especie de "Tribunal Supremo" independiente dentro de la compañía propietaria de Facebook e Instagram.

"Creo que la siguiente pregunta para ellos es cómo desarrollamos la maquinaria, ya sea humana o artificial, para tomar decisiones más razonables", añadió Rusbridger, antiguo redactor en jefe del diario londinense The Guardian.

La directora de la Oficina para la Justicia Penal Global de Estados Unidos, Beth Van Schaak, afirmó que nadie discute el derecho de las tecnológicas a regular los contenidos.

"Creo que donde surge la preocupación es cuando la información desaparece de repente", precisó la responsable del despacho que asesora al gobierno estadounidense en materia de crímenes de guerra y de crímenes contra la humanidad.

YouTube y Meta afirmaron que, dentro sus excepciones para imágenes gráficas de guerra de interés público, los contenidos que normalmente se retirarían pueden mantenerse en línea con visualización restringida a adultos.

BBC

0 comentarios:

Publicar un comentario