Etnia, religión y nacionalidad son el principal foco de discurso de odio en Internet

Escrito por Iris Aviñoa Ordóñez

Según el 3r informe de monitoreo de la Comisión Europea sobre el discurso de odio en la Red, las principales compañías tecnológicas eliminan un 70% del contenido de odio y revisan las denuncias en menos de 24 horas en un 80% de los casos.

 

La etnia, la religión y la nacionalidad son las principales razones que motivan el discurso de odio en internet en Europa, según demuestra el 3r informe de monitoreo de la Comisión Europea sobre el Código de Conducta para la lucha contra el discurso de odio ilegal en la Red. Los datos recogidos durante el segundo semestre de 2017 muestran que un 17,1% de los mensajes van dirigidos contra minorías étnicas, seguido de cerca por los mensajes con contenido islamófobo, que suponen un 16,4%, prácticamente la misma proporción que en el caso de los mensajes de odio con trasfondo xenófobo, donde el foco de los mensajes se dirige contra las personas migrantes y refugiadas, que se produce en el 16% de los casos.

A lo largo de seis semanas –del 6 de noviembre al 15 de diciembre de 2017– el equipo de monitoreo analizó 2.982 notificaciones que fueron remitidas a las cuatro compañías tecnológicas que forman parte del estudio: Facebook (propietarios también de Instagram), Twitter, Google (propietaria de YouTube) y Microsoft (propietarios del buscador Bing), operando en 27 estados miembros –todos excepto Luxemburgo. Según demuestra el informe, la compañía que más notificaciones recibió por contenido incitador al odio fue Facebook con 1.408, seguido por Twitter con 794 y YouTube con 780.

Mejora el tiempo de reacción y la retirada del contenido de odio

En la actualidad, la mayoría de compañías cumplen con los objetivos de revisar las denuncias de contenido que incita al odio en 24 horas, alcanzándolo en un 81% de los casos; estos datos reflejan una tendencia a la alza, con respecto a los anteriores monitoreos de 2016 y del primer semestre de 2017, que reflejaban un 40% y un 51%, respectivamente. Según este 3r informe, desde la implementación del Código de Conducta en mayo de 2016, las cuatro plataformas digitales han reforzado la cooperación con la sociedad civil en la lucha contra los mensajes con contenido de odio, han facilitado los mecanismos de denuncia y han aumentado la formación y el número de personal dedicado a la revisión del contenido.

Con respecto a la retirada del contenido que difunde discurso de odio, las compañías han incrementado progresivamente su compromiso, pasando de un 28% en 2016, a un 59% en mayo de 2017, hasta alcanzar un 70% del contenido de odio eliminado de sus plataformas digitales a finales de 2017. Si nos fijamos en el porcentaje de retirada de contenido por plataforma digital, observamos que Facebook es la que más responde a esta demanda, con un 80% del contenido eliminado, seguido de cerca por YouTube, con un 75%; Twitter, sin embargo, no alcanza a eliminar ni la mitad de los mensajes que incitan al odio, con sólo un 46% de contenido retirado.

Pese a la implicación en términos generales positiva de las principales empresas tecnológicas digitales en la lucha contra el discurso de odio, hay todavía varios aspectos por mejorar, como, por ejemplo, la respuesta a las denuncias, ya que según apunta el informe sólo un tercio de las notificaciones de los usuarios reciben algún tipo de contestación por parte de las compañías.