Cuando el terrorismo es creado para ser viral

Si el pasado viernes usted leyó, comentó o, peor aún, vio el terrorífico video de la matanza de 49 personas en dos mezquitas de la ciudad de Christchurch (Nueva Zelanda), se convirtió (indirectamente) en el cómplice que buscaba Brenton Tarrant, el australiano que cometió la masacre. Este acto terrorista, que millones de personas vieron en vivo y en directo por redes sociales, fue pensado y planeado durante dos años por Tarrant con una única finalidad: hacerlo viral.

Uno de los efectos más negativos de las redes sociales, que queda expuesto en este tipo de eventos, ha sido debilitar o destruir las barreras que antes existían para aislar a las masas de actos tan violentos y cargados de odio como el ocurrido en Nueva Zelanda. Tarrant, el terrorista que descargó su delirio y creencias retorcidas disparando sin piedad contra los musulmanes, demostró estar al tanto de eso al transmitir en vivo, a través de Facebook, la masacre y publicando un polémico manifiesto de 74 páginas en el que explicaba por qué lo hacía. Lea también: Facebook dice que eliminó “rápidamente” video de ataque en Nueva Zelanda

En el documento, Brenton Tarrant asegura que cometió el ataque por venganza y para “mostrar a la mayoría de los invasores (musulmanes) que sus tierras nunca serán sus tierras, nuestras tierras son las nuestras y, mientras viva un hombre blanco, nunca las conquistarán. También para agitar a los enemigos políticos de mi pueblo y llevarlos a la acción, hacer que sientan en carne propia una reacción negativa como resultado”, se lee en el texto.

Para el portal investigativo Bellingcat, el recurso de publicar un manifiesto, si bien deja entrever rasgos ideológicos del terrorista, es una trampa para periodistas y curiosos que estén buscando el significado detrás de sus palabras y corresponde a la estrategia de shitposting, es decir, “publicar una serie de contenidos, en su mayoría irónicos, con el fin de provocar una reacción emocional en los espectadores menos conocedores de internet. El objetivo final es descarrilar la discusión productiva y distraer a los lectores”.

Por eso no es coincidencia que antes de abrir fuego Tarrant haya dicho: “Recuerden, subscríbanse a PewDiePie”, en referencia a Felix Kjellberg, uno de los youtubers más populares del mundo, con más de 89 millones de seguidores, y que en diferentes ocasiones ha sido acusado de promover el antisemitismo.

También mencionó el popular juego electrónico Fortnite, a la activista conservadora estadounidense Candace Owens y en el portal 8chan aseguró antes de cometer el crimen: “Haré un ataque contra los invasores y lo publicaré en Facebook Live. (…) Dejo links con mis escritos. Divulguen el mensaje, hagan memes y shitposting como normalmente hacen”.

“Estas referencias parecen estar orientadas a crear ciertos tipos de narrativas en los medios de comunicación que mantendrán al terrorismo en las noticias”, aseguró el portal The Verge. Por su parte, The New York Times afirmó que, más allá de darle seguidores a Kjellberg, la referencia al youtuber “fue una trampa explosiva, una broma diseñada para personas desprevenidas y miembros de los medios de comunicación. El objetivo, si hubiera uno, puede haber sido un juego de culpas en internet para inflamar tensiones políticas en todas partes”.

Inmediatamente el youtuber, que mordió el anzuelo casi por obligación para salvar su buen nombre, señaló a través de su cuenta de Twitter: “Me siento absolutamente enfermo porque esa persona pronuncie mi nombre. Mi corazón y mis pensamientos están con las víctimas, las familias y todos los involucrados en esta tragedia”, permitiendo que sus 17 millones de seguidores se enteraran de lo ocurrido. Le puede interesar: La masacre de Nueva Zelanda, un test para las plataformas digitales

El recurso del manifiesto no es algo nuevo. Antes que Tarrant, otros asesinos también publicaron textos similares, entre ellos el noruego Anders Breivic, quien en 2011 mató a 77 personas que se encontraban en un campamento estudiantil en Noruega, y Dylann Roof, quien en 2015 entró a una iglesia de Charleston, Carolina del Sur (EE. UU.) y mientras gritaba “estoy aquí para matar negros” disparó contra nueve personas.

Un reto para las redes sociales

El evento resulta un reto para las plataformas de video en vivo y en general para cualquier aplicación que genere interacción entre las personas. En medio del ruido internacional, uno de los que tenía que rechazar y condenar lo ocurrido era Facebook, que pasa por uno de sus peores momentos y que una vez más es cuestionado por sus políticas de regulación de contenidos. “La Policía nos alertó sobre un video en Facebook poco después de que comenzara la transmisión en vivo y eliminamos rápidamente las cuentas de Facebook e Instagram del atacante”.

Sin embargo, parece que a estas alturas poco o nada sirven las justificaciones del gigante tecnológico, así asegurara que retiró el video en poco tiempo. De hecho, Drew Harwell, periodista encargado de inteligencia artificial del Washington Post, afirmó: “La masacre de Nueva Zelanda se transmitió en vivo en Facebook, se anunció en 8chan, se publicó en Youtube, se comentó en Reddit y se reflejó en todo el mundo”, cuestionando el hecho de que la red social habría tenido el tiempo suficiente para ser alertada e impedir la transmisión, pero no lo hizo.

Desde el pasado abril, durante el F8, la conferencia más importante de la compañía tecnológica, Marck Zuckerberg ya anunciaba medidas serias para aumentar el control en la regulación de contenidos de la mano de la inteligencia artificial.

Los estragos de Cambdridge Analytica, que destapó en marzo pasado un entramado político sin precedentes durante la campaña presidencial de Estados Unidos en 2016, solo evidenciaron las debilidades de una red social a la que cada vez más le cuesta regular la forma en que los usuarios la usan.

“El poder de la inteligencia artificial radica en la velocidad y la escala a la cual puede operar. Tenemos mejor clasificación de imágenes y lo que pretendemos es identificar a esas personas que suben contenidos no autorizados en la plataforma. Nuestro sistema es muy rápido, cada vez que alguien intenta hacer algo inapropiado lo capturamos inmediatamente”, aseguró en ese momento a El Espectador Mike Schroepfer, encargado técnico de la compañía CTO.Sin embargo, los antecedentes, sumados a este evento, plantean un panorama desesperanzador para el futuro, pues no parece que la inteligencia artificial sea suficiente. En 2017 ya se había transmitido un Facebook Live de Steve Stephens mientras asesinaba, supuestamente por despecho a Robert Godwin, a un hombre de 74 años, en Cleveland, una ciudad del estado de Ohio.

“No hay ninguna excusa para que el contenido de esa transmisión en vivo esté circulando ahora”, señaló Lucinda Creighton, exministra de Gobierno de Irlanda y asesora de la ONG Counter Extremism Project, que busca retirar contenido violento de la red.

Sobre Facebook indicó que, además de sus herramientas tecnológicas y sus propios moderadores, utiliza cada vez más las informaciones de los usuarios para retirar contenidos inapropiados. La empresa tiene contratados 20.000 moderadores, aunque, según varios medios, están sometidos a un gran estrés por los violentos videos a los que están expuestos y les resulta difícil gestionar las secuencias difundidas en directo.

El problema, sin embargo, no es exclusivo de Facebook. Hoy en día otras redes sociales y hasta aplicaciones de mensajería instantánea como Whatsapp son promotores y creadores de violencia. Para no ir más lejos, el pasado octubre las autoridades de Bogotá señalaron que un hombre murió a manos de una turba que lo acusaba de ser parte de un grupo que robaba niños en Ciudad Bolívar (Bogotá), en un caso relacionado con la difusión de noticias falsas en redes sociales.

Además, según The Time of India entre mayo y junio de 2018 fueron asesinadas 27 personas en 13 incidentes de “justicia” por mano propia inspirada por cadenas falsas a través del servicio de mensajería. En ellos se acusaba a las personas asesinadas de ser secuestradores de niños y ladrones de órganos. Todo era mentira.

El diseño de Whatsapp hace fácil divulgar información falsa, pues los mensajes se comparten en grupos y no deja señales de su origen. Esta red, propiedad de Facebook, tiene cerca de 200 millones de usuarios tan solo en India. La compañía ha intentado frenar las cadenas falsas marcando todos los mensajes reenviados. También publicó anuncios en periódicos para educar a la gente sobre la desinformación y hace pruebas para limitar el reenvío de mensajes.

En Facebook se debe lidiar todos los días con los contenidos negativos que se publican. Esto es regulado a través del NewsFeed, un listado de contenido e información que ve cada persona en la plataforma. Tessa Lyons-Laing, una de las gerentes de producto de NewsFeed, aseguró a este diario que la estrategia para evitar la propagación de contenido dañino es volver lo más preciso que se puedan las búsquedas, de manera que si alguien busca, por ejemplo, la palabra “corazón”, le aparezcan contenidos generales y poco explícitos, mientras que si alguien busca “operación de corazón”, le aparezca exactamente lo que pretende encontrar.

El problema está cuando los usuarios no reportan o cuando comparten videos como el de la masacre, pues los algoritmos no tienen cómo detectar el riesgo que representan.

¿Nada que hacer?

Los atentados terroristas seguramente seguirán ocurriendo. No obstante, para superar el problema debe dejar de creer que las redes sociales son el principal problema. De hecho, la revista The Atlantic asegura que al final del día lo único que están haciendo es cumplir con su objetivo: difundir mensajes e imágenes sin verificación ni interés por las consecuencias que traerán. “No compartan el video o harán parte de esto”, aseguró un agente del FBI retirado que ahora trabaja en CNN. Pero hasta que el objetivo de estas plataformas no deje de ser la viralidad, será imposible controlar este tipo de terrorismo.

Andreas Guske, un inspector de policía en la ciudad bávara de Traunstein, donde hay muchos refugiados y estuvo a punto de desatarse una tragedia por cuenta de un falso rumor en Facebook (que un inmigrante había violado a una niña de 11 años) intentó algo inusual: con su equipo llegó a las casas de los usuarios que habían divulgado el rumor en primera instancia, y les mostró pruebas de que no estaban en lo cierto. Todos, excepto uno, eliminaron o corrigieron sus publicaciones, reportó la prensa.

“Facebook recluta a miles de moderadores para que eliminen las publicaciones que violan sus reglas. Es una solución redimensionable que se ajusta a la estrategia comercial de la compañía. Sin embargo, hace poco por abordar el impacto de Facebook en el mundo real o por frenar el odio y la desinformación que sí se ajustan a las reglas, como muchos de los rumores que circulan”, señala The New York Times.

“Facebook influye en la gente con su algoritmo”, agregó. De acuerdo con expertos consultados por el Times, “la plataforma da cabida a emociones negativas y primitivas e incluso puede distorsionar la conciencia que tiene la gente sobre lo que está bien o mal”, concluyó Guske.