Por qué los trolls de la Dark Web de la derecha se están apoderando de YouTube

Por Chip Somodevilla / Getty Images.

Inmediatamente después del tiroteo en Parkland, la vertiginosa propagación de las teorías de la conspiración dejó una cosa muy clara: las empresas de tecnología ya no son las amas de sus propios algoritmos. La desinformación floreció incluso cuando YouTube, Facebook y otras compañías se apresuraron a ponerse al día, un fenómeno que parece haber sido impulsado por usuarios más que indignados e ignorantes. Como el Bestia diaria Según informes, los miembros de al menos un grupo de extrema derecha diseñaron una estrategia para engañar a la pestaña Tendencias de YouTube en la promoción de videos falsos, aprovechando un objetivo suave con una audacia que en el pasado se ha limitado a los rincones más oscuros de Internet.

Si bien la extrema derecha ha estado activa en su propia cámara de eco durante décadas (piense en los oscuros subReddits, 4chan y 8chan), su impulso hacia las plataformas principales es relativamente nuevo. Fue solo cuando comenzaron a insertarse en otros espacios en línea que la extrema derecha comenzó a tener más éxito, George Hawley, profesor de ciencias políticas en la Universidad de Alabama y autor de Entender la Alt-Derecha, me dijo. Al principio, estos esfuerzos se dirigieron principalmente a las secciones de comentarios de las noticias, lo que permitió que fueran vistas por un gran número de personas. Sin embargo, cuando los medios comenzaron a tomar medidas enérgicas contra los comentarios, estos grupos migraron a lugares como Twitter y YouTube. Twitter era aún más valioso para la extrema derecha, ya que permitía a los usuarios anónimos interactuar directamente con figuras públicas y lanzar espontáneamente campañas de trolling semi-coordinadas, dijo Hawley. YouTube también es importante, ya que permite a los usuarios que no buscan contenido de derecha encontrarlo de forma orgánica.

Sin embargo, más pernicioso que la ocupación de YouTube por parte de la extrema derecha es la forma en que el grupo manipula la plataforma para difundir sus mensajes. En el caso del tiroteo en Parkland, el grupo de extrema derecha Reconquista Germanica usó redes de cuentas falsas para manipular los algoritmos de YouTube, votando estratégicamente a favor y en contra de los videos en un intento de hacer que aquellos que les gustan suban en la función de búsqueda de la plataforma, mientras rechaza los videos que no están de acuerdo con lo que tardan más en encontrar o se ignoran por completo. Podemos impulsar nuestros propios videos a través de Me gusta y comentarios, a través de la organización que hemos creado, para que el algoritmo de búsqueda de YouTube los califique como más relevantes, dijo un miembro de Reconquista Germanica en alemán, según las capturas de pantalla. tuiteó por el grupo anti-ultraderechista Alt Right Leaks. Los chats de Reconquista Germanica se llevaron a cabo en Discord, una plataforma de mensajería originalmente destinada a los juegos, que la extrema derecha ha adoptado. (Discord, por su parte, es supuestamente Apagando algunos de sus servidores de extrema derecha).

La mayor parte de esto es menos nuevo de lo que la gente cree, experto en extremismo J.M. Berger me dijo, explicando cómo la extrema derecha ha aprendido a emular las tácticas utilizadas durante años por los spammers, los piratas informáticos rusos e incluso el Estado Islámico. Al mismo tiempo, es difícil negar que __Donald Trump__ les dio un impulso. El resurgimiento de la derecha que estamos viendo ahora no es solo el astroturf, sino el resultado de varios años de trabajo por parte de activistas de extrema derecha, que culminó con el ascenso de un candidato que estaba dispuesto a complacer abiertamente a los nacionalistas blancos y otros sectores de la derecha. extremistas. La elección del presidente Trump ha contribuido más a la corriente dominante del nacionalismo blanco que cualquier otra cosa en los últimos 40 años, pero es un arreglo simbiótico. Él eleva sus problemas y ellos organizan campañas en las redes sociales para protegerlo y elevarlo.

La otra pieza del rompecabezas, por supuesto, son las respuestas inconsistentes de las empresas de tecnología a la actividad de extrema derecha. Lo que resultó de la ocupación del grupo de ciertos rincones sombríos de Internet, dijo Ryan Lenz, un escritor senior del Southern Poverty Law Center, no era solo ideas e ideologías, sino un patrón de comportamiento y una comprensión de cómo usar el espacio en línea. No se puede negar que los jugadores serios de la derecha alternativa surgieron de lo que era una cultura troll, agregó, un hecho que hace que las tácticas del grupo sean alarmantemente efectivas en un mercado diseñado para recompensa valor de choque .

Con sus plataformas bajo asedio, las empresas de tecnología luchan por reinventar los algoritmos en los que se basan; Facebook anunció recientemente cambios en su News Feed que quitarán énfasis a las publicaciones de los medios de comunicación, mientras que una fuente familiarizada con la pestaña Trending de YouTube me dijo la semana pasada que YouTube está trabajando para mejorar las aplicaciones de [sus] políticas para garantizar que los videos que contienen engaños en el video y en el título y la descripción no vuelven a aparecer en la pestaña Tendencias. Pero una solución más simple, dijo Lenz, sería que las principales plataformas tecnológicas envíen una señal clara a los operadores malignos. Lenz señaló a Medium, que recientemente prohibido algunas figuras de extrema derecha como Mike Cernovich, Jack Posobiec, y Laura Loomer. No permitimos llamadas a la intolerancia, exclusión o segregación basadas en características protegidas, ni permitimos la glorificación de grupos que hagan cualquiera de los anteriores, especifican las nuevas reglas de la empresa. En medio de este aumento de ideologías de derecha, dijo Lenz, las [empresas] tecnológicas están diciendo: 'Nuestras plataformas lo son. . . no es un lugar para propagar mensajes racistas '.