Reconquista SF

WhatsApp: (03482) 15 521512

El sujeto virtual y el odio: no te preocupes si no es verdad

El New York Times publicó un artículo en el que se describe cómo algunas personalidades influyentes de la ultraderecha utilizan Youtube para aumentar el extremismo “online”, bajo una serie de pasos explicados por el cineasta y youtuber Caolan Robertson.

 

La producción de narrativas en las redes sociales se retroalimentan a través de los algoritmos que llevan al usuario a realizar recorridos que refuercen una idea o prejuicio sin importar si es cierto o no. Lo que prima son las emociones primarias, verdad, falsedad o datos no entran en juego.

En una nota, escrita por Cade Metz, el New York Times indagó en los modos en que los algoritmos de Youtube, más una buena edición, fueron herramientas fundamentales de la ultraderecha en los últimos años.

Para esto cuenta como en 2018, Tommy Robinson, activista deultraderecha, publicó un video enesa red con el asesoramiento del youtuber Caolan Robertson, en el que afirmaba haber sido agredido por un migrante africano en Roma.

El video hizo eco con los sentimientos antinmigrantes en el Reino Unido y en toda Europa. Además se centraba directamente en el conflicto, yendo rápidamente de una escena a otra entre gritos y empujones donde se tergiversó lo que realmente había sucedido.

Según el ex youtuber elegían el momento más dramático, o lo fingían. Y descubrieron que el éxito en la plataforma era impulsar la confrontación y el odio más allá de la realidad o lo veraz, porque era lo que se viralizaba mucho más que cualquier otra cosa.

https://twitter.com/CaolanRob/status/1361798480226836489

Según la nota de NYT, las imágenes en bruto del episodio en Roma, proporcionadas por Robertson y revisadas por ese medio, muestran que el video de YouTube fue editado para dar la falsa impresión de que Robinson había sido amenazado. La grabación completa muestra que él fue el agresor.

Durante los más de dos años que ayudó a producir y publicar videos Robertson aprendió cómo hacer ediciones inteligentes y que centrarse en la confrontación atraía millones de visitas en YouTube y otros servicios y cómo el algoritmo de recomendación a menudo llevaba a la gente a los videos extremos.

En una de sus últimas experiencias antes de abandonar la actividad Robertson cuenta como en manifestaciones hacían preguntas como si estuvieran intensión o interés de comprender las demandas y que la gente se exprese, pero en realidad lo que se buscaba era hacer preguntas para hacerlos enojar y que se violenten.

Estos diseños que se extienden a todas las redes sociales, están pensados para entrar a la denominada “cámara de eco” que crean las redes como YouTube, donde el usuario se mantiene en un recorrido inducido por el algoritmo para que siga mirando o visionando contenidos similares.

Asistimos a la conformación de un nuevo sujeto virtual que pasa más horas frente a una pantalla que en la vida cotidiana social como siempre se ha entendido. La información termina relegada o cuestionada por la creencia sobre el dato, fakenes y deepfakes pasan a ocupar un lugar en las redes que no sería posible sin los algoritmos y la lógica de las redes sociales donde lo que importa es un relato creíble y no si es verdad. El odio y los discursos de odio, aunque minoritarios, cobran en las redes una visibilidad que no tendrían de otro modo y se retroalimentan en su viralización.

Chatea con nosotros
1
Hola, en que podemos ayudarte?
Hola, como podemos ayudarte?