Trolling, fake news y violencia online: el debate sobre cómo depurar y sanar la conversación pública

Este artículo fue publicado por Infobae.com como cobertura del evento organizado por Amnistía Argentina en la Facultad de derecho de la Universidad de Buenos Aires. Fundación Vía Libre fue invitada a exponer su mirada en el marco de este evento.

Ver el artículo en su fuente original aquí.

Amnistía Internacional organizó un encuentro en la Facultad de Derecho de la UBA para analizar el efecto de los ataques en las redes sociales y su incidencia en el espacio público. Un grupo de expertos reflexionó sobre los trolls, la regulación subjetiva y la desinformación.

La conversación pública se trasladó a una nueva arena: las redes sociales. El debate democrático se entregó a sus formas, sus condiciones y sus requerimientos. Se convirtió un canal de multiplicación de voces, opiniones, revelaciones, miserias y voluntades. Amnistía Internacional, que se autodefine como un movimiento global que se toma la injusticia como algo personal y que trabaja por un mundo en que las personas puedan disfrutar de los derechos humanos, celebra este moderno instrumento de comunicación y conexión. Pero se reserva una inquietud: cómo hay que hacer para que algunas intervenciones coordinadas y desleales no desvíen, desnaturalicen, perturben o entorpezcan el debate público.

Catalogan a las redes sociales como un espacio beneficioso para el discurso, aunque abusivo. Consideran que sus relatos violentos restringen, persiguen, estigmatizan y amenazan. Que desprestigian e intimidan. Que paralizan, hostigan e interceden en el cauce normal de la discusión. Son los síntomas de los ataques, las agresiones, el trolling o las fake news, formatos que se desperdigaron en las plataformas digitales y colonizaron la conversación.

Martín Becerra, doctor en ciencias de la información, investigador independiente del Conicet y profesor titular en la Universidad de Quilmes y en la Universidad de Buenos Aires, fue invitado por Amnistía Internacional y el Centro de Derechos Humanos de la Facultad de Derecho de la UBA a participar de una disertación. En su exposición, reproduce un diálogo entre Sócrates y Fedro recogido por Platón. “Amigo Sócrates, he leído lo siguiente. ‘A quien va a ser orador, no le es necesario aprender lo que es justo en realidad sino lo que podría parecerle a la multitud, que es precisamente quien va a juzgar. Y tampoco las cosas que son en realidad buenas o malas, sino aquellas que lo han de parecer, pues de esa verosimilitud procede la persuasión y no la verdad’. Sócrates le responde que es más fácil el engaño cuando las cosas describen poco y más adelante en la conversación el maestro afirma que en los tribunales a nadie le interesa en lo más mínimo la verdad, y sí en cambio lo que induce a la persuasión. Y esto es lo verosímil, y a ello debe prestarle atención quien vaya a hablar con arte”. Lo escrito en el 370 antes de Cristo adquiere perturbadora vigencia en tiempos modernos. Las fake news, el trolling, la afectación de la deliberación, la verosimilitud y la verdad se parió, tal vez, en la filosofía de la Antigua Grecia.

También citó a Thomas Hobbes y a Michel Foucault, otros dos filósofos académicos. En su análisis, habla del resquebrajamiento del sentido social orquestado por el recurso de tergiversación de la verdad: “Cuando la convención del orden del sentido se rompe, se rompe también la ley y la relación representacional del lenguaje sobre los sujetos, sobre los procesos. De esta manera el contrato social de lo que es verdad y lo que no es verdad también se va quebrando. Y la desinformación, que está asentada en la ruptura de las representaciones que operan en la producción del sentido social, puede ser vista como síntoma y emergente de la crisis de ese contrato social, que me temo es la crisis de un contrato que tiene a los derechos humanos como base. Es la crisis de una concepción del mundo”.

Becerra trabajó en un proyecto de Amnistía Internacional denominado “el debate público limitado”, que buscaba documentar las formas de interacción de quienes esbozan críticas despiadadas en el espacio público virtual. “En ese informe se constató que hay acciones organizadas, que no son silvestres, espontáneas o individuales, de abuso y violencia contra quienes defienden o denuncian violaciones a los derechos humanos”, reveló el docente. El trabajo consistió en procesar los 77 días en que estuvo desaparecido Santiago Maldonado y procuró hallar un plan de acciones de hostigamiento sistemática: trolling.

Beatriz Busaniche, licenciada en Comunicación Social de la Universidad Nacional de Rosario, Magíster en Propiedad Intelectual de FLACSO, docente en grado y posgrado en la UBA y en FLACSO, y presidente de la Fundación Vía Libre, una organización civil sin fines de lucro dedicada a la defensa de derechos fundamentales en entornos mediados por tecnologías de información y comunicación, respaldó la postulación de una regulación del contenido digital que instauró Becerra. “Las formas regulatorias exceden la existencia de una ley. Tienen que ver con las propias regulaciones privadas de las plataformas, los términos de uso, el mercado y las implementaciones técnicas que hacen las plataformas”, valoró.

Precisó que el rol del Estado es garantizar el respeto de los derechos fundamentales de las personas, entre las que se encuentra la libertad de expresión. Su cuestionamiento interpeló el alcance del trolling, las noticias falsas y la violencia desatada en redes sociales: “La cuestión es saber cuál es la responsabilidad de los intermediarios de Internet. La pregunta es quién decide bajar un material de un debate público, cómo se toma esa decisión y cómo se construye un sistema en el cual se pueda habilitar la conversación sin tener que dar de baja contenidos en los cuales puede haber discrepancias”.

Habilitó el escenario de las zonas grises de una ley adulta y la ambigüedad de la evidencia de un delito. “En este sentido la atribución de responsabilidad subjetiva a las plataformas aparece como una solución”, proclamó. Quién debe dirimir la categoría del delito es, a su juicio, un tribunal judicial, por más burocrático o extenuante que resulte: “Si una plataforma es responsable plenamente por lo que usuarios hacen allí, se genera la obligación de monitorear el contenido de forma permanente. Y eso puede redundar en un incentivo a la censura privada. Yo adscribo a esta idea: responsabilidad subjetiva con la orden judicial como instrumento de notificación efectiva”.

Para Busaniche, el derecho de suprimir un material público debe ser ejecutado por el brazo judicial del Estado. Porque, tal como apunta, las plataformas ya bajan contenidos en función a su propio criterio: “Por ejemplo, los pezones femeninos. No es delito mostrar una teta. Sin embargo, Facebook no te deja”. Acepta, sin embargo, que las plataformas cercenen los casos flagrantes donde el delito sea comprobable: “Pornografía infantil es un punto de consenso, por caso”. Pero defiende que no todo mensaje del discurso público merece su censura porque el debate, que suele ser álgido, puede ofender o disgustar: “Ironías, burlas, ofensas, agresiones, muchas cosas pueden perturbar el foro público de difusión. Pero eso no constituye una justificación para bajar contenidos”.

En ese sentido, la docente ensayó una crítica a la modalidad de consumo de información en las redes sociales: “Lo que estamos viendo son procesos de guetificación del pensamiento: cada vez hablamos más con personas que piensan como nosotros, cada vez se nos dificulta más el intercambio amigable de ideas con gente que piensa distinto. Porque justamente el principio de libertad de expresión no está ahí para defender a quien piensa como yo, sino para defender a aquellos que dicen lo contrario de lo que yo quiero escuchar. Demuestro cuán apegada estoy a la libertad de expresión cuando defiendo a aquel que dice exactamente lo contrario a lo que yo digo. La culpa no es nuestra, no lo inventamos los argentinos. Es un fenómeno global del que las plataformas tienen altos niveles de responsabilidad, por cómo administran el discurso público y cómo nos muestran aquello que nos es más confortable”.

Ernesto Calvo, profesor de Ciencia Política en la Universidad de Maryland, Estados Unidos, comenzó su exposición hablando del “efecto Panchito” como metáfora del funcionamiento de los trolls. En su exilio en México en tiempos de dictadura, recordó que el jefe de la policía regenteaba una pandilla de hasta veinte mil miembros que se hacía llamar los Panchitos. Un día un amigo suyo se cruzó con uno que le dijo: “Hola, soy Panchito”. “Hola, soy Pablo”, le respondió. “No cabrón, soy Panchito, dame todo lo que tienes”, lo amenazó. Su amigo le dio todo lo que tenía -contaba Ernesto-. Cuando finalmente se encontraron, surgió la incertidumbre: ¿era realmente un Panchito? “Cuando uno tiene una pandilla de veinte mil personas también hay mucho cuentapropista. Hay mucha gente que se viste y ejerce como Panchito. Cuando en las redes sociales nace una pandilla, también se producen muchos Panchitos, muchos trolls que lo que hacen es sumarse al esfuerzo colectivo. La distorsión de la comunicación no solamente produce individuos coordinados sino que también coordinan cuentapropistas que actúan del mismo modo. Por eso la extensión de bloquear de lugares como Twitter o Facebook a estos actores coordinados tiene una consecuencia brutal para todo el medio ambiente de redes sociales, porque limita el cuentapropismo que también se apoya en el tipo de estructura discursiva que provocan estos trolls”.

Su objeto de estudio es el trolling. Según su interpretación, limitar la imposición de los trolls depura gran parte del debate público porque inhibe al usuario “cuentapropista”. Su propósito es divulgar noticias falsas para ser funcionales a una coyuntura política. Apelan a una doctrina de “tierra arrasada”: una maniobra común para abordar un tema que no administran que funciona con contenido impostado, falso pero creíble, para saquear y enviciar el espacio mediático.

“Los trolls no actúan desde el vacío, lo que dicen es consonante y congruente con el espacio político en el que actúan. Van construyendo redes, empiezan a tener mayor cantidad de seguidores, empiezan a conseguir información que circula objetivamente, empiezan a interactuar con otros actores de esas redes que al retuitear o favoritear le construyen legitimidad de origen. Operan en una red en la se aprovechan de su capacidad política e institucional”, reflexionó Calvo al argumentar por qué los usuarios aceptan la divulgación de noticias falsas. “Hay trolls porque hay comunidades dispuestas a aceptar un mensaje afín en términos políticos. Así como también están dispuestos a mofarse de los otros porque hay un mensaje que sostiene el mismo tipo de narrativa de la cual participan. Por eso las correcciones de las fake news son mucho menos replicadas que las mismas fake news”, comparó respaldado por estadísticas recogidas de Twitter. Enseñanzas concisas para interpretar la complejidad discursiva del debate público virtual.

Archivo