Xenofobia, misoginia, antisemitismo, transfobia, homofobia. Todas expresiones de odio. Rechazo a un otro por su condición de tal.

Muchas veces sazonados con noticias falsas, los discursos de odio terminaron encontrando en las redes sociales un canal de difusión. Más aún, un medio de amplificación de potencia inédita.

Cómo controlar la circulación de los discursos de odio es uno de los interrogantes más complejos que se presentan a la hora de analizar las dinámicas de las redes sociales. Sobre todo considerando el impacto que tales controles podrían tener sobre la libertad de expresión.

Hasta aquí dos opciones se han desarrollado en tal dirección. Por un lado las propias plataformas han implementado procedimientos para detectar y eliminar contenidos que fomenten el rechazo o demuestren agresividad.

Muchas veces basados en inteligencia artificial, otras tantas bajo mirada humana, tales procedimientos se han mostrado ineficaces ante expresiones de odio. Los denominados haters han encontrado siempre una manera de hacer llegar un mensaje que rápidamente amplifican. A veces, incluso, cuentan con el soporte de su condición pública.

Otros intentos de regulación han provenido de autoridades políticas. Distintos proyectos se han elaborado en todos los continentes. Mayormente sus impulsores han mostrado escasa comprensión de la dinámica de las plataformas. Directa o indirectamente han inclinado la discusión en favor de la censura.

Esquema argumentativo

Desde Argentina un grupo de docentes e investigadores de dos casas de estudio proponen una alternativa innovadora para intentar limitar el paso de los haters.

Se trata de Damián Furman y Vanina Martínez, de la Universidad Nacional de Buenos Aires (UBA) y el Conicet, y Laura Alonso Alemany, de la Facultad de Astronomía, Matemática, Física y Computación de la Universidad Nacional de Córdoba (FAMAF).

Juntos, y a través del grupo de investigación denominado Grupo de Análisis y Procesamiento de Grandes Redes Sociales y Semánticas, plantean la importancia de detectar los esquemas argumentativos que subyacen a los discursos del odio.

"Proponemos introducir la detección de esquemas argumentativos. Permitiría mejorar la detección de discurso de odio, pero también introducir un análisis más profundo de los mensajes que permita una alternativa a la censura, como es la generación automática o semi-automática de contranarrativas. Una contranarrativa toma componentes de un argumento y construye un mensaje que desafía el argumento inicial", expresa el documento donde se plasma el trabajo.

"Para este objetivo combinaremos detección de discurso de odio, detección de posición argumentativa (stance) basada en comunidades, detección de esquemas argumentativos específicos y generación automática de lenguaje con entrenamiento específico", amplían.

La variante apunta a la generación de un contenido automático, a modo de respuesta, con información verificable y contraria a la expresión odiosa.

"La censura es contraria a la naturaleza humana. Nosotros no queremos coartar la libertad de expresión de nadie. Hace un tiempo Twitter contestó un tuit de Trump. En vez de borrarle los tuits con información falsa lo que hicieron fue contestarle. Esa es nuestra propuesta: en lugar de borrar, contestar", explicó Alonso Alemany a Canal 10.

"Hay partes del discurso de odio que son argumentativas, a las cuales queremos contestar. Lo que proponemos es detectar esquemas argumentativos que son especialmente productivos en las redes sociales. Por ejemplo, un tuit que dice que todos los argentinos son estafadores. Eso se puede contestar y decir que no es cierto, presentando números. La idea es hacer eso de forma automática, porque estos esquemas tienen patrones comunes", precisó.

"La idea es detectar de qué esquemas se trata, a quién se está atacando, con qué argumento, y contestar mediante la generación de lenguaje específico para ese esquema", sintetizó.

Presentación. La exposición del trabajo se concretará este miércoles 29 de julio, desde las 11, a través de la plataforma Meet. Los interesados tienen más información en este link.