Por: Laura Carcache y Felipe Morales
El país se aproxima a un nuevo ciclo electoral, caracterizado por la degradación del debate político, que se agrava por un uso intensivo de las redes sociales. Las plataformas digitales, que hace una década prometían ampliar la democracia, hoy la tienen en vilo entre campañas de desinformación, difusión de contenidos manipulados y exacer[1]bación deliberada de las emociones. Como señaló la Misión de Observación Electoral (MOE) en su último informe de seguimiento a los procesos electorales: “Esta dinámica no solo pone en riesgo la integridad del proceso electoral, sino que debilita la confianza en las instituciones democráticas y exacerba la radicalización del debate político”.
El 2026 no solo será un año electoral, también se cumplirán 10 años de la seguidilla de elecciones en las que la desinformación y los discursos polarizantes en redes sociales tomaron por sorpresa a la sociedad. Desde el voto por la salida del Reino Unido de la Unión Europea, la elección de Donald Trump y el triunfo del “No” en el plebiscito por la paz en Colombia, ha pasado ya una década que ha permitido a la academia decantar lo sucedido y proponer algunas soluciones. Dos investigaciones javerianas se centran específicamente en este punto: cómo construir un entorno digital más seguro en nuestro país.
Detección del odio a la colombiana
La hostia en Colombia es el trozo de pan ácimo que se consagra en la eucaristía. En España, la misma palabra es usada como ofensa y para significar un golpe o una bofetada. Y no es la única en el español sujeta a este tipo de ambivalencia. Seguro usted puede pensar en unas cuantas palabras violentas que no le entenderían en buena parte del mundo hispanohablante, pues son jerga colombiana. Entre tanto, en las redes sociales, donde hay una exacerbación de insultos que nacen del racismo, la misoginia y el discurso de odio hacia grupos minoritarios, los algoritmos encargados de depurar estas plataformas han sido entrenados para detectar expresiones agresivas en inglés y, en menor medida, en castellano.
De allí nace la idea de un grupo de investigadores javerianos para un experimento: alimentaron diferentes modelos de lenguaje de inteligencia artificial con tres bases de datos distintas conformadas por comentarios publicados en redes sociales. Dos de ellas eran de prueba y una fue confeccionada por los investigadores con el argot colombiano. Los resultados demostraron la sospecha: los modelos fueron mucho más precisos para detectar ofensas cuando analizaron la tercera base de datos, pues estaba ajustada a un contexto particular, como ocurre en la vida social que tiene el lenguaje.
“La ofensa tiene que ver con que socialmente entendemos a qué
nos referimos. Incluye figuras lingüísticas, como el sarcasmo
y la ironía, que son muy locales”Luis Gabriel Moreno
En el artículo que publicaron Luis Gabriel Moreno, Alexandra Pomares y Sergio Barbosa, de la Facultad de Ingeniería de la Pontificia Universidad Javeriana, junto a Liliana Pantoja, de la Universidad Distrital Francisco José de Caldas, los autores resumieron así las posibles aplicaciones de su estudio, que esperan sea replicado por más investigadores: “El ajuste de los modelos para abordar las características lingüísticas regionales demuestra su eficacia para captar matices locales. Esto mejora los sistemas automatizados en aplicaciones como la atención al cliente y el filtrado de contenido, donde comprender las variaciones lingüísticas regionales es esencial”.
Moreno y Pomares lo saben bien, pues durante un tiempo se han dedicado a investigar modelos de texto de inteligencia artificial. Si bien hay elementos compartidos entre los idiomas, estos investigadores han visto cómo “el lenguaje es vivo, está en constante cambio y su análisis también debe cambiar”, explica el profesor Moreno, doctor en ingeniería. Esto cobra particular relevancia al hablar del racismo, la misoginia y los discursos de odio, pues “la ofensa tiene que ver con que socialmente entendemos a qué nos referimos. Incluye figuras lingüísticas, como el sarcasmo y la ironía, que son muy locales”.

Fue precisamente familiarizándose con la literatura especializada que se dieron cuenta de los dos problemas que había alrededor de la detección de las ofensas en redes sociales. En primer lugar, existía una brecha enorme entre los modelos entrenados para esta labor en inglés y en español. En segundo lugar, los esfuerzos en este último idioma se habían desarrollado, sobre todo, en España. “Creímos que era muy importante generar herramientas que funcionen acá en Colombia, no una herramienta importada, porque si bien compartimos algunas palabras con México o España, no tenemos sus contextos”, explica Moreno.
Lo que hicieron, entonces, fue elegir dos bases de datos que ya han sido probadas en el pasado. La primera estaba conformada por reseñas de usuarios en Amazon, de la cual seleccionaron aleatoriamente 5000 en español. La segunda, conformada por 1600 tuits en castellano, entre los cuales había discursos de odio contra migrantes y contra mujeres. Y, finalmente, los investigadores elaboraron su propia base, conformada por 13339 tuits que seleccionaron aleatoriamente de una base de datos georreferenciados por la plataforma X como publicados en Colombia y que el equipo de investigación etiquetó manualmente como discurso de odio, misoginia o racismo.
Luego, usaron dos tipos de modelos de inteligencia artificial distintos: transformer-based language models (TLM) y large language models (LLM), que es la base de herramientas como ChatGPT. Las herramientas mostraron un desempeño superior en un 14,35 % al de experimentos previos para detectar discurso de odio. Al final, los investigadores concluyeron que “la contracción de los corpus colombianos [la base de datos creada por ellos] es esencial para poder distinguir el discurso de odio en Colombia y aprovechar sus posibles aplicaciones en la depuración del contenido de una cadena de comentarios”.
En ese sentido, los investigadores son optimistas sobre las posibles aplicaciones de su estudio y, convencidos de la importancia de la ciencia abierta, ya han compartido sus datos con otros científicos para que los pongan a prueba y amplíen el análisis. Así mismo, son conscientes de las propias limitaciones de su experimento: “No podemos decir que [nuestra base de datos] representa a toda Colombia, pero captura algunas idio[1]sincrasias”, explica Moreno. Sin embargo, el profesor ve en este enlace entre inteligencia artificial y realidad política una oportunidad para producir conocimiento que aporte, en este caso, a que las plataformas de redes sociales sean espacios más seguros.
Desarrollo de una innovadora herramienta para medir la polarización
Un equipo conformado por investigadores de la Pontificia Universidad Javeriana, seccional Cali; la Universidad del Valle; y la École Polytechnique, de París, ha desarrollado el Polarizómetro, una innovadora aplicación en línea que permite medir qué tan polarizada está la sociedad frente a diferentes temáticas. Fundamentado en un modelo matemático, busca definir una función de la polarización en clave del esfuerzo mínimo necesario para que una población evolucione hacia un consenso. Con dicha función los investigadores buscan cuantificar el nivel de esfuerzo para alcanzar una opinión intermedia entre dos opiniones opuestas.
Esta herramienta plantea respuestas a las demandas territoriales del Valle del Cauca, apostándole a una sociedad más pacífica y tolerante. El proyecto estuvo motivado por diferentes fenómenos sociales y políticos, altamente divisivos a nivel nacional y regional, como el plebiscito para refrendar el Acuerdo de Paz en 2016, en el que venció el “No”, y el estallido social de 2021, que nació como una serie de protestas contra una reforma tributaria y las cuales en ocasiones derivaron en enfrentamientos que tuvieron a Cali como uno de los epicentros del país.
Detrás de esta iniciativa hay un equipo multidisciplinario que reúne a docentes, investigadores y estudiantes de distintas instituciones. Entre ellos está Frank Valencia, investigador principal del proyecto, docente de la Javeriana Cali y del Centro Nacional de Investigación Cien[1]tífica (CNRS, por su sigla en francés) en la École Polytechnique (París). También participan otros profesores javerianos, de la Universidad del Valle y de la Université Sorbonne Paris Nord. Además, han contribuido 16 estudiantes de pregrado y cuatro estudiantes de posgrado.
El modelo matemático del Polarizómetro arroja cifras entre 0 y 1, en las que 0 representa a aquellos que están completamente de acuerdo y 1 a los que están completamente en desacuerdo. Valencia ejemplifica: “Cuando la población se divide en dos mitades situadas en extremos opuestos, la polarización alcanza su nivel máximo, pues el esfuerzo mínimo necesario para llevarlos a un consenso es el mayor posible”.
“Hay que comprender cuándo la polarización impide ciertos fenómenos y
Felipe Jaramillo
cuándo potencializa otros. La polarización hace parte de la vida, pero permanecer en un escenario donde veo la diferencia del otro como un obstáculo para mi propia felicidad es una falta de entendimiento”
El Polarizómetro puede funcionar a partir de dos fuentes de información: encuestas o datos de redes sociales analizados por inteligencia artificial. El primer caso, al alcance del público, los investigadores el cual puede hacer sus propias mediciones usando datos de encuestas para determinar qué tan polarizados están sus grupos de interés respecto a un tema. Esto contribuye a la toma decisiones informadas en variados contextos, académicos, sociales y políticos.
En el caso de los datos de redes sociales, el Polarizómetro puede extraer opiniones de plataformas como X, y, conectado con herramientas de inteligencia artificial, puede determinar, “a partir de opiniones escritas, hacia qué lado se inclina la posición de una persona, en un rango entre 0 y 1”, explica el profesor de la Javeriana Cali.

En resumen, el flujo de trabajo es el siguiente: se identifica un tema de interés, se decide si se va a realizar una encuesta con un grupo específico o si se va a analizar el discurso alrededor del tema en redes sociales.
Con estos datos, el modelo computacional caracteriza la información y, mediante el uso de inteligencia artificial, traduce opiniones en números entre 0 y 1, que luego el modelo matemático usa para determinar qué tan polarizada está la población respecto del tema. Con esta información, los politólogos del equipo entran a analizar los datos basándose en teorías de las ciencias sociales, para comprender el fenómeno contextualizado, sus posibles efectos y las maneras en las que se puede disminuir, para facilitar el diálogo.
Para los investigadores, la polarización, como fenómeno no es necesariamente negativa. Felipe Jaramillo, coinvestigador del proyecto, asegura que “vivir en una sociedad donde no hay posibilidades de diálogo, de consenso, es peligroso”. Y añade: “Hay que comprender cuándo la polarización impide ciertos fenómenos y cuándo potencializa otros. La polarización hace parte de la vida, pero permanecer en un escenario donde veo la diferencia del otro como un obstáculo para mi propia felicidad es una falta de entendimiento. El entendimiento es clave para vivir en sociedad”.
Los investigadores esperan que su herramienta les permita identificar cuáles son los temas difíciles de discutir y qué posibilidades hay para que, con el tiempo, se conviertan en temas tratables. “Mi sueño es que el Polarizómetro se vincule también a ejercicios de investigación que permitan comprender cuáles son las formas más efectivas de comunicarnos con aquellas personas que piensan diferente, para lograr generar fuentes de diálogo y consensos”, añade Jaramillo.
Esta herramienta hace parte de Promueva, un proyecto para desarrollar modelos computacionales confiables de redes sociales que permitan analizar la polarización, producir información científica y propiciar eventos de participación ciudadana para poner a prueba ese instrumento. Con este fin se unieron en el Polarizómetro los conocimientos de las ciencias de la computación, la economía y las ciencias sociales, para dar vida a esta investigación, financiada por el Sistema General de Regalías, bajo la supervisión del Ministerio de Ciencia, Tecnología e Innovación (Minciencias).
Esta iniciativa de la Javeriana Cali, sumada a la investigación de profesores de la sede Bogotá, conforman una apuesta por llevar conocimientos originados en las ciencias computacionales a problemas sociales que hieren nuestra democracia. Aunque en ambos proyectos aún queda camino por recorrer para su aplicabilidad, los investigadores saben que la academia puede contribuir a resolver los problemas más urgentes que tiene la sociedad. En este caso, el de un mejor debate político, sin violencia digital, en el que los contrarios puedan sentarse a discutir.
Para leer más:
- Fabio Gadducci, Carlos Olarte, and Frank Valencia. 2025. A Constraint Opinion Model. In Coordination Models and Languages: https://doi.org/10.1007/978-3-031-95589-1_4
- Moreno-Sandoval, L. G., Pomares-Quimbaya, A., Barbosa-Sierra, S. A., & Pantoja-Rojas, L. M. (2024). Detection of Hate Speech, Racism and Misogyny in Digital Social Networks: Colombian Case Study. Big Data and Cognitive Computing, 8(9), 113. https://doi.org/10.3390/ bdcc8090113
TÍTULO DE LA INVESTIGACIÓN: Investigación en modelos computacionales de redes sociales aplicados a la polarización en el Valle del Cauca
INVESTIGADOR PRINCIPAL: Frank Darwin Valencia
COINVESTIGADORES: Camilo Rocha, Carlos Ramírez, Lya Paola Sierra Suárez, Felipe Jaramillo Ruiz, Juan Francisco Díaz, Jesús Alexander Aranda, Robinson Andrey, Duque y Carlos Olarte Facultad de Ingeniería y Ciencias Pontificia Universidad Javeriana, seccional Cali
PERIODO DE LA INVESTIGACIÓN: 2022-2026
TÍTULO DE LA INVESTIGACIÓN: Detection of Hate Speech, Racism and Misogyny in Digital Social Networks: Colombian Case Study.
INVESTIGADOR PRINCIPAL: Luis Gabriel Moreno Sandoval
COINVESTIGADORES: Alexandra Pomares Quimbaya, Sergio Andrés Barbosa Sierra, Liliana María Pantoja Rojas Facultad de Ingeniería Pontificia Universidad Javeriana, sede Bogotá
PERIODO DE LA INVESTIGACIÓN: 2024