Seguro le ha pasado que en estas elecciones se encuentra con contenido en redes sociales y no está seguro de si las cuentas que lo compartieron son reales ¿Podemos saber si hacen parte de estrategias desinformación ? Algoritmos diseñados por investigadores de la Facultad de Ingeniería de la Pontificia Universidad Javeriana han logrado precisamente eso.
Luis Gabriel Moreno, doctor en Ingeniería, explica cómo lo han hecho en el primer episodio de la tercera temporada de Poder Conectado, un podcast sobre comunicación política presentado por los profesores de Comunicación, Liliana Gómez, Juan Carlos Valencia y Carlos Arias. Esta temporada será un video-podcast, gracias a una alianza con Pesquisa Javeriana. Ya puede ver el primer episodio en el siguiente enlace:
En un escenario de elecciones en el que las redes sociales como X –antes Twitter– son lugares donde se hacen anuncios oficiales, mandatarios dan órdenes y se crean consensos de opinión pública, es crucial entender qué tanto podemos confiar en el contenido allí producido. Es allí donde las investigaciones de ingenieros como Moreno adquieren una relevancia particular.
“Cuando hablamos de confianza tiene que ver con qué tanto yo creo en el perfil que me está enviando información o qué tan válido es”, explicó el profesor. En primera medida, la confianza en redes sociales se establece a través de vínculos estructurales. “Es decir, si tú eres amigo de Juan, por ejemplo, y yo conozco a Juan, puedo tener cierto nivel de confianza en ti porque hay una transitividad”, explicó Moreno.
Sin embargo, él y sus colegas se han interesado por otra dimensión de la confianza: cómo los algoritmos nos sugieren cosas, basándose en nuestros intereses y terminan creando círculos de “homofilia”. Es decir, “nos agrupamos entre iguales”, explicó el profesor.
Sobre cómo han logrado identificar cuentas automatizadas o bots, Moreno explicó a los entrevistadores el análisis que hacen, que involucra grandes volúmenes de información de redes sociales: “Cuando nosotros vemos que la diversidad léxica de un perfil es bajísima. Es decir, que no hay una capacidad de cambiar de texto o de palabras, o cuando la emoción es estándar o continua, esas son pistas de que ese perfil se ha pagado y se ha programado en su mayoría”. Así lo hicieron, por ejemplo, en este artículo.
Algoritmos como este están a la disposición de otros investigadores, pues Moreno y sus colegas creen en la ciencia abierta. La mayoría de las publicaciones de Moreno y sus colegas son de libre acceso y ellos mismos colaboran con iniciativas como Latam-GPT para aportar a que los sistemas de inteligencia artificial y de procesamiento de información reflejen los matices y la diversidad cultural de lugares como Colombia.
Límites de la IA en la desinformación de redes sociales
Ahora, el campo de Moreno es mucho más amplio. En el diálogo con los profesores Gómez y Valencia explicó que su foco de investigación es el procesamiento de lenguaje natural y la creación de modelos de inteligencia artificial con textos. Con sus proyectos se ha dedicado a llenar algunos de los vacíos que existen en este campo, sobre todo los relacionados con barreras lingüísticas y culturales, pues, como explicó, “el lenguaje tiene caducidad”.
Para una investigación reciente, por ejemplo, crearon un sistema de detección de discursos de odio, racismo y misoginia en redes sociales adoptado al léxico colombiano. “Construimos ese modelo de inteligencia artificial que utiliza lenguaje propio colombiano para determinar esos elementos de racismo, misoginia y odio. Fue inspirado en cómo nosotros mismos comenzamos a ver ataques en redes sociales, aunque, cabe aclarar, mi especialidad es el texto”, explicó.
Además de la aclaración de que su experiencia ha sido con el texto, Moreno es cauto sobre las posibilidades de los modelos existentes hasta ahora para identificar falsedades en redes sociales. “Tratamos de hacer un algoritmo que identificara fake news, pero el proceso es muy complejo, porque al final depende de cómo se plantea la noticia”, explicó el profesor y luego puso como ejemplos medios de comunicación que han incorporado procesos de chequeo de información y han incorporado algún nivel de automatización, pero al final la decisión siempre la toma un humano.
Esta temporada del video-podcast Poder Conectado hace parte del cubrimiento especial de Pesquisa Javeriana para las elecciones presidenciales de 2026. Este episodio inaugura un espacio para discutir, desde la evidencia y la producción académica, los conceptos que rondan esta jornada electoral, los discursos que los movilizan y las emociones que buscan despertar.
Junto a profesores de Comunicación, Filosofía e Ingeniería, que han investigado sobre estas preguntas en sus respectivas disciplinas, brindaremos a nuestra audiencia herramientas de análisis sobre los fenómenos políticos, tecnológicos y comunicacionales que observamos. En las próximas semanas publicaremos más contenidos, entre artículos, infografías y otros episodios de Poder Conectado para ayudarte a navegar estas elecciones.



