Antes de probar tu café, el celular ya eligió la mejor ruta, el reloj te recordó moverte y Spotify te recomendó música. Todo gracias a modelos predictivos. Esa misma tecnología, aplicada por arqueólogos, biólogos o sociólogos, guía hoy investigaciones complejas. La inteligencia artificial (IA) se ha vuelto lupa, brújula y sabueso de la ciencia. Promete liberar tiempo para pensar, pero también exige cautela: delegar en exceso puede nublar el juicio crítico que da valor a la investigación. La pregunta ya no es si usarla, sino cómo y hasta dónde.
En ese contexto, el 8 de julio se dio inicio al curso “IA para la investigación”, organizado por el Comité de Cultura y Desarrollo Digital de la Pontificia Universidad Javeriana, con participación de la sede Bogotá y seccional Cali y la Universidad de los Andes. Docentes e investigadores de áreas tan diversas como sistemas, electrónica, lingüística o economía comparten experiencias y dudas sobre cómo integrar modelos de lenguaje, sistemas de recomendación y visualización automatizada en cada fase del trabajo científico.
No es magia, es historia
Andrés Dario Moreno, ingeniero de sistemas y docente javeriano, abrió la jornada con un mapa general del campo. Recorrió la evolución desde la IA simbólica basada en reglas hasta la IA estadística soportada por aprendizaje profundo y explicó por qué los modelos generativos actuales —con miles de millones de parámetros— son apenas un subconjunto de ese ecosistema.
Para ilustrar su potencia, desmenuzó la arquitectura de los modelos de lenguaje (tokens, vectores, transformers) y recordó que “todos los modelos simplifican la realidad; solo algunos resultan útiles”, advirtiendo sobre riesgos como los sesgos de los datos, el alto consumo energético y la opacidad de las “cajas negras”, es decir, la imposibilidad de seguir paso a paso cómo un modelo con miles de parámetros llega a una respuesta. Su mensaje final fue claro: entender la mecánica detrás de la IA es condición para aprovecharla con criterio y no delegar el juicio investigador.
Luego, Luis Eduardo Tobón Llano, director del programa de Ingeniería Electrónica de la Pontificia Universidad Javeriana, seccional Cali, abrió su intervención con un salto histórico: “La humanidad lleva milenios ordenando su pensamiento. De los rollos de Alejandría a los tokens de un modelo de lenguaje hay una misma obsesión: predecir el texto que falta”.

Aquellos rollos —unos 700.000 manuscritos conservados en la Biblioteca fundada por los Ptolomeos y clasificados por tema y autor gracias al bibliotecario Zenódoto de Éfeso— fueron la primera gran base de datos de la Antigüedad, un antecedente remoto de las taxonomías que hoy alimentan nuestros algoritmos. Con esa idea desmontó el aura de “magia” que rodea a ChatGPT y compañía: detrás de la sorpresa hay estadística a gran escala.
Luego recurrió a la fábula de Caperucita Roja para describir el trayecto de todo proyecto científico. El bosque es la incertidumbre. El lobo, los sesgos y la sobrecarga de información. El cazador, la IA que ayuda a enfrentar los lobos y superar obstáculos. Pero advirtió: “tu canasta no puede llevar treinta aplicaciones distintas… escoge una o dos por etapa y domina su uso”.
Sus recomendaciones prácticas de cómo usar diferentes IA en la investigación se resumen así:
- Para exploración bibliográfica: el investigador debe alimentar las consultas con preguntas bien formuladas (prompts), no con frases genéricas.
- Para lectura asistida: “leer a doble pantalla”, afirma Tobón. IA a la izquierda, PDF original a la derecha, para evitar malinterpretaciones.
- Para redacción y estilo: modelos multilingües ayudan a vencer bloqueos, pero el texto final “debe ser escrito por humanos, no parecer la redacción de una máquina” afirma el profesor.
- Para revisión crítica: ningún algoritmo detecta la pertinencia contextual de un hallazgo, “la IA se queda en el bosque; cruzar la frontera del conocimiento nos toca a nosotros” concluye Tobón mientras insiste en la triangulación por pares.
Comodidad cognitiva: ¿pensar duele menos?
Al terminar las ponencias se abrió un panel moderado por Alexandra Pomares, directora de Investigación de la Pontificia Universidad Javeriana y doctora en Informática, experta en analítica y gestión de datos. Pomares abrió el debate con la pregunta: ¿Hasta dónde delegaremos el esfuerzo intelectual si la IA escribe, resume y evalúa por nosotros?

Isabel Tejada, lingüista y profesora asociada de la Facultad de Educación de la Universidad de Los Andes, ilustró el problema con un estudio de neurociencia aplicada: estudiantes que redactan primero con su criterio y luego pulen con IA conservan la activación cerebral del pensamiento crítico; quienes empiezan pidiendo que el modelo escriba exhiben menor actividad. El peligro, concluyó Tejada, es saltarse el “sufrimiento fértil” de la formulación de hipótesis.
Ignacio Sarmiento-Barbieri, profesor de la Facultad de Economía de la Universidad de los Andes, complementó con una advertencia clave: “los algoritmos piensan en promedios; la innovación ocurre cuando salimos de la media”. Al analizar proyectos de selección de personal y evaluación crediticia, mostró cómo los modelos reproducen sesgos de género cuando aprenden de historiales misóginos. La moraleja es clara: la IA amplifica lo que le damos.
En esa misma línea, Tobón advirtió sobre la dificultad de corregir las respuestas plausibles pero falsas que dan algunas IA, llamadas alucinaciones: “verificar cada texto generado por IA, puede ser más caro”. Por ello, recomendó limitar el uso de modelos de lenguaje a aplicaciones de bajo riesgo y siempre bajo supervisión humana. Seguido a eso, Tejada retomó con una observación aguda sobre el sesgo de complacencia: “Versiones recientes de ChatGPT se volvieron exageradamente aduladoras”, reforzando las creencias del usuario en vez de cuestionarlas. En ciencia, eso limita la falsación de hipótesis.
Sarmiento-Barbieri agregó un riesgo poco discutido: jueces que cargan expedientes completos a servicios comerciales y pierden control sobre datos sensibles. Como alternativa, propuso desarrollar modelos cerrados con datos locales y establecer políticas claras sobre qué se puede —y qué no— compartir en la nube. Pomares, por su parte, cerró con una invitación concreta: diseñar rúbricas de uso responsable que obliguen a declarar qué parte del proceso se hizo con IA, cómo se diseñó el prompt y qué correcciones humanas se aplicaron.
La meta es el proceso
La inteligencia artificial promete acortar distancias entre la pregunta y la respuesta, pero la travesía del conocimiento nunca desaparecerá. Como señaló Tobón, “el camino puede parecer incierto al principio, pero a medida que se avanza se vuelve más claro, y al final se comprende que el verdadero valor está en lo aprendido durante el recorrido. La IA difícilmente puede realizar trabajo de campo o comprender a fondo el contexto local; esas tareas, tanto manuales como éticas, siguen siendo responsabilidad de los seres humanos”.

Ese aprendizaje, coincidieron los panelistas, requiere mantener encendida la llama crítica, resistir la tentación de la comodidad cognitiva y construir marcos éticos que blinden la investigación de sesgos y abuso de datos. En última instancia, la IA podría ser tan revolucionaria como la imprenta y tan limitada como los sesgos de quienes la programan. Ponerla al servicio del conocimiento sin renunciar al rigor es una tarea colectiva. Después de todo, los grandes saltos científicos nacen cuando un humano formula una pregunta que aún no cabe en ningún modelo.
Eventos como este curso interuniversitario —impulsado por la Pontificia Universidad Javeriana, a través del Comité de Cultura y Desarrollo Digital, la Vicerrectoría de Investigación y la Oficina de Investigación y Desarrollo de la seccional Cali, así como por la Vicerrectoría de Transformación Digital de la Universidad de los Andes— demuestran que integrar la inteligencia artificial con sentido crítico ya es parte esencial de la formación investigativa. La segunda semana del curso continua sesiones sobre casos y limitaciones, codificación asistida y aspectos éticos. El objetivo: fomentar redes académicas y proyectos conjuntos entre las tres universidades, guiados por un uso responsable de la IA.