Antes de probar tu café, el celular ya eligió la mejor ruta, el reloj te recordó moverte y Spotify te recomendó música. Todo gracias a modelos predictivos. Esa misma tecnología, aplicada por arqueólogos, biólogos o sociólogos, guía hoy investigaciones complejas. La inteligencia artificial (IA) se ha vuelto lupa, brújula y sabueso de la ciencia. Promete liberar tiempo para pensar, pero también exige cautela: delegar en exceso puede nublar el juicio crítico que da valor a la investigación. La pregunta ya no es si usarla, sino cómo y hasta dónde.
En ese contexto, el 8 de julio se dio inicio al curso “IA para la investigación”, realizado por la Pontificia Universidad Javeriana —sede Bogotá y seccional Cali— y la Universidad de los Andes. Docentes e investigadores de áreas tan diversas como la electrónica, la lingüística o la economía comparten experiencias y dudas sobre cómo integrar modelos de lenguaje, sistemas de recomendación y visualización automatizada en cada fase del trabajo científico.
No es magia, es historia
El profesor Luis Eduardo Tobón Llano, director del programa de Ingeniería Electrónica de la Pontificia Universidad Javeriana, seccional Cali, abrió su intervención con un salto histórico: “La humanidad lleva milenios ordenando su pensamiento. De los rollos de Alejandría a los tokens de un modelo de lenguaje hay una misma obsesión: predecir el texto que falta”.
Aquellos rollos —unos 700.000 manuscritos conservados en la Biblioteca fundada por los Ptolomeos y clasificados por tema y autor gracias al bibliotecario Zenódoto de Éfeso— fueron la primera gran base de datos de la Antigüedad, un antecedente remoto de las taxonomías que hoy alimentan nuestros algoritmos. Con esa idea desmontó el aura de “magia” que rodea a ChatGPT y compañía: detrás de la sorpresa hay estadística a gran escala.
Luego recurrió a la fábula de Caperucita Roja para describir el trayecto de todo proyecto científico. El bosque es la incertidumbre. El lobo, los sesgos y la sobrecarga de información. El cazador, la IA que ayuda a trazar atajos. Pero advirtió: “tu canasta no puede llevar treinta aplicaciones distintas… escoge una o dos por etapa y domina su uso”.
Sus recomendaciones prácticas de cómo usar diferentes IA en la investigación se resumen así:
- Para exploración bibliográfica: Perplexity, Semantic Scholar o APIs de Google Scholar permiten mapear el terreno en minutos, siempre y cuando el investigador “alimente” las consultas con preguntas bien formuladas (prompts), no con frases genéricas.
- Para lectura asistida: herramientas como Elicit resaltan secciones clave, pero Tobón aconseja “leer a doble pantalla”: IA a la izquierda, PDF original a la derecha, para evitar malinterpretaciones.
- Para redacción y estilo: modelos multilingües ayudan a vencer bloqueos, pero el texto final “debe sonar a ser humano, no a folleto publicitario” afirma el profesor.
- Para revisión crítica: ningún algoritmo detecta la pertinencia contextual de un hallazgo, “la IA se queda en el bosque; cruzar la frontera del conocimiento nos toca a nosotros” concluye Tobón mientras insiste en la triangulación por pares.

Comodidad cognitiva: ¿pensar duele menos?
Al terminar la ponencia se abrió un panel moderado por Alexandra Pomares, directora de Investigación de la Pontificia Universidad Javeriana y doctora en Informática, experta en analítica y gestión de datos. Pomares abrió el debate con la pregunta: ¿Hasta dónde delegaremos el esfuerzo intelectual si la IA escribe, resume y evalúa por nosotros?
Isabel Tejada, lingüista y profesora asociada de la Facultad de Educación de la Universidad de Los Andes, ilustró el problema con un estudio de neurociencia aplicada: estudiantes que redactan primero con su criterio y luego pulen con IA conservan la activación cerebral del pensamiento crítico; quienes empiezan pidiendo que el modelo escriba exhiben menor actividad. El peligro, concluyó Tejada, es saltarse el “sufrimiento fértil” de la formulación de hipótesis.
Ignacio Sarmiento-Barbieri, profesor de la Facultad de Economía de la Universidad de los Andes, complementó con una advertencia clave: “los algoritmos piensan en promedios; la innovación ocurre cuando salimos de la media”. Al analizar proyectos de selección de personal y evaluación crediticia, mostró cómo los modelos reproducen sesgos de género cuando aprenden de historiales misóginos. La moraleja es clara: la IA amplifica lo que le damos.
En esa misma línea, Tobón advirtió sobre la dificultad de corregir las respuestas plausibles pero falsas que dan algunas IA, llamadas alucinaciones: “Verificar cada punto contrafactual puede ser más caro que escribir de cero”. Por ello, recomendó limitar el uso de modelos de lenguaje a aplicaciones de bajo riesgo y siempre bajo supervisión humana. Seguido a eso, Tejada retomó con una observación aguda sobre el sesgo de complacencia: “Versiones recientes de ChatGPT se volvieron exageradamente aduladoras”, reforzando las creencias del usuario en vez de cuestionarlas. En ciencia, eso limita la falsación de hipótesis.
Sarmiento-Barbieri agregó un riesgo poco discutido: jueces que cargan expedientes completos a servicios comerciales y pierden control sobre datos sensibles. Como alternativa, propuso desarrollar modelos cerrados con datos locales y establecer políticas claras sobre qué se puede —y qué no— compartir en la nube. Pomares, por su parte, cerró con una invitación concreta: diseñar rúbricas de uso responsable que obliguen a declarar qué parte del proceso se hizo con IA, cómo se diseñó el prompt y qué correcciones humanas se aplicaron.

La meta es el proceso
La IA promete acortar distancias entre la pregunta y la respuesta, pero la travesía nunca desaparecerá. Como aseguró Tobón, retomando su metáfora con Caperucita: “El camino inicial puede parecer un bosque tenebroso; a medida que avanzas se vuelve familiar, y al final descubres que la meta no era llegar donde la abuela, sino aprender durante el recorrido. La IA difícilmente puede hacer trabajo de campo ni valorar el contexto local; esas labores manuales y éticas nos corresponden a los humanos”.
Ese aprendizaje, coincidieron los panelistas, requiere mantener encendida la llama crítica, resistir la tentación de la comodidad cognitiva y construir marcos éticos que blinden la investigación de sesgos y abuso de datos. En última instancia, la IA podría ser tan revolucionaria como la imprenta y tan limitada como los sesgos de quienes la programan. Ponerla al servicio del conocimiento sin renunciar al rigor es una tarea colectiva. Después de todo, los grandes saltos científicos nacen cuando un humano formula una pregunta que aún no cabe en ningún modelo.
Eventos como este curso interuniversitario demuestran que integrar la IA con sentido crítico ya es parte esencial de la formación investigativa. Tras una primera semana teórica, la segunda del curso se enfoca en la práctica con sesiones sobre casos y limitaciones, codificación asistida y aspectos éticos. El objetivo: fomentar redes académicas y proyectos conjuntos entre las tres universidades, guiados por un uso responsable de la IA.