La inteligencia artificial (IA) ha dejado de ser un campo especializado y ha pasado a convertirse en una herramienta transversal para la ciencia. Hoy apoya distintas labores: analizar grandes volúmenes de datos, hacer revisiones de literatura, modelar fenómenos complejos y generar nuevas hipótesis de trabajo. También se implementa para acompañar tareas como la redacción y edición de manuscritos, la preparación de propuestas de financiación y la divulgación científica. Incluso, en la evaluación preliminar de proyectos o artículos.
La IA y, en particular, la IA generativa han llegado con una promesa tan potente como inquietante: hacer ciencia más rápido y con un alcance sin precedentes. Algunos medios han reportado que su utilización puede aumentar la productividad científica entre un 30 % y un 50 %, o reducir el tiempo necesario para completar tesis doctorales. Pero exige algo igual de urgente: deliberación ética, ¿qué tipo de ciencia —y qué tipo de futuro— estamos construyendo al incorporar estas tecnologías? Esta no es solo una discusión técnica, sino ética, política y con una dimensión humana fundamental.
La urgencia de esta interpelación se hace evidente en la práctica cotidiana de la investigación. En un proceso reciente de revisión ética, un comité solicitó a un equipo de investigadores que explicitara el empleo de la IA anunciado en su proyecto. La respuesta describía la herramienta, pero no daba cuenta de los dilemas éticos ni de las acciones para abordarlos. Este caso, que no es aislado, refleja una brecha creciente entre la adopción cotidiana de la IA y la capacidad de dimensionar sus implicaciones axiológicas, lo que revela un desafío colectivo: estamos aprendiendo a incorporar estas tecnologías más rápido de lo que estamos aprendiendo a deliberar sobre sus consecuencias e implicaciones.
El uso de IA en la investigación plantea cuestiones éticas novedosas y complejas. Por ejemplo, sus sistemas se basan en conjuntos de datos que pueden reproducir sesgos. A ello se suman riesgos relacionados con la confidencialidad, la intimidad y la protección de datos. Revistas científicas y universidades han advertido que algunos investigadores han cargado herramientas de IA con los datos preliminares, borradores de artículos, documentos en revisión o datos sensibles de los participantes en sus estudios, sin preguntarse por las condiciones tecnológicas o estrategias que garanticen la protección de la información.
Frente a escenarios como estos, crece la necesidad de contar con orientaciones éticas y marcos regulatorios. A nivel internacional se cuenta con los “Principios de la IA” formulados por la Organización para la Cooperación y el Desarrollo Económicos (OCDE) —adoptados por Colombia—. En la región, países como Chile y México han avanzado en sus propias normativas sobre la materia. Aunque muchas de estas regulaciones no son específicas para la investigación, incorporan principios fundamentales: el respeto por los valores democráticos y los derechos humanos (incluidos la equidad, la no discriminación y la privacidad); la transparencia y la explicabilidad; la rendición de cuentas y la responsabilidad; la supervisión humana efectiva; la seguridad y la sostenibilidad.
Editoriales académicas y asociaciones científicas han emitido lineamientos que coinciden en un punto central: la responsabilidad por la originalidad, la veracidad y la integridad del trabajo científico sigue siendo humana. La utilización de la IA debe declararse y revisarse críticamente para evitar el plagio, las imprecisiones y los errores. Los expertos han señalado la necesidad de integrar la IA de manera coherente con buenas prácticas de investigación; adoptar medidas para identificar y controlar sesgos; y evaluar éticamente su implementación cuando pueda afectar a los participantes de un proyecto investigativo.
Muchos de estos avances se han concentrado en la escritura académica, abriendo el camino para una reflexión más profunda sobre la incorporación ética de la IA a lo largo de todo el ciclo de la investigación. Las universidades tienen la responsabilidad de liderar un debate informado, crítico y plural, y de fortalecer la alfabetización digital para integrar la IA de manera reflexiva y responsable. El fin debe ser construir una cultura de uso ético y responsable de la IA, que sirva de brújula para orientar decisiones en contextos de incertidumbre, proteger la calidad del conocimiento y mantener la confianza social en la ciencia.



