Pasos hacia la investigación científica de punta

Pasos hacia la investigación científica de punta

Mercè Crosas, doctora en astrofísica y directora del Instituto de Ciencias Sociales Cuantitativas de la Universidad de Harvard, compartió con Pesquisa Javeriana algunos consejos para alcanzar los modelos de investigación de alta calidad y las estrategias para el manejo de grandes cantidades de información en áreas del conocimiento que aún no han sido exploradas.

La académica participó en el evento ‘Construcción de capacidades para la investigación internacional – Building Capacities for International Research’, realizado en marzo en las instalaciones de la Pontificia Universidad Javeriana, un conversatorio impulsado por la Vicerrectoría de Investigación de la institución para actualizar los estándares científicos de investigación y conocer las experiencias en la materia de uno de los centros académicos más reputados del mundo.

Durante la entrevista, Crosas ofreció recomendaciones sobre el uso datos en la era del internet y los retos que tiene la comunidad científica en el manejo de fuentes de información durante procesos de investigación. “Es fundamental saber si se tiene la infraestructura necesaria para administrar los datos, tener herramientas que les permitan a los científicos organizar la información y crear un plan con los investigadores para saber qué datos se piensan colectar y cuáles no”, resaltó.

Además, señaló que uno de los retos más importantes actualmente respecto al manejo de la información tiene que ver con “la transparencia de los datos y el uso que se les da a estos, ya que se trabaja con seres humanos y es necesario hacer estudios de cómo preservar su privacidad”.

Pesquisa Javeriana conversó con ella sobre otros temas de interés durante su estadía en Colombia. Esta es nuestra entrevista:

Capillas doctrineras: a prueba del tiempo y de la historia

Capillas doctrineras: a prueba del tiempo y de la historia

Hoy en día, en la zona cundiboyacense, existen 125 capillas doctrineras, muchas construidas entre los siglos XVI y XVIII. De acuerdo con los relatos de los cronistas, numerosas capillas erigidas en esta época desaparecieron o se vieron seriamente afectadas por movimientos telúricos. A pesar de este riesgo, apenas 14 han sido declaradas como monumentos nacionales y cuentan con medidas de protección y preservación.

La mayor parte de estas construcciones fueron edificadas con las técnicas de la época, entre las cuales, como es de imaginar, no se tenía en cuenta la sismorresistencia, lo que significa que los templos, testimonio vivo de nuestra historia, están en riesgo.

Conscientes del reto que implica la conservación de este patrimonio a nivel técnico, la arquitecta Cecilia López y el ingeniero Daniel Ruiz, de la Pontifica Universidad Javeriana, desarrollaron una investigación en la que dialogan las dos disciplinas y cuyos resultados plantean estrategias para que estos tesoros históricos sobrevivan al paso del tiempo y a la fuerza de la naturaleza.


Tesoros hechos de tierra

Con la llegada de los españoles a nuestro territorio, la vida de los indígenas cambió de manera radical: se instauró un nuevo orden social, político y cultural de la mano del adoctrinamiento en la fe cristiana. Entre los años 1500 y 1800 las iglesias fueron las construcciones más importantes de los nuevos pueblos; constituían uno de los ingredientes fundamentales del corazón de los territorios y fueron claves en la transformación que dio paso a una fusión cultural, de la cual somos fruto como nación.

Estos templos son vestigios en los que es posible escrutar la transformación de buena parte del territorio colombiano. La capilla doctrinera y la plaza central formaban un eje a partir del cual se desarrollaba la disposición de las calles y manzanas. “Las capillas eran lugares de encuentro social, puntos de referencia urbana, lugares de eventos culturales y de participación en actividades religiosas. Adicionalmente, eran el punto de partida de los misioneros para extender las actividades de adoctrinamiento en los nuevos territorios conquistados”, explica Cecilia López.

Según las Leyes de Indias, las capillas doctrineras Para la cubierta se usaba el sistema de par y nudillo, es decir, eran cubiertas a dos aguas, soportadas sobre estructuras de madera que, a su vez, sostenían un tendido hecho con cañas, cubierto con barro y tejas.
Según las Leyes de Indias, las capillas doctrineras se soportaban sobre estructuras de madera que, a su vez, sostenían un tendido hecho con cañas, cubierto con barro y tejas.

De acuerdo con lo establecido en las Leyes de Indias y en los contratos de construcción, los colonos tenían instrucciones claras sobre cómo debían edificarlas: tener entre 8,4 y 10,1 m de ancho, entre 42 y 45 m de largo y una altura aproximada de 5 m. Para la cubierta se usaba el sistema de par y nudillo, es decir, eran cubiertas a dos aguas, soportadas sobre estructuras de madera que, a su vez, sostenían un tendido hecho con cañas, cubierto con barro y tejas. La capilla mayor debía ser cuadrada u ochavada (que formaba un polígono de ocho ángulos). En cuanto a la iluminación, debían tener diez ventanas: seis para el cuerpo de la iglesia y cuatro para el presbiterio.

“Las capillas eran lugares de encuentro social, puntos de referencia urbano, lugares de eventos culturales y de participación en actividades religiosas. Adicionalmente, eran el punto de partida de los misioneros para extender las actividades de adoctrinamiento en los nuevos territorios conquistados”.

Cecilia López
Arquitecta y docente, Universidad Javeriana

Aunque no todas cumplían al pie de la letra con estas reglas, en lo que sí coincidían era en que todas estaban construidas en adobe y tapia pisada, lo que hoy se conoce como ‘construcción en tierra’. Significa que se levantaban a partir de adobes o segmentos de muros hechos de una mezcla de tierra y otros materiales sin cocer, es decir, secados al sol. “Hoy en día esta técnica está prohibida en la construcción, pues se ha demostrado que es poco segura, especialmente en caso de que ocurran sismos y terremotos”, explica Ruiz.

Sorprendentemente, muchas de nuestras capillas doctrineras aún se encuentran en pie; sin embargo, son vulnerables a los terremotos, sucesos en los que estarían en peligro no solo los inmuebles, sino, sobre todo, las vidas humanas. Por este motivo, los investigadores se dieron a la tarea de poner a prueba versiones a escala de 1:50 de las iglesias reales utilizando técnicas descritas en otros estudios, como recubrir los muros con estructuras de mallas de acero o de madera. Cada una de estas técnicas fue probada en dos condiciones: por la cara interna y externa de los muros y solo por la cara externa.

En la mesa vibratoria del Laboratorio de Pruebas y Ensayos de la Javeriana se puso a prueba la sismorresistencia de las pequeñas capillas; allí fueron sometidas a un movimiento equivalente al de un sismo de 7,6 de magnitud y con epicentro a 40 km, acorde con la amenaza sísmica real de Bogotá.

Se constató que, tanto si el refuerzo estaba por dentro y por fuera o solo por fuera, la mejor técnica para preservar la construcción es el refuerzo en madera. Ruiz explica que esta técnica de maderas de confinamiento logró que los muros reforzados por una sola cara tuvieran un nivel de desplazamiento menor a la mitad del desplazamiento frente al de los modelos sin refuerzo.

Por su parte, cuando se reforzaron con madera ambas caras de los muros, los niveles de desplazamiento se redujeron a la séptima parte de los movimientos de los muros sin refuerzo. “Así, ante un sismo con una magnitud mayor a 7,0 en la escala de Richter, el movimiento de las capillas reforzadas se reduce en al menos el 50 %, y en ninguno de los casos la estructura reforzada colapsaría”.

En la mesa vibratoria del Laboratorio de Pruebas y Ensayos se probó la sismorresistencia de las capillas construidas a escala, una vez los investigadores aplicaron técnicas de recubrimiento en sus muros.
En la mesa vibratoria del Laboratorio de Pruebas y Ensayos se probó la sismorresistencia de las capillas construidas a escala, una vez los investigadores aplicaron técnicas de recubrimiento en sus muros.

Esta investigación es el culmen de 15 años de trabajo en aspectos históricos, arquitectónicos, de análisis del material y comportamiento estructural. “Todos estos años hemos trabajado juntos de forma continua y aunque estos son los resultados de la última investigación, no se habría podido llegar al conocimiento tan preciso que ahora tenemos si no hubiéramos realizado todas las investigaciones previas”, expone López.

Este trabajo conjunto es un buen ejemplo de cómo, al tender puentes entre disciplinas, se pueden hallar respuestas a problemas cotidianos, como preservar la memoria arquitectónica y cultural, sintetizada en las capillas doctrineras, así como en otras edificaciones patrimoniales construidas en tierra que deben ser protegidas. “Con la información obtenida se pretende implementar estos sistemas de refuerzo en distintas tipologías que igualmente tiene gran valor arquitectónico y cultural para nuestra nación”, concluye López.


TÍTULO DE LA INVESTIGACIÓN: Ensayos en mesa vibratoria de capillas doctrineras a escala, con o sin refuerzo
INVESTIGADORES PRINCIPALES: Cecilia López Pérez y Daniel Ruiz Valencia
Grupo de investigación Materiales y Estructuras
Departamentos de Arquitectura y de Ingeniería Civil
PERIODO DE LA INVESTIGACIÓN: 2014-2015

Vías más duraderas gracias a los nanomateriales

Vías más duraderas gracias a los nanomateriales

La historia de vida de un pavimento parece estar basada en la de un héroe trágico de la Grecia antigua. Ya sea en asfalto o concreto, debe resistir las peores pruebas de esfuerzo, fatiga, peso, altas temperaturas y lluvia a las que se enfrentará día tras día hasta su desgaste total. La construcción creciente de vías y autopistas que conecten el país hace necesario pensar que los materiales que las sustentan sean de la mayor durabilidad posible, lo cual, en el mejor de los casos, es de siete u ocho años, y en el peor, de dos y medio a tres.

Bajo este interés, el grupo de investigadores javerianos liderado por el ingeniero civil Fredy Reyes Lizcano, master en Geotecnia y Estructuras y doctor en Ciencias del Ingeniero, se orientó por explorar materiales que pudieran añadirse a la mezcla asfáltica y así mejorar su desempeño y durabilidad. En este camino su exploración se cruzó con las potencialidades de los nanomateriales, pues los asfaltos suelen modificarse al recurrir a elementos como los plásticos o el caucho.

“El sueño de un investigador es solucionar todas las características de resistencia mecánicas que deben tener estos materiales: mejoras en fatiga que alarguen la vida útil del pavimento, aumento en los módulos dinámicos de las mezclas (más resistencia) y que sean menos deformables a los cambios de temperatura. Los polímeros arreglan una u otra característica, pero con estos materiales vimos que era factible que todas las circunstancias mejoren”, indicó Reyes.

El equipo encontró que las mezclas asfálticas modificadas, es decir, que contenían adición de nanoparticulas de carbono, resistían hasta el doble de tiempo que las mezclas normales o modificadas con otros materiales.

El asfalto en Colombia mantiene unas características controladas pues su fabricación solo está a cargo de Ecopetrol, que genera una producción estandarizada llamada asfalto 60/70, el cual, para ser puesto sobre la vía, debe combinarse con piedras y rocas que sirven de piso a la mezcla. A esto se le denomina agregados y, en nuestro país, al ser las cordilleras muy jóvenes, no cuentan con la dureza idónea para darle durabilidad a la mezcla asfáltica. Dado el clima lluvioso, se aceleran en tiempos muy cortos los daños y cambios del asfalto por la humedad.

Ante esta problemática surge la experimentación con elementos que presenten desde el ámbito químico y físico la mejor combinación de características que aporten a un asfalto de mejor calidad. “Buscamos un material que solucione variables como la adherencia, esa disposición del asfalto a pegarse mejor con los agregados o piedritas y la cohesión, que no lo destruya el agua. Que sea un material más resistente a la intemperie”, indica Reyes.

Esa búsqueda de mejores materiales llevó al equipo de ingenieros javerianos a cruzar sus caminos con la química. Desde esa área del conocimiento, las nanopartículas de carbono no eran un producto deseable sino un residuo que resultaba del interés por producir hidrógeno; de esta forma se combinaron dos intereses: lo que para uno era un desperdicio que no sabían cómo aprovechar era de vital utilidad para las investigaciones de otro campo del saber. Así se inició un trabajo para lograr en laboratorio la síntesis de los nanotubos.


Dame una nano-partícula

Los nanotubos de carbono son una formación generada artificialmente a partir de su síntesis mediante ciertos procedimientos químicos. Son láminas de grafeno (una de la formas químicas que adquiere el carbono) que se han cerrado de forma cilíndrica como si fueran tallos de bambú infinitamente diminutos y pueden contener una o varias paredes. Si lo comparamos con otros elementos tendríamos que los nanotubos no miden más de 100 nanómetros (los virus llegan a 50 nanómetros y las proteínas y el ADN, a un nanómetro).

“Los nanotubos son materiales altamente resistentes, casi 100 veces más que el acero. Transmiten bien las condiciones de calor y los módulos de Young (resistencia) son bastante altos. Dentro del asfalto se asimilaría a poner acero dentro del concreto y, como ese procedimiento no se puede hacer, se refuerza con algo tan pequeño como un nanomaterial”, explica el profesor Reyes.

Así lucen los nanomateriales desarrollados por los investigadores javerianos. / Cortesía
Así lucen los nanomateriales desarrollados por los investigadores javerianos. / Cortesía

De la síntesis del carbono pueden salir como productos los nanotubos o las nanofibras que dependerán del número de paredes que tengan a nivel nanoscópico, e incluso tener la forma de una dona. Estos nanotubos, nanofibras y nanohebras serán más resistentes entre más paredes los conformen. “Dadas estas propiedades quisimos ver qué sucede con los asfaltos, ya que a los nanotubos no les gusta el agua y lo que queremos es que nuestros pavimentos no tengan presencia de agua dentro de la mezcla, que las expulsen”, añade Reyes.

Es en este punto donde todo el saber de la química sirvió de base para los intereses del proyecto, dado que era necesario estudiar a fondo las propiedades de los nanotubos. Así fue como se vincularon diversos docentes de ese departamento, como el químico Alejandro Pérez Flórez, doctor en Química con postdoctorado en Materiales del Instituto de Materiales en la Universidad de Sevilla, España. “Los asfaltos se desgastan fácilmente por la acción del agua y los nanocompuestos de carbono son hidrofóbicos, no les gusta el agua, entonces, ante esta propiedad y la necesidad de usar estos nanocompuestos que nosotros estábamos desechando, se estableció un trabajo conjunto con ingeniería”, explica.

Para la síntesis de los nanotubos de carbono se realiza un procedimiento llamado deposición catalítica: a través de un catalizador, un material que sirve de medio para obtener otro, se logra la producción del nanomaterial. En este caso se emplearon óxidos metálicos del cobre, niquel y aluminio como catalizadores.

Así detalla el profesor Reyes el proceso: “Ese catalizador se calcina y se dispone dentro de un tubo de cuarzo al cual se le aplica gas metano; al pasar este gas caliente se genera una combustión y se van formando los nanotubos. Es decir, ellos están creciendo a partir del niquel, al cual se adhieren, los otros dos metales ayudan a la combustión y se consumen, y al final quedan algunas impurezas que se pueden o no eliminar”.

Pérez destaca que los nanotubos son muy buenos enlazando los compuestos presentes en el asfalto. “Toman las partes más fuertes y hacen que no se separen tan pronto, evitando así el desgaste. Además, son como resortes y al poderse elongar permiten una elasticidad sin llegar a la fractura. Cuando un asfalto es demasiado rígido genera una fractura debido al peso de los vehículos”.

Este proceso se pudo concretar luego de muchas pruebas y ensayos de laboratorio para encontrar los catalizadores correctos, las relaciones químicas exactas y las condiciones idóneas para lograr la producción con mejor rendimiento de nanomateriales. “Observamos qué efectos tendrían diferentes porcentajes de adición sobre el asfalto y qué importancia, si eran de pared simple o pared múltiple, nanofibras o nanohebras”, explica Reyes.

El resultado con mayor éxito fue el que permitió que de medio gramo de catalizador se saquen cuatro o cinco gramos de nanotubos. Una cantidad aún pequeña a escala industrial pero ideal para las pruebas en la mezcla asfáltica. Este es quizás uno de los retos del proyecto, establecer una producción rentable de un material con excelentes condiciones para usarse industrialmente.


El mejor asfalto

Una vez generados los nanotubos de carbono, lo siguiente fue realizar las pruebas necesarias para evidenciar si sus características mejoraban las condiciones del asfalto. Para ello se hicieron hasta cuatro combinaciones con pavimento y la mejor relación se dio con un 2% de presencia de nanomateriales adheridos.

Los ensayos también se hicieron comparando asfalto sin modificar y el asfalto modificado tanto con impurezas (los restos de los metales usado en la síntesis) como limpios. Bajo estas condiciones se realizaron pruebas de laboratorio como el desempeño en altas temperaturas, resistencia a la deformación (Multi Stress Recovery) o la fatiga del material.

“En un asfalto convencional podemos tener 25.000% de deformación y, cuando lo modificamos con una de las mejores combinaciones de nanotubos, se logra disminuir a menos de 5.000%. Eso es cinco veces menos deformable de lo que es el asfalto natural. Caso similar ocurre con la fatiga, con una adición del 2%, en un mismo segmento deformado se logra el doble de vida útil de ese material”, expresó Reyes.

Estas ventajas para los investigadores resultan notables pues se llegan a números similares a los de otro tipo de asfaltos modificados y sin sus fallas; incluso, los rendimientos se mantuvieron en el último escenario de ensayo, el cual fue probar la mezcla junto a los agregados.

Se verificaron factores como el ahuecamiento, fatiga, los módulos dinámicos (resistencia), para así calcular qué tanto va a soportar el material instalado en la vía. “Tuvimos registros similares o mayores a los que presenta a un asfalto modificado con caucho. Esto con la ventaja de que nuestra mezcla modificada es muy flexible a la fatiga, muy resistente por el aumento de los módulos dinámicos y a temperaturas y cargas elevadas. En general, estamos obteniendo un material que puede solucionar absolutamente todo lo que afecta regularmente al asfalto”, expresa Reyes.


Una relación con química

A raíz de todos los ensayos realizados por este proyecto se robusteció el área de ingeniería civil al consolidar su laboratorio para las pruebas químicas y físicas requeridas.

Con el trabajo conjunto con el departamento de Química no solo se conoce qué es sino cómo usar este nuevo material de la manera más eficiente. “Muchos de los ensayos que se hacen en ingeniería son a nivel físico-mecánicos, de cuánto o no resiste un material, pero ahora se busca conocer a profundidad las propiedades químicas de los materiales, en estos momentos, no es suficiente decir si un material es bueno o no, si no el porqué. Internamente conocer con detalle los materiales y al tener ese conocimiento químico, podremos mejorar cada vez más sus propiedades físicas y mecánicas”, indica el profesor Pérez.

Esa visión interdisciplinar también ha sido vital desde el área de la ingeniería, “los temas no se deben resolver desde una sola disciplina sino que hay que ser multidisciplinario. Solamente visto desde la ingeniera civil se queda corto el alcance; visto desde las ciencias puras, como la química, entonces no se sabe bien la aplicación. Es necesaria la aplicación de ambos”, concluye Reyes.


TÍTULO DE LA INVESTIGACIÓN: Nanotubos de carbono para el mejoramiento de la mezcla asfáltica mdc-2 y del asfalto 60/70
INVESTIGADORES: Fredy Alberto Reyes (ingeniero civil, M.Sc., Ph.D.), Carlos Daza (químico, Ph.D), Alejandro Pérez (químico, Ph.D)
Facultad de Ingeniería (Departamento de Ingeniería Civil)
Facultad de Ciencias (Departamento de Química)
Grupo Cecata
Pontificia Universidad Javeriana:
PERIODO DE LA INVESTIGACIÓN: 2012-2016.

Objetivo: elevar la calidad de la carne de cerdo

Objetivo: elevar la calidad de la carne de cerdo

Una mirada rápida a la sección de carnes frías de cualquier supermercado colombiano lo confirma: ante la vista danzan salchichas, jamones, salchichones, tocineta, costillitas precocidas o cortes convencionales como el lomo, la chuleta, la panceta, el solomillo y demás. El país se ha volcado hacia la carne de cerdo, una realidad que no se puede obviar: según datos de Porkcolombia, que agremia a los porcicultores, el consumo per cápita pasó de 3,3 kilogramos por habitante en 2005 a 8,5 kilogramos en 2016.

Lo más curioso de este incremento es que, por décadas, la carne de cerdo estuvo vetada en el inconsciente cultural colombiano ya que solía considerársele fuente de enfermedades y un alto riesgo para la salud si no se cocinaba bien. Detrás de esas cifras se esconde un constante esfuerzo estatal y gremial por eliminar esos tabúes, y el trabajo de una investigadora javeriana por consolidar las mejores prácticas de inocuidad al interior de las plantas de beneficio.

“En la medida en que se puedan aumentar las medidas de bioseguridad, se puede reducir el riesgo de enfermedad”, resalta la bacterióloga Ana Karina Carrascal, magíster en microbiología y profesora asociada del Departamento de Microbiología de la Pontificia Universidad Javeriana. Una de sus especialidades es la investigación para reducir el riesgo de contagio por Salmonella, bacteria que se transmite a los humanos por la ingesta de alimentos contaminados y que en el pasado marcó la cautela del consumidor sobre la carne de cerdo.

La suya no es una preocupación menor. La Organización Mundial de la Salud (OMS) ha identificado a las enfermedades transmitidas por alimentos (ETA) como una preocupación relevante por sus altos niveles de contagio, equiparables a los del VIH/SIDA, el paludismo o la tuberculosis; de este grupo, la salmonelosis, causada por distintas variedades de salmonella, se ha convertido en una fuente recurrente de enfermedades diarreicas que afectan, principalmente, a los niños.

Datos del Instituto Nacional de Salud (INS) revelan que, en Colombia, la preocupación es latente, pues los casos reportados de salmonelosis pasaron de 2.983 en el año 2000 a 11.425 en 2014; de hecho, entre enero y mediados de septiembre de 2017, se reportaron 74 casos probables de muerte por enfermedad diarreica aguda en menores de cinco años (todos están en estudio para definir sus causas y su epidemiología).

El trabajo de la profesora Carrascal se ha concentrado en realizar la trazabilidad de la salmonella desde su origen hasta el producto en el punto de comercialización. De allí que haya concentrado su atención en las condiciones de cría de los animales –la bacteria no ataca únicamente al cerdo– en las granjas colombianas. “Parte del ejercicio de control es que la granja tenga implementadas buenas prácticas porcícolas”, explica.

Se refiere al uso de aguas recicladas no tratadas en la fase de cría y engorde, y también en la siembra, pues los vegetales también pueden contaminarse; asimismo, evitar el uso de fertilizantes naturales no estabilizados. Y, en especial, no alimentar a los animales con desperdicios sino con un buen concentrado.

Ya en el hogar, la recomendación es simple: la salmonelosis se evita al desinfectar los alimentos (algunas personas usan hipoclorito), lavarlos con agua potable y cocinarlos muy bien.


La vía hacia la agrocadena

La preocupación de la industria porcicultora y del Gobierno por mejorar la calidad de la carne de cerdo se remonta a 2008, durante la negociación de tratados de libre comercio para abrirles nuevos mercados a los productores colombianos. Para entonces, dentro del Conpes 3375 de 2005 se evaluaron las condiciones sanitarias de producción de alimentos con resultados desalentadores: una desactualización de los protocolos sanitarios, problemas de vigilancia para hacer cumplir las normas y una gran distancia frente a los protocolos fitosanitarios establecidos por la Organización Mundial del Comercio (OMC).

Para contrarrestar este panorama, se asignaron recursos del Ministerio de Agricultura para que gremios y universidades emprendieran acciones conjuntas, las cuales derivaron en un primer estudio que estableció, hacia 2011, que la prevalencia de salmonella en la industria colombiana de cárnicos y sus derivados ascendía al 12%, muy por encima de los estándares internacionales y de países como México y Chile, líderes en el tema de estándares de inocuidad en sus plantas.

El hallazgo bastó para que se tomaran cartas en el asunto. En una nueva convocatoria financiada por Colciencias, Porkcolombia contactó a Carrascal para ejecutar un plan de choque en cuanto a medidas sanitarias. En los meses siguientes se implementaron o reforzaron nuevos protocolos en las plantas de beneficio del país, tales como la anudación del recto (la salmonella se cría en el intestino animal y se expulsa por las heces), la identificación de los sectores críticos de contaminación, los constantes lavados en las canales, la reiteración del lavado y desinfección de manos y botas de los operarios, el diseño de documentos y estrategias de su entrenamiento, entre otros.

“No estábamos tan lejos de los estándares internacionales, que podíamos mejorar con pequeñas intervenciones. Así logramos bajar esa prevalencia a 6%”, resalta Carrascal.

Ley
A pesar del aumento en el consumo, Colombia no beneficia la suficiente cantidad de cerdos para cubrir su demanda interna.

Sin embargo, para consolidar aún más el sector, en 2015 el Ministerio nuevamente destinó dineros a Porkcolombia para llevar a cabo un estudio sobre las condiciones de inocuidad en todo el país, centrándose especialmente en los residuos antimicrobianos y la salmonella. A esta dimensión, en la que se contó con el apoyo de cerca del 70% de los porcicultores colombianos, se llevaron las mejores prácticas a todo el país; sin embargo, al aumentar el universo, la prevalencia de salmonella volvió a subir a niveles del 14%.

Aunque, de primera mano, pueda considerarse un dato negativo, la industria porcícola ha entendido que el trabajo a seguir va por la vía de la innovación. Gracias a diferentes visitas a países productores, la industria ha decidido adoptar el estándar europeo de agrocadena, que impulsa a las empresas a minimizar los riesgos de salud a lo largo de todo el proceso: en la granja donde se cría el animal, en los camiones de transporte, en la planta donde se procesa la carne, en la góndola donde se le vende al consumidor final.

“Está demostrado que quien es dueño de toda una agrocadena es capaz de reducir los patógenos porque sabe lo que le cuesta en el precio final”, explica Carrascal, quien prepara un nuevo proyecto de investigación para elevar las condiciones sanitarias en las granjas de cría y engorde.

A nivel de la industria, los empresarios trabajan fuertemente en ampliar la cría de cerdos, pues, aunque el consumo per cápita en el país ha aumentado, no existen los animales suficientes para cubrir la demanda nacional.

Las cifras de Porkcolombia muestran que en 2016 se beneficiaron más de 4 millones de cabezas, un aumento significativo del 12,4% frente al año anterior; aunque esto supuso que el mercado interno obtuviera una oferta de 358.743 toneladas de carne de cerdo, la demanda es tan alta que Colombia importó (a octubre de 2016, según el Dane) 33.494 toneladas, que comprendieron el 83,3% de las compras totales de carne que hizo el país.

El camino, entonces, está trazado: con una industria aún más fuerte, con procesos de punta en materia de inocuidad, se podría afrontar ese escenario, aparentemente imposible, de exportar carne de cerdo. Así lo demuestra el interés de países como Perú y Corea del Sur de probar la carne colombiana por sus buenos estándares, pero es un futuro que, necesariamente, necesitará de nuevas inversiones en investigación y desarrollos.

Y, especialmente, en aplicación de medidas urgentes. Eso lo tiene muy claro la profesora Carrascal con su experiencia trabajando de la mano de la industria: “Hemos hecho cosas aplicables, no pensadas para muy largo plazo. Hemos generado recurso humano y técnico, hemos publicado cartillas y manuales que sirven a la industria. Por eso no nos gusta hablar de innovación sino de transferencia de conocimiento, porque no se puede innovar si no se ha resuelto lo básico”.


TÍTULO DE LA INVESTIGACIÓN: Evaluación y caracterización microbiológica de la carne de cerdo y derivados cárnicos como contribución a la garantía de inocuidad en la cadena porcícola
INVESTIGADORA: Ana Karina Carrascal
PERIODO DE LA INVESTIGACIÓN: 2008-2011
Con el apoyo del Ministerio de Agricultura y Desarrollo Rural
Pontificia Universidad Javeriana
Facultad de Ciencias
Departamento de Microbiología

 

TÍTULO DE LA INVESTIGACIÓN: Diseño de un plan integral para reducir la prevalencia de Salmonella spp. y Listeria monocytogenes en plantas de beneficio, desposte y puntos de venta en la cadena cárnica porcina
INVESTIGADORA: Ana Karina Carrascal
DURACIÓN: 2013-2014
Con el apoyo de Colciencias y PorkColombia
Pontificia Universidad Javeriana
Facultad de Ciencias
Departamento de Microbiología

El anatomista

El anatomista

Sostengo con ambas manos el resbaladizo corazón de un cerdo recién llegado de un expendio de carnes local al Departamento de Ciencias Básicas de la Salud de la Universidad Javeriana Cali. El órgano en forma de cono es morfológicamente idéntico al de un humano, quizás algo más grande. Del otro lado de la mesa de disección, en el Laboratorio de Psicología, el profesor de anatomía Guillermo Adrián Rivera Cardona trabaja diestramente, limpiando y separando las arterias de las paredes del músculo con un par de tijeras diseñadas para cortar tejidos delicados sin perforarlos.

“Esta es la arteria interventricular anterior, pero no se puede ver, pues siempre está cubierta por grasa. Y estas otras son las coronarias; observamos que son tan delgadas como la mina de un lápiz. Esas son las que se taponan con coágulos o trozos de colesterol”, dice el profesor con la seguridad del que ha hecho esto miles de veces. “Necesitamos que los estudiantes de medicina las identifiquen fácilmente. Por eso les enseñamos lo que estamos haciendo ahora: una repleción vascular de corazón. En otras palabras, entrar a una estructura hueca con un tubo plástico e inyectar una resina con un pigmento rojo o azul para representar el color de la sangre, de tal manera que la estructura se llena y la vena o arteria se hace claramente visible”.

Tener en la mano un corazón real y tridimensional es infinitamente más valioso que verlo en un atlas de medicina o incluso en un software, por sofisticado que este sea. Por eso, la repleción de órganos es apenas una de las técnicas de preservación anatómica en las que trabaja el profesor Rivera. La más novedosa de todas reposa en el cuarto de al lado, aún empacada en cajas provenientes de la empresa Biodur, recién llegadas de Heidelberg, Alemania.

Son los equipos para la plastinación, un proceso creado en 1977 por Gunther von Hagens, el cual preserva tejidos, órganos y cuerpos enteros, reemplazando el agua y la grasa con resinas especiales. La plastinación produce muestras –como órganos o especímenes– que no huelen, no se dañan, que pueden ser manipulados por los estudiantes, y que retienen al mismo tiempo sus propiedades originales. “No la llamamos plastificación porque eso suena como fabricar juguetes”, explica Rivera. Uno de los ejemplos más llamativos de la tecnología se aprecia en el evento internacional Bodies: The Exhibition.

La plastinación produce órganos y especímenes que no huelen, no se dañan, que pueden ser manipulados por los estudiantes, y que, al mismo tiempo, retienen sus propiedades originales.

 

 Tres pasos a la eternidad

El proceso se hace en tres etapas: primero, se deshidrata el órgano usando acetona o alcohol isopropílico; luego se mete en una cámara con silicona líquida fría a -18 °C y se sella al vacío, de tal manera que la silicona impregna forzadamente los espacios donde había agua. Finalmente, se rocía con un gas de polímeros preparado especialmente para el efecto, que endurece y seca los tejidos.

“El que adquirimos para empezar es un equipo básico, de unos 20.000 euros, en el cual podremos procesar unos 30 kilos de material biológico al tiempo. Lo primero que vamos a plastinar es un cerebro humano, aunque eso no será antes de dos años”, dice Rivera, y añade que en Colombia el material biológico humano no se recibe en calidad de donación sino de custodia, y eso bajo ciertos parámetros dispuestos por el Instituto Nacional de Medicina Legal y Ciencias Forenses.

Así luce un corazón de cerdo tras finalizar el procedimiento de plastinación.
Así luce un corazón de cerdo tras finalizar el procedimiento de plastinación.

“La Universidad va a construir un edificio paralaboratorios especiales, incluyendo el de morfología y anatomía, y ese será el más moderno del país”, revela sin ocultar su ilusión. “De momento, la Facultad de Ciencias de la Salud y el Programa de Psicología trabajan juntos para impulsar las técnicas anatómicas en la región del suroccidente colombiano”, añade. En preparación para ello, la Javeriana envió a su anatomista estrella a entrenarse en la Universidad de Santo Tomás en Santiago, Chile, una de las pioneras de la plastinación en Latinoamérica al patentar sus propios equipos.

La pasión de este payanés por el estudio descriptivo del cuerpo humano desde que tenía 20 años era tal, que se fue pagando los semestres haciendo monitorías, dictando clases particulares de anatomía y, al comienzo, hasta trabajando como vigilante en una empresa de seguridad privada para costear los primeros tres semestres de anatomía en la Universidad del Cauca. En 2013 la Javeriana lo nombró profesor de tiempo completo, y hasta hace poco fue presidente de la Asociación Colombiana de Morfología.

“Saber anatomía es como llegar a una ciudad que no conoces, pero que has estudiado bien a través de sus mapas”, comenta. “Pero el anfiteatro clásico de enseñanza de anatomía se basa en el uso de material cadavérico conservado con formol y fenol, que son sustancias cancerígenas y malas para el ambiente. Por eso, nosotros implementamos materiales no dañinos para la salud, y les damos a las piezas anatómicas una estética agradable”. Así como el bonito corazón de cerdo de 5.000 pesos que estamos trabajando.

“Saber anatomía es como llegar a una ciudad que no conoces, pero que has estudiado bien a través de sus mapas”.
Guillermo Adrián Rivera Cardona.

“Ahora que tengo limpia la arteria, le amarro dos trozos de piola: por un lado, para que no se salga la sonda y, por el otro, para que el látex no se devuelva. Hazlo tú”, ofrece el anatomista entregándome la inyección con el líquido rosado. Comienzo a empujar el émbolo y en segundos las arterias se ponen rosadas y se inflan; como por arte de magia, aparecen ramas y capilares más pequeños que antes eran totalmente invisibles: este es el corazón que uno ve en las ilustraciones médicas, solo que es un objeto real, que pesa y tiene textura.

Rivera, un perfeccionista, piensa que todavía hay espacio para mejorar: “Aún no atinamos a encontrar una tinta que pinte rojo intenso; no importa cuántos frascos usemos, siempre se ve rosado”.

Rosadas o rojas, de todas maneras las arterias no tienen pierde. El artístico corazón será ahora sumergido en una concentración mínima y no nociva de formol, mezclado con esencia de menta, para que no ofenda las delicadas narices de los estudiantes y cumpla la misión de inspirar a los aprendices.


Para leer más

  • Rivera Cardona, G. A., García, A. y Moreno Gómez, F. A. (2015). Técnica de diafanización con alizarina para el estudio del desarrollo óseo. Revista Colombiana Salud Libre, 10(2), 109-115.

TÍTULO DE LA INVESTIGACIÓN: Aplicación de una técnica anatómica amigable con el medio ambiente y la salud humana, en la preservación de corazones de cerdo como apoyo a la enseñanza de la anatomía
INVESTIGADOR PRINCIPAL: Guillermo Adrián Rivera Cardona
COINVESTIGADORES: Carlos Alberto Muñoz Ardila, Martín Alonso Ruíz Orozco y Oscar Humberto Ríos Ramírez
Departamento de Ciencias Básicas de la Salud, Pontificia Universidad Javeriana Cali
Departamento de Morfología, Universidad del Cauca
PERIODO DE LA INVESTIGACIÓN: 2016-2017

Tecnología de punta en el cultivo de arroz

Tecnología de punta en el cultivo de arroz

Vestidos con sus tradicionales botas y un sombrero para protegerse del sol, los trabajadores llegan a la zona de cultivo. Frente a ellos, las cientos de plantas de arroz se izan hacia la luz natural, toda el área sigue inundada. Desprovistos de azadones, abren el computador portátil mientras un pequeño grupo alista el dron robótico, comprueban que funcione sin problemas y, lo más importante, que sus rotores giren con potencia. Unos minutos después, tras establecer las instrucciones en el software, el robot vuela por encima del área sembrada de manera autónoma.

No se trata de un relato futurista que sucede a miles de kilómetros. Todo lo contrario: en mayo de 2017, un grupo de ingenieros de la Pontificia Universidad Javeriana llegó hasta los cultivos de arroz que el Centro Internacional de Agricultura Tropical (CIAT) mantiene en Palmira (Valle del Cauca) y en Santa Rosa (Meta). Allí pusieron a prueba el dron autónomo para tomar imágenes espectrales y captar información meteorológica en el que han trabajado por cerca de un año.

“Desde una tablet o un computador portátil se puede definir una misión a través de una interfaz gráfica muy sencilla. El dron estaría en la capacidad de despegar, realizar la maniobra por todo el cultivo y aterrizar de manera autónoma”, explica Julián Colorado, doctor en Robótica, profesor de Ingeniería Electrónica en la Javeriana y líder del proyecto.

Pruebas con la herramienta y el dron en campo.
Pruebas con la herramienta y el dron en campo.

Se trata de una iniciativa desarrollada en conjunto con el CIAT y Fedearroz (gremio de los arroceros colombianos), y financiada con fondos de Colciencias. Desde mediados de 2016 el equipo no solo adoptó una cámara multiespectral (provista de cuatro lentes que toman fotografías en distintos rangos de luz) y sensores de temperatura, radiación y presión atmosférica, también desarrollaron los algoritmos de funcionamiento, el sistema de navegación y la plataforma digital y fenotípica, entre otros, que recibirá toda la información recolectada.

“Dependiendo de esas imágenes tomadas con luz a diferentes longitudes de onda, se puede extraer información muy valiosa sobre el estado del cultivo”, asegura Colorado. Los datos le permiten al operario predecir el estado de la siembra y recabar información sobre la correlación genética de las plantas a partir de su genotipo: del color del cultivo, la altura, los nutrientes que está asimilando.

No importa si, al momento de iniciar la medición, hay sol pleno o una fuerte nubosidad, o si las condiciones climáticas no son las más favorables para una misión de reconocimiento. En el pasado quedan los sobrevuelos en helicóptero o en avioneta para identificar el estado real del área sembrada, al igual que las imágenes tomadas desde un satélite. En su lugar, a partir de imágenes que capturan entre uno y diez centímetros por píxel, pueden obtener información de altísima utilidad.

Por ejemplo, en estas primeras pruebas, los científicos del CIAT reunieron información valiosa que esperan utilizar en sus programas de desarrollo genético de semillas más fuertes, capaces de soportar el cambio climático. Por otro lado, el proyecto supondría un beneficio para los productores al reducir sus gastos para recabar información meteorológica y técnica del cultivo.

De hecho, el dron se convierte en una herramienta de alta tecnología que especializaría a la mano de obra dedicada a la siembra de arroz. “Pasamos las labores de sensado de información a una plataforma robótica autónoma. No es nuestro objetivo reemplazar a las personas sino enfocarlas en labores de mayor toma de decisiones, análisis, etc., automatizando la toma de datos”, explica Colorado. Los trabajadores actuales serían capacitados en nuevas labores como el manejo del software, el diseño de la misión y los distintos protocolos de operación, como la respuesta adecuada si se presentan fallas.

Imagen captada por el dron durante la fase de pruebas.
Imagen captada por el dron durante la fase de pruebas.

El proyecto aún se encuentra en la fase de pruebas y ajustes metodológicos, pero, al cabo de un año, los ingenieros y desarrolladores esperan terminar de afinar todos los detalles para entregarle al gremio una tecnología de punta y completamente funcional. “Hay desarrollos propios que pueden ser patentables”, reconoce Colorado.

Esto supondría una valiosa ayuda para un sector que, a pesar de haber logrado el año pasado la producción más alta en toda la historia (2,97 millones de toneladas del cereal en 570.802 hectáreas sembradas, según cifras del Dane), hoy se enfrenta a enormes desafíos de cara al futuro, como precios más bajos ofrecidos por parte de los molinos, un dólar que cada día encarece sus insumos o las fuertes lluvias que han ocasionado el desbordamiento de ríos, inundaciones y pérdidas irreparables en los cultivos.


TÍTULO DE LA INVESTIGACIÓN: Desarrollo de una herramienta para la agricultura de precisión en los cultivos de arroz: sensado del estado de crecimiento y de nutrición de las plantas usando un dron autónomo.
INVESTIGADOR: Julián Colorado.
PERIODO DE LA INVESTIGACIÓN: 2016-actualidad.
Con el apoyo de Colciencias, CIAT y Fedearroz.
Facultad de Ingeniería.
Pontificia Universidad Javeriana.

¿Cómo ver mejor en la oscuridad?

¿Cómo ver mejor en la oscuridad?

Las noches se convierten en una pesadilla para quienes deben liderar misiones de rescate y no cuentan con equipos sofisticados que les permitan llegar hasta donde los necesitan, incluso cuando se trata de salvar vidas. En la actualidad existen sistemas de visión nocturna que apoyan estas misiones con el fin de que los rescatistas puedan orientarse en la oscuridad, encuentren las personas que están en peligro y realicen su trabajo con menos dificultades. Estos sistemas deben entregar imágenes con detalles visuales enriquecidos, los cuales se producen combinando las imágenes que ve el ojo humano, llamadas el espectro visible, e imágenes infrarrojas, aquellas que se generan a partir del calor emitido por los objetos. Sin embargo, como el usuario final es un ser humano, es indispensable que la calidad visual de estas imágenes se pueda evaluar automáticamente, es decir, sin la intervención de una persona.

Un estudio realizado por investigadores de la Pontificia Universidad Javeriana Cali y la Universidad de Texas en Austin aporta una solución al problema de evaluar automáticamente imágenes fusionadas mediante el desarrollo de una medida de evaluación de calidad de imágenes de este tipo.

“El objetivo fue fusionar lo mejor de dos mundos. Por un lado, las imágenes en espectro visible muestran ciertos detalles mientras que las de espectro infrarrojo captan ondas que no son visibles para el ojo humano. Esta fusión es un aporte importante al desarrollo de los sistemas de visión nocturna”, aseguró Hernán Darío Benítez Restrepo, profesor de la Facultad de Ingeniería de la Javeriana Cali.

La evaluación automática de la calidad de imágenes es un tema de investigación desafiante, que es abordado en la actualidad por varias universidades en el mundo y empresas como Facebook, Netflix y Apple. Luego de dos años, los profesores Hernán Benítez y Alan Conrad Bovik, de la Universidad de Texas en Austin, junto con David Moreno, egresado de Ingeniería Electrónica de la Javeriana Cali, lograron medir la calidad visual de estas imágenes fusionadas y predecir con un alto grado de confianza la precisión con la que eran percibidas por los seres humanos, a un nivel mayor que otras medidas existentes reportadas en la literatura científica actual, dicen los investigadores.

La medida puede ser un punto de partida sólido para evaluar y comparar sistemas de visión nocturna y mejorar las posibilidades de rescates exitosos en condiciones de poca luz u oscuridad.

En el estudio analizaron cinco métodos de multirresolución para la fusión de imágenes que generalmente presentan distorsiones comunes como borrosidad, ruido gaussiano −en donde los píxeles de la imagen se ven alterados y generan gránulos digitales−, compresión JPEG para lograr que las imágenes ocupen menos espacio en la memoria y no uniformidad en el sensor que capta las imágenes térmicas infrarrojas de onda larga (LWIR, por sus siglas en inglés).


El camino para lograr resultados

El método se basa en unas características de escenas naturales, como las tomadas con cámaras convencionales, lo que las hace diferentes a las escenas artificiales como las generadas por computación gráfica y las de los videojuegos. Las imágenes térmicas LWIR son producidas a través de cámaras que captan la radiación infrarroja emitida por los objetos dentro de una escena y la convierten en una señal eléctrica para generar posteriormente un valor de temperatura.

Los autores llevaron a cabo un estudio subjetivo para el análisis de imágenes fusionadas originales y degradadas −es decir, distorsionadas visualmente−, en el que participaron 27 personas que evaluaron 750 imágenes a lo largo de cinco sesiones. De esta forma, los investigadores comprobaron que su método de medición superaba a los demás.

Éste se diferencia de los ya existentes por el uso de las características matemáticas extraídas a partir de la imagen, las cuales predicen la percepción visual humana. Una de las potenciales aplicaciones de esta medida es la visión nocturna, por ejemplo, para rescates y uso militar en operaciones nocturnas de vigilancia.

El pase de diapositivas requiere JavaScript.


Aún existen los retos

Los investigadores esperan extender los resultados obtenidos al análisis de imágenes multiespectrales, en donde también se fusionan imágenes. Este tipo de imágenes se adquieren en diferentes bandas o segmentos del espectro electromagnético. Cada una de ellas tiene información diferente sobre lo que se está estudiando. Esto es muy útil, por ejemplo, en agricultura, pues permite analizar la salud de un cultivo. Otra ventaja es que se puede hacer monitoreo a través de dispositivos como vehículos aéreos no tripulados o drones, explicó el profesor Benítez.

Financiado por la Javeriana Cali y Colciencias, a través del programa Convocatoria para el Apoyo a Proyectos con Norteamérica 2014, el estudio es un aporte para que los desarrollos tecnológicos incidan positivamente en situaciones de riesgo, en donde prevalece la integridad del ser humano.


Para leer más

  • Moreno, D, Benítez Restrepo, H.D. y Bovik, A. (2017). Predicting the Quality of Fused Long-Wave Infrared and Visible Light Images. IEEE Transactions on Image Processing, 26(7), 3479-3491.


Fuente fotográfica

  • N. J. W. Morris, S. Avidan, W. Matusik, and H. Pfister, “Statistics of infrared images,” in Proc. IEEE Conf. Comput. Vis. Pattern Recognit., Jun. 2007, pp. 1–7.

TÍTULO DE LA INVESTIGACIÓN: Evaluation of Video Distortions on Fused Infrared and Visible Videos in Surveillance Applications.
INVESTIGADOR PRINCIPAL: Hernán Darío Benítez Restrepo.
COINVESTIGADORES: David Moreno y Alan Bovik Facultad de Ingeniería Departamento de Electrónica y Ciencias de la Computación.
PERIODO DE LA INVESTIGACIÓN: 2016-2017.

El hombre que enfrió los átomos

El hombre que enfrió los átomos

El estadounidense William Daniel Phillips, premio Nobel de Física en 1997, demostró que los átomos se podían enfriar más de lo que las teorías predecían, de tal manera que se empezaran a mover como en cámara lenta permitiendo atraparlos con más facilidad para estudiarlos mejor.

Eso ocurrió en 1988. Pero la tarea no fue fácil: él, su grupo de investigadores y los científicos con quienes compartió el premio –Steven Chu y Claude Cohen-Tannoudji– tuvieron que utilizar tres métodos diferentes para medir la temperatura de las moléculas porque sus resultados generarían una gran sorpresa en el mundo científico. Había que confirmar y volver a confirmar.

Este avance ha sido clave para continuar con la investigación que hoy en día trabaja en Estados Unidos con la física colombiana Ana María Rey y con Jung Ye, experto en metrología de precisión, para generar relojes atómicos y desarrollar la mecánica cuántica.

Los tres estuvieron en Bogotá, con motivo de la clausura de las cátedras ‘Huellas que inspiran’ y ‘Sesquicentenario de la Universidad Nacional de Colombia’.

Javeriana crea estándar que mide impacto de las TIC en procesos pedagógicos

Javeriana crea estándar que mide impacto de las TIC en procesos pedagógicos

En el marco de la preocupación mundial por la apropiación de las Tecnologías de la Información y las Comunicaciones (TIC) y su impacto en el mejoramiento de la calidad educativa, investigadores javerianos de la seccional Cali adelantaron, durante diez años, un proceso combinado de investigación y aplicación del conocimiento para diagnosticar los niveles de apropiación de las TIC en docentes. Como resultado, la Universidad formuló el Modelo de Competencias y Estándares TIC desde la Dimensión Pedagógica, una propuesta que incluye parámetros, indicadores, dimensiones y herramientas para diagnosticar la apropiación de las TIC, formular y orientar una ruta formativa pertinente de mejoramiento de la apropiación, hacer seguimiento al proceso y medir su impacto en la calidad educativa.

Hoy, la Unesco, principal autoridad para la educación en el mundo, recomienda este modelo para el desarrollo de procesos de inserción de las TIC en la educación en Latinoamérica. Varios países de la región han manifestado interés en su implementación.

La historia de un largo recorrido La pregunta inicial que orientó el trabajo surgió tras varios años de inversión en tecnología (plataforma, software, capacitación de docentes, conectividad y otros aspectos) por parte de la Javeriana Cali, como parte de la modernización de sus procesos. ¿Tendría esa inversión un impacto en el mejoramiento de la calidad educativa de la Universidad?

“Teníamos profesores puntuados como lo más alto en el uso de tecnología y empezamos a entrevistarlos, a revisar qué hacían; pedimos acceso a sus cursos e hicimos una reconstrucción histórica del proceso que los llevó a ser expertos”, recuerda Jairo Andrés Montes González, investigador del grupo a cargo del proceso.

La investigación permitió encontrar un itinerario común, seguido por los docentes: “Primero usaron tecnología para mejorar el almacenamiento de información y asegurar que los recursos estuvieran disponibles para
los estudiantes. Después se movían hacia el enriquecimiento de sus cursos y clases con tecnología, haciendo actividades que sin ella no podrían ejecutar. En un tercer momento, empezaban a diseñar sus propias herramientas tecnológicas, conectaban con más docentes y se volvían referentes de otros”, precisa.

Capacitación para docentes de la Universidad Javeriana Cali: Aprendizaje Móvil “Transcendiendo el tiempo y el espacio”.
Capacitación para docentes de la Universidad Javeriana Cali: Aprendizaje Móvil “Transcendiendo el tiempo y el espacio”.

Los avances llevaron a la integración de herramientas de investigación más complejas, como el ‘Análisis cognitivo de Tareas’. Solanlly Ochoa Angrino, directora del grupo investigador, explica que gracias a ello fue posible estudiar “la práctica pedagógica concreta, los objetivos educativos, la función de las herramientas tecnológicas en relación con esos objetivos educativos, las actividades que los estudiantes hacen, sus producciones, los cambios representacionales y las transformaciones en el aprendizaje y pensamiento del alumno respecto al uso de las TIC”. Nuevas inquietudes originaron, en total, siete proyectos de investigación sobre evaluación de cursos apoyados en TIC, transformación de prácticas educativas y construcción de conocimiento, argumentación y aprendizaje autorregulado en estudiantes universitarios, desde este tipo de mediaciones.

Los investigadores javerianos encontraron que el estándar promovido por la Unesco para evaluar y analizar procesos similares era parecido a las pistas halladas por ellos, pero, por su énfasis en lo pedagógico, su propuesta tenía ciertas ventajas. Una de ellas era que no se promovía una ruta única de formación de competencias TIC en los docentes, sino que, teniendo en cuenta aspectos contextuales asociados a la realidad del conocimiento del profesor y a las características de la institución en la que se encontrara, la propuesta formativa se adaptaba a las necesidades del docente y no era este quien se debía adaptar a una ruta única de formación, lo que garantizaba mayor impacto en la calidad educativa.

Resultado de aplicación internacional El refinamiento del ejercicio, la posibilidad de ensayo y el ajuste permanente hicieron posible la implementación del proyecto en un contexto real.

Así fue posible que el grupo llegara naturalmente a la formulación de un modelo de competencias y estándares TIC, actualizando de esta manera el promovido por la Unesco hasta ese momento. Estos logros fueron posibles gracias a la participación de Javevirtual, unidad encargada de la formación en TIC de los docentes de la Universidad.

En 2015, el modelo se presentó a Unesco para su revisión: “vino un proceso de validación de aproximadamente año y medio, en el que expertos internacionales revisaron el estándar, y su concepto ayudó a que Unesco diera la aprobación y posterior recomendación para su aplicación en la región”, subraya Tatiana Valencia Molina, directora del Centro de Recursos para el Aprendizaje y la Investigación.

Continue reading

La huella de los muiscas

La huella de los muiscas

El pasado 20 de julio fue especial. Iba a ser otro festivo de Independencia más, con sus desfiles militares, discursos y sobrevuelo de aviones de guerra, hasta que sonó la alerta del correo electrónico de Andrea Casas, estudiante doctoral de ciencias, con énfasis en genética. “Eran los resultados de todas las
muestras completas de ADN”, dice, recordando parte del texto que llegaba directamente del Instituto de Medicina Legal de la Universidad de Innsbruck, en Austria.

Fue la señal para concentrarse de nuevo en el trabajo. Tuvo que aprender a realizar el análisis para determinar la datación molecular de las 38 muestras humanas con una técnica de última tecnología —secuenciación completa del mitogenoma—, y fue la primera vez que un investigador colombiano secuenciaba en una muestra precolombina el genoma completo del ADN mitocondrial, el que guarda la información, generación tras generación, del linaje materno. Si con el procedimiento convencional se logran analizar entre 210 y 400 pares de bases, ahora es posible estudiar a fondo la información completa que resguarda la mitocondria, o sea, procesar más de 16.000 pares de bases o nucleótidos.

La investigadora dedicó todo el segundo semestre de 2016 a analizarlos, y así se fue revelando un fragmento de la historia. Sus muestras pertenecen a restos humanos encontrados en las inmediaciones del Templo del Sol, el centro religioso de la cultura muisca en Sogamoso, Boyacá; son una clave para conocer tanto la evolución de los primeros humanos que recorrieron los campos de lo que hoy es Colombia, como de los rumbos de su ascendencia y de su descendencia.

El estudio se centra en la información genética de individuos que vivieron en tres eras distintas: los cazadores-recolectores, que se asentaron en las montañas boyacenses (hace 8000 años); los pobladores que iniciaron la cultura muisca gracias a la práctica de la agricultura, en el periodo Formativo (hace cerca
de 1000 años), y los indígenas que sufrieron la Conquista a manos de los españoles (hace unos 500 años).

Este proceso ha permitido establecer vínculos de linaje y comenzar a descifrar la importancia del Templo del Sol tanto para los muiscas como para diferentes culturas de todo el continente. Asimismo, apoya la teoría del origen asiático de los pobladores que se fueron asentando en las montañas, planicies y costas colombianas: una historia que solo se entiende al mirar atrás en el tiempo, a través de las mutaciones genéticas de los restos óseos de estos habitantes precolombinos.

Rastreando al hombre

Reconstrucción del pueblo indígena en los alrededores del Museo Arqueológico de Sogamoso.
Reconstrucción del pueblo indígena en los alrededores del Museo Arqueológico de Sogamoso.

La génesis de este proyecto data de 1992, cuando, por los 500 años del descubrimiento de América, la comunidad científica colombiana inició la Expedición Humana: una serie de viajes para describir nuestra herencia cultural, social, histórica y molecular. Los antropólogos, arqueólogos, genetistas e historiadores, entre otros, llegaron a distintas comunidades para hacer múltiples pruebas y tomar nota sobre su salud y sus particularidades culturales.

Después de este proyecto iniciado en la Universidad Javeriana, coincidieron el genetista Alberto Gómez, hoy director del Instituto de Genética Humana de la Javeriana, su colega y compañero de trabajo Ignacio Briceño y el antropólogo forense José Vicente Rodríguez, actual director del Laboratorio de Antropología Física de la Nacional. Su vínculo fue vital para conocer el contexto que dio vida a las diferentes culturas del país y en especial para determinar sus parentescos. “Así desarrollamos el concepto de la genética de poblaciones precolombinas y su filiación con las actuales”, explica Gómez.

Con los años, estos científicos lograron que sus instituciones trabajaran en conjunto y así formaran nuevos investigadores, entre ellos, Andrea Casas. Fruto de ello fue la investigación sobre restos óseos de la cultura guane de Santander, que, a partir de datos mitocondriales, estableció que, pese a las diferencias morfológicas con otras comunidades precolombinas como los muiscas, sus individuos poseían una alta diversidad y por lo tanto no eran aislados genéticos, como creían los antropólogos.

En 2012 iniciaron otra aventura: determinar si los restos encontrados en Boyacá, en las inmediaciones del Templo del Sol, estaban relacionados entre sí. Las primeras pruebas de datación carbónica señalaban una enorme distancia de tiempo entre ellos: ¿habría una continuidad del linaje?, ¿pertenecerían a culturas diferentes?, ¿en algún momento la una exterminó y suplantó a la otra? Casas, siguiendo la batuta de sus tutores Gómez, Briceño y Rodríguez, se encargaría de responder estas preguntas. Al adoptar este proyecto como su tesis doctoral en ciencias, identificó diferentes haplogrupos —la marca genética que determina nuestra ascendencia—, con los cuales se puede rastrear la procedencia, tanto geográfica
como étnica.

De esta forma, determinó que dos de estos sujetos vivieron en el periodo Precerámico (entre 8000 y 2000 a. C.); seis, en el Formativo (entre 1000 años a. C. y el siglo VIII de nuestra época), y que los 30 restantes pertenecieron a la cultura muisca. El 69% cuenta con el macrohaplogrupo A2 en sus mitocondrias, originario
de los primeros pobladores de Asia que cruzaron hacia América por el estrecho de Bering. Además, encontró el subhaplogrupo A2ac1, que caracteriza hoy a las poblaciones andinas de Colombia y Ecuador; el A2ad, propio de la zona del Darién (frontera entre Panamá y Colombia); y el B2d, que identifica a la población wayúu.

Pero el hallazgo más desconcertante es el subhaplogrupo A2y. Este “solamente ha sido reportado en una comunidad indígena contemporánea aislada de la Amazonia ecuatoriana”, explica Casas, refiriéndose a los waorani, que habitan las selvas de Ecuador y se caracterizan por su aislamiento cultural y geográfico. Hasta la fecha, este marcador genético solo se había encontrado en el noroccidente ecuatoriano.

Esta es una primera evidencia para establecer la importancia que tenía el Templo del Sol para las culturas  precolombinas, eventualmente similar a la de la Meca de los islámicos. Y es apenas el principio: “estamos aportando evidencias de que esto, antes de los españoles, era sumamente diverso, que ya había mestizaje”, asegura Gómez.

El principio del principio

esqueletos

Diferentes teorías explican cómo se pobló esta esquina del mundo. Una de ellas habla de diferentes olas migratorias en las que una civilización pudo haberse enfrentado a los pobladores originales y haberlos eliminado por enfrentamientos. El tamaño de los cráneos alargados (dolicocéfalos) y las mandíbulas grandes de los cazadores-recolectores, comparados con la cabeza redondeada de los muiscas (braquicéfalos), explicaría esta teoría.

Pero Rodríguez defiende otra hipótesis, según la cual pequeñas microevoluciones por cambios drásticos en el ambiente habrían causado estas diferencias. “En el segundo milenio a. C. se dieron cambios sustanciales como la elevación de las temperaturas y la reducción de la pluviosidad. La población se densificó, los individuos enterrados aumentaron y aparecieron las enfermedades infecciosas, como la treponematosis, posiblemente sífilis venérea”.

Los resultados de Casas comienzan a darle la razón: en los 38 restos se encontraron 31 linajes mitocondriales, es decir, 31 conexiones generacionales por vía materna, una muestra de que la diversidad genética precolombina no era solo amplia, sino además profunda, y que fue cortada por ‘el contacto civilizador’. “Hay una reducción del componente genético después de la Conquista, pues se observa la pérdida de linajes”, expresa la genetista. Los historiadores han estimado que 66,5 millones de indígenas  murieron en un periodo de 130 años a causa de enfermedades o por violencia, dato que confirma el corte drástico de los linajes.

Esta investigación, a partir de la cual se generó en 2016 una ponencia en el congreso de la especialidad en Uppsala, Suecia, aportará respuestas sólidas a la pregunta sobre el origen de los poblamientos del continente americano y sus mestizajes pre y poscolombinos. Tal como lo resume Alberto Gómez: “queremos desbaratar absolutamente el concepto de razas y promover el de que todos somos parientes”.

Continue reading