miércoles, 15 de mayo de 2024

Optimizan “cajita” que produciría agua dulce en zonas desérticas como La Guajira

 Se estima que en el aire hay 6 veces más agua de la que se encuentra en todos los ríos de la Tierra. Por eso, mediante un dispositivo sencillo y de bajo costo, se obtendrían hasta 900 litros de agua dulce al día en zonas desérticas o con alto estrés hídrico. Carbones activados, provenientes de residuos de plástico PET (como envases y botellas), absorben las moléculas de agua que circulan en la atmósfera durante la madrugada, para luego liberarlas a partir de evaporación con la luz del sol.

Aunque el aire es una fuente rica y renovable de agua dulce, en el pasado los estudios en torno al tema representaron grandes retos, pues no se tenía el conocimiento ni la tecnología suficiente para avanzar en nuevos desarrollos.

Sin embargo, en 2009 los profesores Farid B. Cortés y Farid Chejne Janna, de la Universidad Nacional de Colombia (UNAL) Sede Medellín, diseñaron un mecanismo para obtener este líquido vital que en Colombia sigue sin estar disponible para el 25 % de la población, según el DANE.

El dispositivo, similar a una caja de cristal, ha sido mejorado durante los últimos años por estudiantes como Dahiana Galeano Caro, quien para su tesis de maestría en Ingeniería Química desarrolló un material para capturar el agua: carbones activados hechos a partir de residuos de plástico PET, uno de los más contaminantes por producirse para un solo uso.

“A diferencia de una esponja que absorbe y ‘suelta’ con facilidad, el carbón activado adsorbe, es decir, fija en su superficie para después ‘producir’ el agua”, explica la magíster.

En el laboratorio trabajó con residuos PET obtenidos de un punto de reciclaje ubicado en Bogotá. Los lavó, los secó a una temperatura no mayor a 150 °C y les adicionó compuestos como hidróxido de potasio, y por último los pasó por otros procesos de temperatura y los filtró.

“Aunque el resultado es similar al carbón convencional, a estos los hicimos aún más especiales modificándolos superficialmente con ácido nítrico, que es muy afín con moléculas polares, y por ende adsorbe gran cantidad de agua”, agrega.

Para establecer comparaciones de calidad, también trabajó con carbones activados comerciales, obtenidos a partir de residuos agroindustriales de café y coco. “Los caracterizamos física y químicamente y encontramos que aquellos sintetizados a partir de residuos PET tenían mayor área superficial y mayor cantidad de grupos oxigenados, lo cual maximiza su interacción con moléculas de agua”.

A escala de laboratorio probó su capacidad de adsorción con resultados muy favorables, pues materiales de la misma naturaleza química habían mostrado una capacidad de adsorción de 0,7 gramos de agua por gramo de material seco (g/g), mientras que con el material desarrollado retuvo 1,5 g/g, es decir más del doble.

Se probó en Medellín

Los carbones activados se ubican en el centro de una caja de 20x20x8 cm. “Además tenemos otra, un poco más grande, que funciona como condensador. Su diseño y funcionamiento son bastante sencillos, pues se espera que opere en lugares complejos como La Guajira, donde suele haber largos períodos de sequía”.

Para obtener el agua se pone la primera caja al aire entre el final de la tarde y la madrugada, cuando la temperatura está más baja, hay mayor velocidad del viento y mayor humedad relativa. “Al día siguiente cerramos el dispositivo y lo exponemos al sol, para que aumente la temperatura interior y se dé la liberación del agua (desorción), en este caso mediante evaporación”.

Durante este experimento, realizado en Medellín, se registró una eficiencia del 87 %, por lo que se calcula que se podría producir alrededor de 1 litro de agua cada día. “Sin embargo, también hemos hecho pruebas en el desierto de la Tatacoa (Huila) y en Santa Fe de Antioquia, con el fin de evaluar distintas condiciones ambientales y meteorológicas, constatando que incluso con una baja velocidad del viento y bajas temperaturas –cercanas a los 30 ºC, por ejemplo–, puede condensarse agua”.

A futuro se espera optimizar el dispositivo con una rueda deshumidificadora, que permita un mayor flujo de aire y una mayor condensación de agua en menos tiempo. “Con un material comercial (sílice no porosa funcionalizada con cloruro de calcio) se pueden producir hasta 300 litros de agua al día, mientras que con nuestro material y la rueda deshumificadora se pueden alcanzar los 900 litros”.

De igual forma, se espera integrar un sistema de energía solar para que no dependa de la energía eléctrica. “La idea es masificar la tecnología, establecer alianzas con otras instituciones, formar un grupo interdisciplinario y tecnificar lo que ya hemos conseguido”, acota la investigadora Galeano.

Para determinar la potabilidad del agua producida será necesario hacer análisis fisicoquímicos y microbiológicos adicionales. Por lo pronto, el dispositivo se consolida como una alternativa para épocas de sequía o tiempos de escasez.







martes, 14 de mayo de 2024

Métodos para detectar bacterias en la leche podrían mejorar

 Un estudio de Salmonella spp. y Staphylococcus aureus, bacterias causantes de problemas gastrointestinales y en casos graves shocks tóxicos, mostró que la prueba ELISA –basada en la detección de antígenos y anticuerpos, más sensible y rápida– podría ser un buen complemento para los procesos convencionales realizados en la industria láctea antes de la comercializar este importante producto de la canasta familiar.

Según la Organización Mundial de la Salud, cada año se registran cerca de 600 millones de enfermos y hasta 420.000 muertes por el consumo de alimentos contaminados, de ahí que la industria trate de controlar rigurosamente la presencia de microorganismos peligrosos para la salud.

Mientras que Salmonella spp. se halla en carne de aves, huevos, productos lácteos e incluso vegetales, pues forma parte del microbiota intestinal de los animales de sangre caliente, S. aureus, que forma parte tanto de la microbiota de las mucosas nasal y oral como de la piel de los humanos, puede llegar a cualquier alimento por mala manipulación, poca higiene o mal uso de elementos de protección.

“La leche de vaca es muy susceptible, ya que su gran contenido nutricional facilita el crecimiento de bacterias. Por eso el Instituto Colombiano de Normas Técnicas y Certificación (Icontec) tiene pautas claras para identificarlas antes de iniciar la distribución. Sin embargo, la mayoría de dichas pautas se basan en métodos tradicionales, aunque existen nuevas tecnologías, más sensibles y rápidas”, explica Luisa Fernanda Camacho Montoya, magíster en Ciencias - Biotecnología de la Universidad Nacional de Colombia (UNAL) Sede Medellín.

Por eso ella evaluó su efectividad y la de otros métodos alternativos: “mientras el método tradicional se basa en el cultivo del microorganismo y requiere de infraestructura y mano de obra especializada, entre los métodos alternativos están los inmunológicos, como la prueba ELISA –que detecta la unión entre un antígeno y un anticuerpo– y los moleculares, como la PCR, que trabajan con fragmentos de ácidos nucleicos (ADN o ARN)”, señala.

En laboratorio, y con el acompañamiento de la profesora Olga Inés Montoya Campuzano, la magíster contaminó artificialmente leche ultrapasteurizada (UHT), es decir aquella que ya pasó por un proceso térmico extremo para eliminar contaminantes: “utilizamos este tipo de leche para garantizar su inocuidad. La inoculamos manualmente con las bacterias de interés y luego le aplicamos el método tradicional, la prueba ELISA y la PCR”.

Así encontró que aunque el método tradicional detectó exitosamente la Salmonella spp. no fue tan sensible para S. aureus: “como algunas muestras las diluimos, había baja presencia del microorganismo, y para esas nos arrojó falsos negativos”, explica la investigadora.

Por su parte la prueba ELISA fue muy efectiva para Salmonella spp., “con la ventaja de que es un proceso más rápido: menos de 2 días frente a los casi 8 días del método tradicional. Con la PCR no detectamos ningún positivo, probablemente porque en la manipulación de la muestra, o por su alta complejidad, se generó una interferencia”.

Al final, y de forma sorprendente, S. aureus no se detectó con ELISA ni con PCR, lo que tendría su explicación en que la leche tiene proteínas, lípidos y otras moléculas que también pueden interferir en las pruebas más sensibles: “concluimos que quizá los 30 minutos de incubación dispuestos para recuperar cantidades similares a las inoculadas no fueron suficientes para que el microorganismo creciera y generará las toxinas”.

Más allá de las condiciones ideales

Como en condiciones reales la leche puede estar contaminada con más microorganismos, la investigadora también inoculó estas dos bacterias junto a una benéfica: Lactococcus lactis, encontrada de forma “silvestre” por la profesora Mónica Durango en la microbiota natural de un derivado lácteo (queso doble crema).

“En este punto vimos que al estar las tres bacterias juntas recuperábamos mayor cantidad de S. aureus, por lo que presumimos que L. lactis inhibe el crecimiento de Salmonella spp., y esto a su vez facilita el crecimiento de S. aureus”, continúa.

Por último, evaluó leche cruda (que no ha pasado por procesos industriales) y encontró S. aureus de forma silvestre. “Pese a esto, cuando le inoculamos artificialmente Salmonella spp. y S. aureus, su detección y crecimiento disminuyó, lo que nos sugiere que hay un tipo de antagonismo y nos confirma que la confluencia de varios microorganismos puede afectar las pruebas convencionales, dejando así un camino abierto para nuevos estudios”.

Los detalles de esta investigación, junto con una tabla que resume los pros y los contras de cada método, están en la tesis “Evaluación de algunos métodos tradicionales de identificación para detectar Salmonella spp. y Staphylococcus aureus coagulasa positivaen leche”.

 






sábado, 11 de mayo de 2024

Manglares tumaqueños, importantes almacenes de carbono que se deben preservar

 Con un innovador modelo que utiliza inteligencia artificial se estimó la vegetación y la cantidad de carbono almacenado en los bosques de manglar de Tumaco (Nariño). Los resultados destacan su función en la captura del dióxido de carbono, uno de los principales gases de efecto invernadero (GEI), por lo que su conservación es esencial para mitigar el calentamiento de la Tierra.


Pese a su valioso aporte, los mapas de la organización Vigilancia Mundial de los Manglares (GMW) señalan que entre 1996 y 2020 ha habido una pérdida de los bosques de manglar del 3,4 %. En Colombia el panorama no es muy alentador, pues hasta 2020 se estimaba que estos ecosistemas abarcaban 2.807 km2, y en 24 años se han perdido 72,69 km².

En el país, la creciente importancia de los manglares se refleja en iniciativas legislativas como la Ley 2232 de 2021, que busca protegerlos y conservarlos tanto por su valor ecológico como por su importancia socioeconómica, especialmente para las comunidades locales que dependen de la pesca artesanal para la alimentación y subsistencia, gracias a que allí yace una rica fuente primaria de peces, crustáceos y moluscos que son capturados para el consumo local y para la venta en mercados locales y regionales.

Sin embargo, para conservar es clave conocer con qué se cuenta. En este contexto se originó la tesis de la ingeniera ambiental Laura Lozano Arias para la Maestría en Ingeniería Ambiental de la Universidad Nacional de Colombia (UNAL) Sede Palmira, cuyo objetivo fue desarrollar un modelo para estimar la biomasa aérea tanto sobre el suelo (above-ground) como debajo del suelo (below-ground), además del carbono almacenado por esta en los bosques de manglar de las costas de Boca Grande y Bajito Vaquería, en el Pacífico, que han sido poco exploradas.

Según explica la tesista, del Grupo de Investigación en Recursos Hidrobiológicos, “la biomasa viva se refiere a la cantidad de materia orgánica contenida en la estructura completa de los árboles, incluyendo tronco, ramas, hojas y raíces, en donde retienen el carbono atmosférico durante su crecimiento”.

Inteligencia artificial al servicio de la conservación ambiental

Con el apoyo financiero de un proyecto de regalías, y teniendo en cuenta que uno de los desafíos es obtener imágenes satelitales –por las extensas nubes que suelen cubrir la región–, para desarrollar el modelo se utilizaron herramientas avanzadas de sensores remoto y aprendizaje de máquina.

Los resultados revelaron que estos bosques contienen en promedio una biomasa viva sobre el suelo de 192,50 toneladas por hectárea, y bajo el suelo de 79,95 t/h, con un almacenamiento de carbono estimado en 127,43 toneladas por hectárea, lo que confirma la contribución de los manglares a la captura de carbono en el ambiente.

El modelo propuesto representa una innovación respecto a los métodos tradicionales utilizados en el país, y aunque ambos requieren mediciones en campo –como levantamiento de altura y diámetro de los árboles–, el desarrollado por la ingeniera Lozano complementa esta información con el uso del asesoramiento remoto, lo que permite una estimación más rápida y precisa de la biomasa y del carbono en los manglares.

Además estima áreas más extensas, superando las limitaciones de espacio del método tradicional, que trabaja sobre una parcela, lo que amplía el alcance y la capacidad para entender estos ecosistemas a mayor escala.

La metodología se aplicó en dos etapas clave: primero la magíster realizó un mapeo en el terreno con la ayuda de un GPS, identificando distintas coberturas como manglares, agua y otra vegetación. Con esta información alimentó el algoritmo de clasificación, que luego complementó con imágenes satelitales y sus bandas de reflectancia, que se refieren a las distintas longitudes de onda de la luz que son captadas.

En la segunda parte estableció el modelo con el que estimó la biomasa, tanto aérea como subterránea. Para ello aplicó ecuaciones alométricas específicas para la región del Pacífico, las cuales le permitieron hacer el cálculo a partir de mediciones de altura y diámetro de los árboles. Estas también facilitaron la estimación del carbono almacenado en los manglares.

Además utilizó un enfoque de aprendizaje automático comparando dos algoritmos: random forest y support vector machine, para determinar el más adecuado.

Aunque el uso de estas tecnologías emergentes ha experimentado un notable avance en todo el mundo, en Colombia, en lo que respecta a la estimación de biomasa y carbono en ecosistemas de manglar, aún se está en proceso de desarrollo.

“Acá existen algunos estudios que han abordado esta temática, pero son escasos en comparación con los de países como China, en donde han sido ampliamente implementados y refinados”, explica la investigadora Lozano.

Los resultados de su investigación proporcionan información valiosa sobre la salud y el valor de los manglares en la región, y además ofrecen una herramienta efectiva para gestionar y conservar estos ecosistemas críticos. La capacidad de estimar la biomasa y el carbono en los manglares a través de tecnologías avanzadas abre nuevas oportunidades para tomar decisiones informadas e implementar medidas de protección y restauración efectivas.




miércoles, 8 de mayo de 2024

El juego como terapia para niños con déficit de atención e hiperactividad

 En vez de restringir la desbordante energía de los niños con trastorno por déficit de atención e hiperactividad (TDAH), los resultados de un estudio realizado con 6 niños de 7 a 11 años diagnosticados sugieren que, en los juegos con imaginación, movimiento, texturas, olores y otros elementos sensoriales habría aspectos fundamentales para regular sus emociones y potenciar su atención.

El TDAH, catalogado como uno de los trastornos del neurodesarrollo más prevalentes en la actualidad, impacta en las relaciones sociales, en el desempeño escolar, y en el campo ocupacional, pues sus síntomas suelen aparecer a partir de los 3 años, y si no se tratan a tiempo prevalecen hasta la adultez. En Colombia, aunque no existen cifras precisas de este problema de salud pública, diferentes estudios hablan de un 5,7 y 20 % de prevalencia.

Jessica García, estudiante de la Maestría en Neurociencias de la Universidad Nacional de Colombia (UNAL), explica que “esta condición se puede presentar a cualquier edad y genera en las pacientes dificultades para mantener la atención, tener el control de su cuerpo y sus movimientos, y lograr pensar antes de ejecutar, por lo que ellos son impulsivos”.

En los adultos esas características se reflejan en situaciones de fracaso laboral, cuando no logran cumplir con tareas asignadas, y también están aquellas susceptibles a desarrollar adicciones a sustancias psicoactivas e incluso tener comportamientos ludópatas –impulso patológico a jugar apostando dinero–, entre otras conductas que pueden afectar sus relaciones sociales.

Para tratar de mejorar el pronóstico y la calidad de vida de quienes padecen de TDHA es clave el diagnóstico oportuno y la intervención temprana. Por eso la estudiante García exploró el potencial del juego como herramienta terapéutica.

“Aunque el juego es la ocupación central de la infancia, en Colombia pocas investigaciones han abordado cómo se ve afectada esta actividad vital cuando los niños presentan condiciones como el TDAH”, explica.

Tras una exhaustiva revisión de la literatura científica, la investigadora diseñó un estudio de viabilidad con 6 niños de entre 7 y 11 años diagnosticados con TDAH y que llevaban su tratamiento en el Consorcio Clínica Emmanuel de Bogotá.

Durante 8 semanas consecutivas los menores asistieron a sesiones terapéuticas basadas en diversas actividades lúdicas de movimiento, juegos de mesa y otros de imaginación, en donde partían de una caja de cartón para crear otros elementos. Así, cada sesión fue cuidadosamente diseñada para estimular su atención, concentración y habilidades sociales de interacción.


Para evaluar los posibles efectos de esta terapia, la metodología contempló no solo la aplicación de herramientas para medir el desempeño y la participación de los niños en las actividades lúdicas, sino también el monitoreo de sus niveles de cortisol, la llamada “hormona del estrés”, mediante análisis de muestras de saliva.

“Utilizamos 2 escalas de evaluación para observar a los niños. La primera se centra en la conducta juguetona, observando cómo el niño participa en el juego, su motivación, control, capacidad de imaginación y discernimiento entre el juego y otras actividades. La segunda escala se enfoca en el logro de objetivos concretos, aquí los padres identifican las dificultades más importantes que el niño enfrenta al jugar, para luego abordarlas en las sesiones de intervención”, detalla.

Las sesiones terapéuticas se dividieron en 3 fases clave: una actividad preparatoria donde los niños saltaban, corría y realizaban múltiples movimientos con el fin de regular sus niveles de alerta y energía.

Luego una actividad central diseñada para favorecer el procesamiento sensorial y emocional a través de juegos como circuitos de saltos, llevar un objeto de un lado a otro, etc., y por último actividades de atención, concentración e inhibición de estímulos como juegos de mesa que desarrollan habilidades cognitivas superiores.

“Después de las sesiones identificamos una asociación con un aumento en la capacidad de los niños para regular sus emociones. Se observaron reducciones notables en los episodios de ira, frustración y ansiedad, así como una mayor expresión de emociones positivas y una mejor capacidad para manejar situaciones estresantes”, menciona el magíster.

Otro resultado alentador fue la mejoría en las habilidades sociales y de interacción durante las sesiones de juego terapéutico, en las que se desenvolvieron mejor con los demás participantes.

“Se observaron aumentos relevantes en la capacidad para compartir, cooperar, resolver conflictos y mantener la atención compartida, lo que sugiere un impacto positivo en el desarrollo de relaciones interpersonales sanas y duraderas”.

“Los resultados respaldan la idea de que involucrar a los niños en el juego favorece su regulación socioemocional, mejora su participación en esta ocupación fundamental y fortalece habilidades clave como la atención y el autocontrol”.

También aclara que es necesario seguir realizando este tipo de propuestas para identificar otros potenciales que puede tener el juego para el desarrollo de los niños.

La investigación fue dirigida por la profesora Sandra Ortiz, psiquiatra infantil, y codirigida por la profesora Eliana Parra, terapeuta ocupacional, ambas de la Facultad de Medicina de la UNAL.






martes, 7 de mayo de 2024

Con los ojos de la inteligencia artificial se observan las capas más profundas del Sol

Experto en astronomía utilizó redes neuronales generativas, un tipo de inteligencia artificial (IA) que simula con mayor precisión y rapidez el campo magnético de las capas más profundas del Sol, incluso más allá de la fotósfera o superficie visible del astro rey. La innovación sería un hito en la comprensión de esta estrella, su funcionamiento, liberación de energía e impacto en la atmósfera terrestre.

Con la guía de los profesores Santiago Vargas, del Observatorio Astronómico Nacional, y Sergiy Shelyag, de la Universidad Flinders (Australia), el investigador Germain Nicolás Morales Suárez, magíster en Astronomía de la Universidad Nacional de Colombia (UNAL), estimó y generó una imagen de algo que los científicos en el mundo pueden tardar meses en determinar: los cambios en el campo magnético del Sol, el cual es generado en el interior y emerge a la superficie.

Se trata específicamente de la zona convectiva, uno de los puntos que transfiere la mayor cantidad de radiación y energía hacia el espacio, y que le da una apariencia “granulada”.

Según el magíster Morales, entender estas zonas solares activas es relevante porque incide en el clima espacial, pues las manchas y erupciones presentes allí pueden dar lugar a tormentas solares afectando las comunicaciones por satélites, las redes eléctricas, los sistemas de navegación y otros dispositivos electrónicos en la Tierra.

Además es importante para determinar la cantidad de energía que llega a la atmósfera de la Tierra y su contribución en la temperatura, que se ha incrementado en los últimos años.

“Hoy existen dos formas de hacer cálculos sobre las capas del Sol observando y simulando sus estructuras, pero esto se hace especialmente para la fotósfera y las capas más externas, ya que en el interior solar hay zonas profundas que aún no entendemos porque no las podemos observar”, asegura el experto en astronomía.

“Uno de los métodos más usados es la solución de ecuaciones y el desarrollo de simulaciones computacionales pero toma mucho tiempo, tanto por su complejidad como por la necesidad de expertos y la potente capacidad de cómputo que se requiere. También están los  instrumentos de observación como telescopios especializados que son demasiado costosos y su información se limita a la superficie y atmósfera solar”.

Por eso el investigador buscó una alternativa para ahorrarle tiempo y dinero a sus colegas: la IA, ya que usando las redes neuronales generativas –de las que se habla en este campo desde 2011, pero que ganan mayor protagonismo desde 2022– realizó un trabajo pionero en el que obtuvo simulaciones e imágenes de zonas convectivas del Sol con una precisión impresionante en tan solo días, y que guarda una similitud fiable con los cálculos que se han hecho en otros países.

La red neuronal que implementó tiene un error que llega apenas al 5 %, lo cual en este campo significa un rendimiento óptimo y permite determinar valores de temperatura y densidad, además   del comportamiento de la energía, pero en especial los cambios en el campo magnético del Sol y su relación con el plasma, el cuarto estadio de la materia que se presenta a altas temperaturas y genera radiaciones elevadas.

“La red neuronal se encargó de analizar bases de datos con alrededor de 2 terabytes de información de un proyecto llamado MURaM que simula las capas del Sol a partir de ecuaciones de la física, realizado entre 2001 y 2005 por grupos de investigación del Instituto Max Planck, en Alemania, país que con Estados Unidos, España y Reino Unido lleva la delantera en estos temas”, indica el magíster.

La red neuronal genera simulaciones en tres dimensiones, en las que se evidencian cambios en la intensidad de los campos magnéticos que van desde alrededor de los 3.000 Gauss (G) –unidad también conocida como inducción de flujo magnético–, en zonas convectivas y profundas, hasta unos 300 G en la fotósfera, lo cual no se había logrado con este tipo de algoritmo y representa un avance fundamental para este campo.

“La similitud que se consigue es invaluable, y, aunque utilizamos un computador que no es el más avanzado, es solo el comienzo de este tipo de análisis y la oportunidad de seguir mejorando en la identificación de aquellas zonas que aún desconocemos para indagar sobre la formación y evolución del campo magnético en el interior solar”, destaca.

La investigación y las simulaciones se llevaron a cabo en el lenguaje de programación Python, que es uno de los códigos más utilizados en el mundo y que permite usar bibliotecas y herramientas que facilitan el proceso.

El algoritmo desarrollado empezó usando imágenes en dos dimensiones para la red neuronal y se fue mejorando para implementar redes 3D que puedan estudiar la verdadera naturaleza el campo magnético solar.





lunes, 6 de mayo de 2024

Mi primer libro de terremotos se suma a la Colección Infantil de la UNAL

 Uno de los mayores retos para la ciencia es poder contarla de manera sencilla, y esto es lo que busca Mi primer libro de terremotos: Sismología para niños, una obra que acerca a los más jóvenes al entendimiento de estos fenómenos naturales y a saber cómo nos afectan en la vida diaria, con ilustraciones y metáforas que harán que incluso los adultos se interesen y quieran seguir aprendiendo sobre este campo.

Según una leyenda japonesa, existe un pez-remo capaz de predecir cuándo ocurrirá un terremoto o sismo, y lo asocia con el dios dragón del mar (Ryūjin), encargado de cuidarlo; se cree que cuando este sale a la superficie y se mueve es porque habrá un terremoto o sismo, y de hecho muchos niños japoneses se interesan por su historia.

Así lo menciona el profesor Germán Andrés Prieto, del Departamento de Geociencias de la Universidad Nacional de Colombia (UNAL) Sede Bogotá, uno de los autores del libro, novedad presentada en la Feria Internacional del Libro de Bogotá (FILBo) 2024. En él se plasma el esfuerzo por contarles a los niños algo técnico y científico de la manera más interactiva y llamativa posible, ya que ellos se enfrentan a estos temas con un montón de preguntas y ganas de aprender.

“Tratar de explicarles un terremoto a los niños no es fácil, porque hay que buscar la forma de no perder la rigurosidad, entendiendo que no se puede decir algo equivocado. De ahí partió este viaje, con una primera versión que solo descifraban los expertos, pero que con el tiempo se hizo entendible gracias al arduo trabajo y empeño en el proyecto”, asegura el profesor Prieto.

Y precisamente la ilustradora del libro, Carolina Garzón, comenta que fue como tener un manuscrito complejo de términos –al que ella misma se acercó con la curiosidad de una niña– e irlo armando como un rompecabezas para que los pequeños se encuentren con la maravilla de la ciencia y comprendan –junto con sus padres– conceptos que forman parte de la cotidianidad en nuestro planeta.

“Al abrir el libro ellos se encontrarán con temas como la explicación de las capas de la Tierra usando un huevo, y teniendo siempre en cuenta los principios físicos de su funcionamiento. Hay algo que me dejó atónita, y fue cómo desconocemos las magnitudes y escalas de un terremoto, que escuchamos en un noticiero luego de que ocurrió, pero que en realidad no dimensionamos”, afirma la ilustradora, quien ya había trabajado en libros como Mi primer libro de minerales, de la Facultad de Ciencias de la UNAL.

Por su parte, la profesora Clemencia Gómez, del Departamento de Geociencias y coautora del libro, expresa que “el público infantil tiene una curiosidad innata y un montón de preguntas que hacen enriquecedora la labor de enseñar, y que son el verdadero escenario en donde se construye el gusto y la capacidad de acercarse a un mundo como la geología o el entendimiento de los terremotos”.

“Yo estoy de acuerdo con el reconocido astrónomo Carl Sagan cuando decía que ‘para que la ciencia tenga un impacto importante y sirva debe comunicarse’, por lo que estos esfuerzos son invaluables y surgen de una necesidad y un cuestionamiento crítico de los profesores, que nos hemos dado cuenta de que era el momento de acercarnos a este público”, asegura la experta.

Añade que “aunque parece un libro solo para niños, no lo es, pues le sirve a cualquier persona que no sabe sobre este tema y que quiera acercarse con inocencia y desconocimiento a un mundo enriquecedor y lleno de color y brillo para explicar este fenómeno natural y por qué ocurre”.

Al respecto, el profesor Prieto agrega que “cuando nos hablan sobre la magnitud en un terremoto creemos que lo entendemos, pero no es así, lo vemos como un número cercano en una escala, pero tiene una trascendencia enorme en un evento de este tipo; incluso hay gente o ‘expertos’ que dicen poder predecir cuando va a ocurrir un sismo, pero están equivocados, ya que aún no podemos realizar un pronóstico de la nada sobre el cuándo, dónde y en qué magnitud ocurrirá”.

La ilustradora Garzón comenta que “los colombianos debemos entender que, por nuestra ubicación en la Tierra, estamos expuestos a los terremotos. Yo no sabía que existe una formación denominada ‘anillo de fuego del Pacífico’, del que Colombia forma parte y que tiene una gran incidencia en que ocurra un sismo; por otro lado, también desconocía que hay lugares del planeta en los que no tiembla”.

Para los autores, este debe ser el primero de muchos libros que expliquen los fenómenos naturales, pues más adelante quieren hablar de forma sencilla acerca de qué son y cómo funcionan los volcanes, del impacto que tienen las sequías en la vida de las personas, o de por qué se producen deslizamientos, entre otros muchos fenómenos que quieren explicarles a los niños.





jueves, 2 de mayo de 2024

Pesca artesanal en el Pacífico nariñense, rumbo a un aprovechamiento sostenible

 Entre 2021 y 2024 unos 600 pescadores, aliñadoras y concheras de Tumaco recibieron capacitación tanto en buenas prácticas de manipulación (BPM) de la carne de pescado como en la elaboración de nuevos productos, entre ellos antipasto de piangua y filete de pescado apanado en harina de plátano. Este es uno de los resultados del proyecto “Fortalecimiento de la actividad pesquera artesanal en el Pacífico nariñense colombiano: hacia un aprovechamiento sostenible del recurso”, liderado por la Universidad Nacional de Colombia (UNAL) Sede Tumaco.

Esta iniciativa, financiada con recursos del Sistema General de Regalías y que contó con la Universidad de Nariño como institución de educación superior cooperante, también aportó en el desarrollo del conocimiento y la información de las nuevas zonas potenciales de pesca –a través de la herramienta web Geopesca 2.0– y en el mejoramiento de la gestión organizacional del sector pesquero artesanal, mediante la creación de un documento de planeación.

También se destaca la publicación de la “Cartilla de resultados de la evaluación y verificación de las buenas prácticas de manipulación, pensados para los pescadores artesanales y las recolectoras de piangua del Pacífico nariñense”, y de un capítulo del libro Integración de conocimientos tradicionales e innovación digital: Un nuevo paradigma para la pesca artesanal costera en ciencias biológicas.

Así mismo se creó la marca TUMA.CO y se hizo un maracado énfasis en el diseño de empaques para los productos innovadores obtenidos en estos 4 años.

El cierre del proyecto marca el inicio de una nueva etapa en el impulso al sector empresarial de Tumaco, además de impactar positivamente en la competitividad y el desarrollo económico de los pescadores artesanales, las aliñadoras y las piangueras.

Silvia Magnolia Ordóñez, representante legal de la Asociación de Concheras Raíces del Manglar, expresó su agradecimiento a la Universidad por el significativo aporte del proyecto en las vidas de las mujeres piangueras y el impacto de los productos realizados para comercializar.

Intensa formación e interacción con las comunidades

El proyecto contó con la participación de docentes y profesionales calificados para asumir el reto de llevar a cabo los estudios diseñados alrededor de 3 objetivos específicos y 7 componentes, mediante un trabajo colaborativo e interinstitucional.

La profesora Adriana Muñoz, de la Facultad de Medicina Veterinaria y de Zootecnia de la UNAL Sede Bogotá, enfatizó en que, “al generar conocimientos para la elaboración y el procesamiento de productos derivados de piangua y pescado, más los talleres de BPM, se afianzaron sus conocimientos y mejoraron el desarrollo de esta actividad”.

Así mismo, la profesora Ibeth Adriana Castellanos Alvarado, de la Facultad de Ingeniería y Administración de la UNAL Sede Palmira, indicó que “lo importante no es lo que está dentro de los empaques o envases ni la parte comercial, sino el valor que tiene el territorio: las capacidades de las personas para desarrollar productos y la ancestralidad de la pesca. Todo esto permitirá generar de ingresos a corto plazo, a través de un modelo de negocios con ingresos sustentables para las diferentes asociaciones de pescadores artesanales”.

De otra parte, Ricardo Oviedo, codirector de la Estrategia Participativa 1, resaltó que “mediante trabajo de campo y sondeos que no se habían realizado en los últimos 15 años se logró conocer las condiciones socioeconómicas de los pescadores y recolectoras de piangua de la región”.

“Por ejemplo, existen más 130 asociaciones de pescadores registradas en Cámara de Comercio de Tumaco, lo que denota gran dispersión y ausencia de asociatividad; la mayoría de los pescadores viven en el casco urbano de Tumaco”.

También se destaca que la actividad de pesca es étnica, es decir que inicialmente era una labor indígena, y ahora el 98 % de las comunidades afro la practican.

Biogás y biopolímeros

La profesora Luz Stella Cadavid, coordinadora del grupo de investigación Prospectiva Ambiental de la UNAL Sede Palmira y líder del desarrollo y la puesta en producción de la primera planta piloto para transformar residuos de la pesca artesanal (espinas, branquias y vísceras) en biogás y biometano, señala que “en Tumaco existen deficiencias en saneamiento básico y la práctica de botar los residuos al mar rompe el equilibrio ambiental y trae consecuencias tanto para las personas como para los animales”.

“Eso nos llevó a proponer un modelo que nos permita transformar residuos orgánicos en productos como biogás para aprovecharlos para producir ácidos grasos y fertilizantes para animales”.

Entre tanto, las profesoras Amanda Lucía Mora Martínez y María del Socorro Yepes, de la Escuela de Química de la Facultad de Ciencias de la UNAL Sede Medellín, avanzan en el desarrollo de biopolímeros a partir de los excedentes y residuos de pesca.

“Este gran proyecto de investigación apuesta por ofrecer investigación aplicada y de impacto en las comunidades del Pacífico. La intención es articular las diferentes áreas del conocimiento con las personas involucradas en la economía circular”, dijeron las investigadoras.

Durante el evento, el profesor John Josephraj Selvaraj, director de la Sede Tumaco y del Instituto de Estudios del Pacífico de la UNAL, acompañó al equipo de docentes y profesionales involucrados en el proyecto y señaló: “es importante visibilizar los resultados y destacar el papel de las comunidades que lo hicieron posible como cocreadoras del proyecto de regalías”.