martes, 20 de diciembre de 2022

Forest Mind y El Testigo, exposiciones abiertas en el Claustro de San Agustín

 En diciembre, el Claustro de San Agustín, de la Universidad Nacional de Colombia (UNAL), estará abierto al público en sus horarios habituales de martes a domingo de 10 de la mañana a 6 de la tarde –excepto los días 25 y 26, y el 1 y 2 de enero de 2023– para que todos los bogotanos y turistas que vienen a la ciudad visiten las exposiciones Forest Mind y El Testigo.

Forest Mind es la nueva obra de la videoartista suiza Ursula Biemann, comisionada y producida por el Museo de Arte de la UNAL. Se trata de una instalación que recoge su trabajo colaborativo de cuatro años con el pueblo inga panamazónico, en el cual la teórica del arte retoma su interés personal en la inteligencia de la naturaleza.

La curaduría de la exposición está a cargo de María Belén Sáez de Ibarra, profesora y directora de Patrimonio Cultural de la UNAL, quien señala que “la parte principal de la exposición es el videoensayo Forest Mind, una pieza metafísica y teórica fundamentada tanto en la investigación en campo como en lecturas científicas que Ursula Biemann ha realizado a lo largo de su vida, y además en el uso de las tecnologías de imagen más avanzadas para computar secuencias de ADN de la selva tropical”.

“Así, Biemann expone que la naturaleza alberga una inteligencia innata que se manifiesta incluso a nivel molecular, compartida a través de megarredes hiperconectadas entre todo el reino vegetal y que impacta las demás formas de vida”.

Destaca además que “la artista explica que esta inteligencia vegetal se manifiesta poderosamente a través del yagé, y los médicos tradicionales saben cómo manejarla; es un conocimiento salvaguardado durante 500 años por los chamanes inga”.

La exposición, que estará abierta hasta el 30 de abril de 2023, está integrada por el videoensayo artístico Forest Mind, el documental Vocal Cognitive Territory y la plataforma multimedia on-line Devenir Universidad, tres obras que se entrelazan para reflexionar sobre la interconexión de la vida.

El Testigo

De otra parte, la exposición El Testigo, del fotoperiodista colombiano Jesús Abad Colorado, es un punto de referencia para la comprensión, reflexión y discusión profunda de la paz y el posconflicto en Colombia.

“La exposición mantiene el tono ético de la muestra, en la cual no acusa ni toma partido, sino que invita a la responsabilidad colectiva de la dolorosa historia que ha atravesado al país y a una reconciliación para fomentar la esperanza y la reconstrucción”, afirma la profesora Sáez de Ibarra, curadora.

Agrega que “la muestra se presenta con el rigor científico de este periodista, pero al mismo tiempo con el afecto y el sentimiento que lo caracterizan: un retrato amoroso que apuesta por la esperanza y la dignidad humana evocando la reconciliación como una invitación a ponernos en la piel del otro”.

Son más de 500 fotografías en blanco y negro y color, muchas de ellas inéditas, capturadas entre 1992 y 2018, y cuyas historias van hiladas en un discurso construido de forma colectiva y académica, con un equipo que acompañó a este “testigo” durante meses, aunque están narradas en primera persona.

Igualmente se apoya en recursos multimedia, proyecciones en gran formato, mapas, cifras, estadísticas y resúmenes de estudios realizados por el Centro Nacional de Memoria Histórica y la Unidad de Víctimas.

La muestra está dividida en cuatro salas: “Tierra callada”,“No hay tinieblas que la luz no venza”,“Y aun así me levantaré”, y“Pongo mis manos en las tuyas”, cada una de las cuales  muestra diferentes realidades del conflicto armado del país como el desplazamiento, la desaparición forzada, la violencia en civiles y las manifestaciones por la paz.

La exhibición no pretende abarcar todo el territorio ni toda la historia del conflicto armado nacional, sino construir desde la particularidad, desde los fragmentos de esa parte del país que Colorado ha documentado, desmarcando a las víctimas de la identidad colectiva que ha fomentado su invisibilidad, para identificarlas como personas únicas.

Las visitas para grupos se deben programar con mínimo tres días de antelación, llenando este formato en línea. El Claustro de San Agustín está ubicado en la carrera 8 #7-21, en Bogotá.




 







viernes, 2 de diciembre de 2022

Residuos de madera convertidos en energía, carbón vegetal y hasta vinagre

 Hojas de los árboles, viruta de madera, cisco de café o cascarilla de arroz, entre otros residuos, son la materia prima con la que se pueden generar energías con emisión neutra de dióxido de carbono (CO2) a la atmósfera, además de productos como biochar (carbón vegetal) y vinagre de madera, muy cotizados en el mercado. Con innovaciones como estas, la Universidad Nacional de Colombia (UNAL) Sede Medellín proyecta la puesta en marcha de una spin-off.

Imagine que todas las hojas que poda de los árboles de su finca pueden ir no a la basura sino a una máquina que las procesa y obtiene de ellas energía para iluminar un espacio o para utilizar la lavadora o la licuadora. Así, los residuos que muchas veces son considerados como basura, dejarían de ser problema para convertirse en una oportunidad.

Como las oportunidades se aprovechan, el grupo de investigación Termodinámica Aplicada y Energías Alternativas (Tayea), de la UNAL Sede Medellín, lidera investigaciones que les permitan generar energía eléctrica y obtener productos con valor agregado.

Uno de los procesos para llegar a dichos fines es la gasificación, que “consiste en tomar un material sólido carbonoso, como por ejemplo las hojas de las podas de los árboles, y meterlo en un reactor a una temperatura de unos 850 °C, en presencia de poco de oxígeno, vapor de agua y dióxido de carbono”, explica profesor Farid Chejne Janna, líder del Tayea.

Allí el material lignocelulósico, llamado técnicamente biomasa, empieza a ser “cortado a nivel molecular”, o craqueado.

“Se trata de cadenas largas de carbonos, hidrógenos y oxígenos que se van ‘cortando’ durante la gasificación, de manera que van quedando moléculas más pequeñas como metano, monóxido de carbono, hidrógeno, etc.”, complementa Carlos Mario Ceballos, investigador del Tayea y profesor de la Universidad de La Guajira.

El resultado de este proceso es un producto gaseoso rico en hidrógeno y monóxido de carbono, gases que se pueden usar para producir energía eléctrica o térmica, que incluso se podrían enriquecer con más hidrógeno para llevarlo a otro tipo de reactor y producir gasolina, diésel, keroseno, dimetil éter (precursor de biocombustibles y productos químicos) o ácido acetilsalicílico (aspirina).

Todas estas posibilidades abren un panorama alternativo para la industria colombiana, que el grupo de investigación ha llamado “descarbonización”, pues el proceso de gasificación permite generar energía eléctrica con una emisión neutra de dióxido de carbono –uno de los principales causantes del calentamiento global– evitando la producción de metano, que es 28 veces más dañino que el CO2 y que se genera por la descomposición inadecuada de los residuos agroindustriales.

“Con base en la tecnología de gasificación, que ya se tiene desarrollada, junto al uso de la alta ingeniería (modelamiento matemático, simulación de procesos, optimización y diseño de equipos), se está buscando aportar a la descarbonización de la industria colombiana”, comenta el profesor Ceballos.

Tanto así, que el Tayea proyecta crear “DeCO2”, una spin-off que proporcionaría dispositivos para la gasificación y la generación de energía; además ofrecería asesoría en torno a la optimización de procesos industriales con base en el modelamiento y la simulación. La industria nacional tiene un potencial de ahorro energético que rondaría entre el 20 y 25 %.

En ese sentido, proyectan conformar “distritos de aprovechamiento energético de residuos”, en los que, con volúmenes de biomasa intermedios producidos en empresas medianas, grandes unidades residenciales, universidades, colegios o centros vacacionales, se pueda generar energía y otros productos de valor agregado.

Así, teniendo en cuenta que con la gasificación quedan algunos elementos sólidos –como el biochar– y líquidos –como el vinagre de madera, usado en la industria alimentaria–, el grupo también le está apostando a la consolidación de productos para el mercado.

“El biochar se puede convertir en carbón activado, muy usado en la captura de gases, la limpieza de afluentes hídricos y el sector textil”, señala el profesor Ceballos.

Además de las innovaciones conocidas hasta ahora, el Tayea avanza en la simulación molecular, el modelamiento de procesos a escala de partícula y a escala de proceso y el desarrollo de nuevos diseños ingenieriles para la generación de tecnologías locales.





jueves, 29 de septiembre de 2022

Uso de luz halógena optimizaría transformación de la arena para construcción

 La arena, o agregado fino, es un recurso fundamental en la elaboración de morteros o concretos que se disponen para la construcción. Sin embargo, la pérdida de agua y de material es un impedimento durante dicho proceso. Una innovadora técnica emplea luz halógena para ahorrar hasta el 98 % del tiempo, la energía y el material del recurso.

El mortero es una mezcla que contiene arena, agua y cemento, entre otros compuestos; se utiliza en la construcción de manera variada, pero sobre todo para el sostenimiento y revestimiento de muros de edificios, viviendas e incluso calles o autopistas.

En Colombia la elaboración de morteros se basa en la norma ASTM C128, con la cual se evalúa la absorción de agua de los áridos finos. Sin embargo, esta disposición presenta una dificultad al momento de obtener con precisión el valor de la absorción de agua y provoca una mayor pérdida de recursos durante su evaluación.

Viendo esta falencia, la ingeniera civil Diana Gómez Cano, estudiante de la Maestría en Construcción de la Universidad Nacional de Colombia (UNAL) Sede Medellín, propone utilizar una técnica basada en luz halógena que permite ahorrar tiempo y recursos mediante el cálculo del valor de la absorción de agua (o humedad).

En comparación con la norma estándar, al utilizar la técnica alternativa arrojó que se requiere un 25 % menos tiempo, un 86 % menos energía y se ahorró un 98 % de material. Además, con el uso de luz halógena solo se requieren 20 g de arena, a diferencia de la norma estándar en la que se necesitan 1 kilo o 1.000 gramos.

Luz halógena, alternativa económica y ecológica

La técnica balance termogravimétrico de luz halógena (TBH), se presentaría como una alternativa al uso de la norma estándar colombiana (NTC 237) y la internacional (ASTM C128) que calcula el valor de absorción de agua.

“La relación entre agua y cemento en una mezcla de morteros es fundamental ya que esto es lo que permite que existan unas propiedades mecánicas funcionales para la elaboración de infraestructuras”, explica la estudiante Gómez.

Según la ingeniera civil, el uso de esta técnica resulta pertinente en un mundo donde a diario se plantean alternativas que permitan un mejor uso de recursos naturales. Sin embargo, enfatiza en que la TBH no reemplaza la normativa estándar, sino que podría complementarla.

Durante la investigación, en la que participaron estudiantes del Programa Especial de Admisión y Movilidad Académica (Peama) de la Sede Orinoquia y de la Sede Medellín, se diseñó un software registrado como “Absortion Innovation”, de la UNAL.

El profesor Roberto Bernal, de la Sede Orinoquia, explica que “una vez dispuestos los 20 g de arena, se conecta la balanza que funciona con luz halógena y el programa informático mide en cuánto tiempo cambia la masa y la humedad”.

Agrega que “cuando hay un cambio en función del tiempo, se determina un punto de inflexión que está relacionado con la saturación”.

Paso a paso del desarrollo de la técnica

Para la investigación se establecieron tres objetivos: reducir el consumo de energía, la cantidad de muestra de agregado y el tiempo de la evaluación. Para lograrlo se desarrollaron dos fases.

La primera fase consistió en obtener la absorción del agua comparando la técnica alternativa con la norma estándar. “Aquí se encuentran valores más pequeños en la desviación estándar que con la técnica alternativa. Lo que evidencia que ofrece precisión de resultados” asegura la ingeniera Gómez.

Después se buscó analizar la optimización de recursos comparando ambas técnicas; así, se identificó que cuando se utiliza la TBH se reduce hasta en un 98 % la cantidad de material que se necesita.

Esta investigación planea llegar a una segunda fase en la cual se logre estandarizar la técnica para su uso nacional e internacional en la ingeniería civil.







martes, 6 de septiembre de 2022

Cómic narra la pérdida de Panamá para que los niños se apasionen por la historia

 León, Leonora y Leonel son los personajes del libro La pérdida de Panamá, que con ilustraciones y caricaturas cuenta este particular episodio de la historia de Colombia, acontecido hace 119 años, para que los niños de primaria conozcan su pasado y puedan comprender su presente.

“El pueblo que no conoce su historia está condenado a repetirla” es un dicho popular pero certero cuando se hace referencia a los vacíos que por años ha tenido la educación básica en Colombia.

Con 15 años de experiencia, la profesora Sandra Milena Vargas, quien imparte la asignatura de Ciencias Sociales en básica primaria, ha identificado falencias en la enseñanza de esta materia, como por ejemplo que las bibliotecas escolares están repletas de textos aburridos y largos –en su mayoría–, y casi ninguno incita a los estudiantes a indagar sobre el pasado.

“Muchas veces las instituciones educativas no tienen las condiciones para enseñar, se carece de material pedagógico y didáctico”, afirma la docente.

También ha establecido que una parte importante de sus estudiantes no leen un libro de historia por iniciativa propia, lo que “afecta el pensamiento histórico, muy relevante, pues es inherente a la crítica reflexiva y constructiva surgida en el diálogo, la interacción y la interrelación entre disciplinas, y que se van conformando en la infancia”.

Así, aprovechando la investigación que desarrollaba en su pregrado sobre la separación de Panamá de Colombia, la profesora Vargas se arriesgó a contar este episodio de principios de la República mediante anécdotas y datos curiosos.

El objetivo es que los niños no solo encuentren un relato fascinante de aquel 1903, sino que a partir de allí tengan elementos que les permitan entender mejor la realidad del país donde nacieron.

El libro La pérdida de Panamá es una herramienta pedagógica que apoya a los profesores en su apuesta por dinamizar la enseñanza de la historia. Cuando terminan la lectura, los estudiantes tienen dos maneras de mostrar lo aprendido: con un resumen escrito, o con uno ilustrado.

El historiador Darío Campos, profesor de la Facultad de Ciencias Humanas de la Universidad Nacional de Colombia (UNAL), señala que “se trata de un aporte valioso, ya que en 1984 se eliminó la historia como asignatura y área de conocimiento, y desde entonces a los estudiantes no se les enseña a pensar históricamente, lo que es distinto a enseñar historia. No hay perspectiva histórica sobre los problemas que vive la sociedad”.

Para la profesora Vargas fue importante escoger este tema en particular, “ya que rememora un hecho que aún genera indignación y se trata de un asunto histórico que causó más pérdidas que ganancias tanto para los istmeños como para los nacionales. Es un acontecimiento que siempre está en debate generando polémicas para los académicos de ambos países”.

Recursos narrativos del libro

En La pérdida de Panamá, el lector encuentra grabados, retratos de la época, mapas históricos y caricaturas de los artistas Nadím Amin –Premio Nacional de Periodismo Digital– y Julio César Bernal Quitian.

La introducción del libro reconstruye lo ocurrido y describe a los personajes que cuentan el relato en 17 apartados con temáticas como “La guerra de la sandía”, “La guerra de los Mil Días”, “El canal de Wall Street” o “Colombia llora su pérdida”.

León, uno de los tres personajes principales de la historia, explica la importancia de Panamá antes de separarse de Colombia. Leonora es la encargada de contar lo que ocurrió durante el proceso de independencia del istmo, y Leonel ayuda a comprender qué pasó con Panamá desde el momento en que dejó de ser un departamento colombiano.

Este 3 de noviembre se cumplen 119 años de la separación de Panamá, una pérdida incalculable para Colombia si se suman los ingresos que ha dejado el Canal construido en 1914 con el auspicio de Estados Unidos y que comunica a los dos océanos.

La académica Vargas concluye diciendo que hoy como ayer, las acciones del Gobierno colombiano están llenas de sumisión, tal vez porque como diría Elías Canetti, sus pasos están guiados por la idea de que: “la alegría de los más débiles es darle algo a los más fuertes”.








viernes, 26 de agosto de 2022

Obtener datos del cerebro en tiempo real ayudaría a tratar enfermedades neuronales

 Mejorar el diagnóstico de enfermedades neuronales, manipular prótesis o sillas de ruedas con el pensamiento, identificar los procesos químicos y eléctricos dentro del cerebro, entre otras, son las aplicaciones del algoritmo desarrollado por investigadores de la Universidad Nacional de Colombia (UNAL) Sede Manizales.

El desarrollo alcanzado por Luisa Fernanda Velásquez, doctora en Ingeniería –línea de investigación en Automática– e integrante del “Grupo de control y procesamiento digital de señales” de la UNAL Sede Manizales, permite obtener datos en tiempo real de la actividad neurológica, lo que convierte a la Institución en pionera en el país en la investigación de la emergente ciencia de la neuroingeniería, o ingeniería neural.

“Dicha área facilita el análisis de la respuesta del cerebro, y con base en los datos obtenidos aplicarla en el análisis de respuesta tanto a enfermedades como a tratamientos, lo cual ayudaría a los médicos a identificar cómo se ven afectadas las neuronas por diferentes patologías, y a partir de ahí formular el mejor tratamiento posible”, señala la investigadora Velásquez.

Una de las áreas de la ingeniería neural se enfoca en el desarrollo de interfaces cerebro-computador, que consiste en extraer información del cerebro y llevarla a un dispositivo externo sin intervención directa.

La motivación de la investigadora es brindarles a las que personas han perdido la movilidad –por enfermedades como la esclerosis lateral amiotrófica (ELA)– las habilidades para comunicarse e interactuar, a través de sillas de ruedas, prótesis, brazos robóticos y otros dispositivos, usando las conexiones cerebrales.

Para adelantar estos desarrollos es necesario partir de la recolección de datos –en tiempo real– sobre cómo funcionan las relaciones neuronales en el cerebro, y con estos, a través de tratamientos matemáticos, estadísticos y de programación, entre otras técnicas, crear el algoritmo que permita convertir la información en una acción, la cual puede ser identificar el desarrollo de patologías cerebrales con una predicción del comportamiento de los patrones, o manipular dispositivos.

Algoritmos al servicio del cerebro

La investigación se enfocó en tres componentes; el primero consistió en extraer los patrones discriminantes que se generan cuando una persona está imaginando un movimiento y cómo el cerebro interpreta estas relaciones.

“La principal dificultad al medir la actividad cerebral es su variabilidad, pues no hay cosas que se repitan exactamente igual, por eso es tan difícil extraer los patrones y evaluarlos con el paso del tiempo”, señala la experta.

Además, la toma de datos varía de persona a persona, pues, aunque fisiológicamente la forma del cerebro sea igual, existen elementos diferenciadores como la cantidad de masa –determinada por la alimentación del individuo durante su crecimiento–, la forma como se  resuelven los problemas, la formación académica y la manera como se entrenan diferentes habilidades, entre otros factores.

El segundo foco está relacionado con el descubrimiento de la variación de los patrones, con lo que la investigadora creó una caracterización de los sujetos de estudio, y a partir de ahí los clasificó en grupos con comportamientos comunes de respuesta motora al ejecutar una misma acción.

El tercer foco está orientado a predecir –con base en los datos obtenidos– cómo será la respuesta motora ante una acción, sin que el sujeto la ejecute.

A partir de estos datos se puede inferir si la persona es capaz de realizar o no la acción con un porcentaje de acierto, y a partir de este número es posible no solo clasificar a las personas en diferentes grupos, sino también –a partir de esta clasificación– calibrar los sistemas computaciones para que se adapten a las necesidades de cada individuo.

La investigadora Velásquez considera que “a futuro una de las aplicaciones de este tipo de procesos está enfocada en el desarrollo del análisis longitudinal, el cual consiste en realizar evaluaciones previas al paciente, luego aplicar el tratamiento correspondiente, una vez finalizado evaluar su respuesta, y en caso de requerir ajustes indicar un nuevo tratamiento con el fin de monitorear su eficacia”.

Entre los principales resultados de la investigación están: la extracción de los patrones de activación de una red cerebral en respuesta a tareas motoras y la aplicación de algoritmos para identificar dichos patrones; y el diseño tanto de un descriptor de las respuestas como de un nuevo algoritmo que ayudaría a predecir la capacidad de una persona de realizar tareas de imaginación del movimiento, y con estas predicciones adaptar diferentes dispositivos para apoyar a las personas con enfermedades neuronales o con parálisis.

 





viernes, 19 de agosto de 2022

El baño: lugar donde confluyen higiene y ocio

 El baño, la última invención de la vivienda en la arquitectura occidental, evolucionó y adquirió un carácter propio en cada cultura; es un espacio entre lo diverso y lo industrializado que se convierte hoy en el último reducto para el ser el lugar de encuentro del ser físico y el espiritual. ¿Cuáles han sido las variaciones de este refugio de la intimidad a lo largo de la historia?

En su trabajo para la Maestría en Arquitectura, el profesor Gerardo Abril Carrascal, de la Universidad Nacional de Colombia (UNAL) Sede Medellín, afirma que “desde la incorporación a la vivienda el baño se ha considerado subsidiario, accesorio, o en función de espacios más nobles como el salón y las habitaciones; pero su tecnificación tiene repercusiones en los cambios fundamentales que produjeron el espacio arquitectónico del siglo XX, dándole un protagonismo inusitado en la arquitectura moderna”.

En su investigación, el arquitecto devela una nueva mirada sobre dicho espacio y muestra su evolución desde tres ópticas: la relación con el agua, el vínculo con otros espacios de la vivienda, y el espacio en sí mismo.

Para su análisis recurre a la pintura, la literatura, la publicidad y las fotografías de sus inicios, buscando entender si el cuarto de baño fue la interpretación de hechos culturales de su época o una tradición reciclada. También analizó 50 casas europeas y norteamericanas.

Relación con el agua

Los romanos son los primeros en incorporar tecnologías de relación con el agua, como el baño turco, conocimiento concentrado en las termas romanas, primeros edificios públicos donde se dieron estas interacciones.

Durante la Edad Media, la llegada de la peste negra, considerada la epidemia más mortífera en la historia de la humanidad, transforma en pánico colectivo la relación lúdica con el agua.

El investigador menciona que “en el intento por entender su etiología, concluyeron que el contacto con el agua, en especial la de los baños a vapor, significaba un momento crítico de vulnerabilidad corporal pues la peste ingresaba al cuerpo en forma de un viento venenoso mientras se bañaban, por tener abiertos los poros de la piel”.

Alrededor de 1850 aparece el químico Louis Pasteur asegurando que el problema es el agua sucia, y se empieza a recomendar el lavado de manos y la construcción de fuentes de agua limpia en las viviendas.

A finales del siglo XIX surge el concepto de “higiene” y se da un proceso y una industria alrededor de la arquitectura para higienizar o volver salubres las ciudades y las viviendas.

Esa relación con la industria, que se concreta en el primer boom higienista de la Modernidad, pone un velo sobre toda la experimentación en el baño, ubicando la palabra higiene como único motor de cambios. Sin embargo, los arquitectos también incorporaron tradiciones ancestrales que asocian el agua con el ocio y el disfrute, y crearon la escenografía que hoy se conoce.





miércoles, 10 de agosto de 2022

Algoritmos demuestran alta efectividad para proteger datos privados de ciberataques

 ¡Has ganado un premio, responde a este mensaje para reclamarlo!, con mensajes como este, enviados por correo electrónico, redes sociales o mensajes de texto, algunas personas caen en las trampas informáticas de agentes maliciosos que lo único que buscan es robar sus datos personales, como contraseñas y cuentas en los bancos, entre otros.

Una investigación de la Maestría en Sistemas y Computación de la Facultad de Ingeniería de la Universidad Nacional de Colombia (UNAL) encontró que tres algoritmos tienen un 84 % de eficacia para identificar mensajes que podrían significar una estafa o un robo de datos.

A raíz de los muchos mensajes de este estilo que recibió en su celular, Juan Camilo López, autor de la tesis, se preguntó si no habría algún método o herramienta que ayudara a saber cuándo estos son mentiras y representaban algún peligro para quien los creyera.

Uno de los conceptos clave para entender su proyecto es el de la “ingeniería social”, definida como el arte o la ciencia de manipular el comportamiento de las personas generando engaños que buscan robar información confidencial para divulgarla o utilizarla; esta práctica puede ser ejecutada por cualquier persona.

Existen varios tipos de ingeniería social según el modo en que se ejecute, por ejemplo, está el phishing, que son mensajes de correo electrónico tipo “usted ganó un dinero entre a este link para reclamarlo”, o el smishing, que son mensajes de texto fraudulentos.

Al revisar el estado del arte, Juan Camilo encontró que no había muchas investigaciones al respecto, y en español no había nada, por lo que su estudio es novedoso en este campo.

“Se recolectaron datos de redes sociales como Facebook y Twitter, además de foros como Reddit y mensajes de texto que tenía en mi celular; en total se encontraron y analizaron alrededor de 300 ataques de ingeniería social”, asegura el investigador.

El trabajo consistió en extraer mensajes en estas redes y foros que contuvieran una denuncia o reclamo frente a una situación de posible estafa o engaño en mensajes de texto o correos electrónicos.

“Por ejemplo, muchas imágenes contenían denuncias a la Policía que mostraban el pantallazo de los mensajes maliciosos”, señala.

Luego de recolectar la información se procedió a clasificarla y limpiarla para que solo quedara el texto de los mensajes sin fotos, dobles espacios o caracteres especiales como símbolos de arroba o hashtags.

Esta acción se realizó gracias al lenguaje de programación Phyton, en el cual se utilizó el procesamiento del “lenguaje natural”, campo de las ciencias de la computación que estudia la relación entre la inteligencia artificial y el lenguaje para convertir el texto de los mensajes en valores numéricos.

La conversión se crea debido a que los algoritmos que se van a alimentar de esta información en Phyton no leen texto sino números, entonces se utiliza el número 1 para decir que existe un  ataque de ingeniería social, o sea de engaño, estafa o robo, mientras que el 0 quiere decir que no se presenta.

Es aquí donde aparecen los tres algoritmos que mostraron una gran efectividad para detectar las anomalías textuales que buscan robar datos y aprovecharse de las personas, estos son: una red neuronal artificial, un bosque aleatorio, y una máquina de vectores de soporte.

El candidato a magíster explica que “para estos mecanismos se extrajeron una serie de características del texto que incluían el número de emails, URLS y links, números telefónicos, ortografía, ocurrencias de palabras como ‘dinero’, ‘ganaste’ y ‘premio’, además de otras expresiones como ‘urgente’ o ‘usted debe’”.

Estos algoritmos funcionan por medio de una retroalimentación constante que permite que se aprendan y tomen mejores decisiones a medida que van analizando estos parámetros, encontrando y prediciendo cada vez de manera más precisa si un mensaje es un ataque a la seguridad de los usuarios o no.

“Estos algoritmos presentaban una eficacia de entre 82 y 84 % para detectar textos que pueden llegar a ser peligrosos y resultar en estafas, robos, y engaños; la máquina de vectores de soporte fue la que presentó el mejor desempeño”, afirma.

Esta tecnología se podría implementar en una aplicación de celular que prediga si un mensaje de texto de celular o en las redes sociales representa un riesgo, generando alertas como la originada por Gmail cuando un correo electrónico tiene una procedencia dudosa.

Cada vez es más importante implementar estrategias para que la era digital sea un potenciador del desarrollo de los seres humanos y no un daño a su integridad y seguridad, provocado por el uso y la divulgación ilegal de datos privados y personales presentes en la vida cotidiana de las personas.






miércoles, 3 de agosto de 2022

Proceso que mejora extracción de petróleo es protegido por la SIC

 La Superintendencia de Industria y Comercio (SIC) le otorgó patente de invención al “método y dispositivo para determinar una combinación químico-fluido de una fase de recobro mejorado de crudo”. La metodología, junto con un programa informático, tiene en cuenta variables técnicas, económicas, medioambientales y sociales.

La idea de trabajar el tema surgió a partir de un proyecto que buscaba fortalecer el proceso del recobro mejorado (una fase en la extracción de petróleo), dado que se identificó la necesidad de elegir una mejor combinación químico-fluido que se aplica en el subsuelo para obtener mayor cantidad del hidrocarburo.

La ingeniera de petróleos Cindy Alejandra Ortega Romero, magíster en Ingeniería – Ingeniería de Sistemas de la Facultad de Minas de la Universidad Nacional de Colombia (UNAL) Sede Medellín, cuya innovación patentada es resultado de su trabajo de investigación, señala que “el recobro mejorado en Colombia es muy importante ya que el país se caracteriza por tener yacimientos de crudo pesado y su extracción por métodos convencionales se ha dificultado, por lo cual se recurre a la implementación de técnicas de recobro químico”.

Agrega que “las operaciones de recobro mejorado requieren de grandes inversiones, largos plazos de planificación y compleja ejecución. Para garantizar el éxito en un proyecto de recuperación mejorada de petróleo (EOR por enhanced oil recovery) es importante que el tratamiento seleccionado sea el más indicado para las condiciones de un campo petrolero específico”.

“Así, una vez tomada esta decisión se define y ejecuta el proyecto, y por ende se debe garantizar que no haya pérdidas económicas y afectaciones en el tiempo de desarrollo del proyecto”.

En ese sentido, se han planteado diferentes métodos de tomas de decisiones estratégicas en recobro mejorado para establecer escenarios posibles y evaluarlos.

“Sin embargo, en el área de selección de los tratamientos químicos para procesos de recobro mejorado no se había profundizado en cuál o cuáles de los actuales modelos se pueden aplicar de manera confiable y altamente ajustada a los casos. Fue aquí que decidimos incursionar”, dice.

Agrega que “para el análisis, la metodología y el software incluyen datos técnicos, financieros, ambientales y sociales que por lo general no se tienen en cuenta durante la etapa de planeación para realizar el recobro mejorado, y al aplicar el método tradicional podrían suceder cosas como por ejemplo que el proceso sea interrumpido por alguna medida ambiental o por una comunidad inconforme cercana al proyecto”.

Para elaborar el software se usaron metodologías multicriterio que permiten agrupar datos técnicos, como opiniones de expertos. En ese último caso, y para facilitar el funcionamiento del programa informático, se aplicó un método que “convierte información cualitativa en algo matemático”.

Igualmente se empleó un algoritmo genético, que identifica contradicciones en el procesamiento de los datos y corrige los errores –que agrupa según el grado de importancia– y posteriormente selecciona la mejor combinación químico-fluido para la extracción del petróleo.

Lo que se propone con la patente es que, cuando se tenga clara la mejor combinación, esta información vaya a un simulador de petróleos para garantizar la manera más adecuada de inyección. En ese sistema, conectado a un sistema de monitoreo e inyección, se instala el software.

Para probar que el programa informático funciona, se desarrolló el proceso a nivel de laboratorio con el Grupo de Investigación Dinámicas de Flujo y Transporte en Medios Porosos. En los ensayos se usaron distintas combinaciones químico-fluido con CO2, nanopartículas, nanocápsulas, flue-gas, gas de reciclo y fluorosurfactantes.

La investigación fue financiada por el Ministerio de Ciencia, Tecnología e Innovación bajo el proyecto Plan Nacional para el Potenciamiento de la Tecnología (CEOR) con gas mejorado químicamente.

En el proyecto también participaron Juan Manuel Mejía Cárdenas, Alejandro Restrepo Morales e Yris Olaya Morales, profesora del Departamento de Ciencias de la Computación y de la Decisión de la Facultad de Minas de la UNAL Medellín, quienes son los otros inventores.

Para la magíster Ortega, “el desarrollo es muestra de las diversas posibilidades de aplicación y aportes de la ciencia de datos”.

 


lunes, 25 de julio de 2022

Medidores de CO2 para espacios cerrados se distribuyen en la UNAL Sede Bogotá

 Ante el quinto pico de contagio por COVID-19 en el país, la Oficina de Gestión Ambiental de la Universidad Nacional de Colombia (UNAL) Sede Bogotá ha dispuesto medidores de CO2 en espacios cerrados como oficinas, salones y auditorios, con el fin de implementar un piloto de monitoreo de calidad del aire y como una medida preventiva.

Durante el primer semestre 2022 los medidores de CO(o dióxido de carbono) se ubicaron en algunas de las facultades y oficinas administrativas con mayor aforo, para medir en tiempo real la calidad del aire y tomar medidas inmediatas.

Es importante recordar que la ventilación de espacios cerrados es el arma más poderosa para prevenir los contagios de COVID-19, ya que allí las personas se retiran el tapabocas, hablan o se ríen, y por ende hay más probabilidad de concentración de aerosoles –pequeñas partículas o gotas en suspensión, en este caso del virus– y más posibilidades de contagio.

El CO2 es un indicador de la calidad de la ventilación porque es el gas que se exhala cada vez que respiramos. Cuando este se acumula, indica que no hay buena renovación del aire, pero si su concentración es baja quiere decir que la ventilación es óptima.

En el aire ambiente la concentración de dióxido de carbono es de 400 partes por millón (ppm) y es relativamente constante, por lo que sirve como referencia.

En espacios cerrados es aceptable que esta medida esté por debajo de las 1.000 ppm, lo que indicaría que la calidad del aire es óptima, pero en un escenario de pandemia como el actual, las concentraciones de COdeben estar por debajo de las 700 ppm, lo que indica que la cantidad de aire exhalado es del 1 %.

Así, la relevancia de ventilar los espacios cerrados tiene que ver con disminuir el riesgo de contagio mediante la inhalación de aerosoles que se van acumulando en el ambiente cuando la renovación del aire no es óptima.

Por eso medir el dióxido de carbono en ambientes cerrados de la UNAL debe formar parte de las estrategias de mitigación del COVID-19 que apoyen además los importantes esfuerzos que varias ciudades del país adelantan para aplanar la curva de la segunda ola o pico de contagios. 

Los dispositivos distribuidos por la Oficina de Gestión Ambiental de la UNAL Sede Bogotá cuentan con baterías de larga duración, también midentemperatura, humedad relativa y presión atmosférica, y proporcionan alertas visuales y sonoras en caso de que el nivel de CO2 supere una concentración de 1.400 ppm, nivel típicamente asociado con quejas de somnolencia y mala calidad del aire.

Si la concentración de CO₂ supera los niveles permitidos se recomienda incrementar la ventilación o disminuir el aforo hasta que se sitúe por debajo de ese indicador.







lunes, 18 de julio de 2022

Estudio de huracanes del golfo de México optimizaría monitoreo en Colombia

 Observar la temperatura superficial del mar, la presión atmosférica y los fuertes vientos de los huracanes Harvey, Michael e Ida que han pasado por el golfo de México entre 2016 y 2021, permitiría tener una visión concreta de lo que se debe monitorear en las regiones del Caribe para prever pérdidas en la zona costera continental e insular colombiana.


Las condiciones meteorológicas que se presentan entre junio y noviembre en el golfo de México son propicias para la formación de huracanes en las zonas costeras, específicamente la temperatura superficial del mar (TSM), que se encuentra por encima de los 26 °C, y la presión al nivel del mar (PNM), por debajo de 1.013 milibar (mbar).

Juan Sebastián Gómez, estudiante de último semestre de Geología de la Universidad Nacional de Colombia (UNAL) Sede Bogotá, menciona que “desde hace seis años la temperatura superficial del mar en las aguas costeras del golfo es la que ha presentado mayores anomalías, al subir 5 °C mientras la temperatura del aire hasta 8 °C, lo que indicaría un calentamiento significativo tanto del mar como de la parte inferior de la atmósfera durante la temporada de huracanes”.

“Tal situación genera las condiciones propicias, junto con las presiones bajas, para la formación de estos fenómenos atmosféricos”, señala.

La profesora Nancy Liliana Villegas Bolaños, directora del Grupo de Investigación en Oceanología (CENIT) de la UNAL, afirma que “el Caribe colombiano se encuentra en un sector donde en los últimos años se están presentando condiciones similares a las estudiadas en el golfo de México”.

Por eso los resultados ofrecidos por su pupilo Gómez “permitirían que el conocimiento adquirido se aplique en el monitoreo asertivo de las islas, con lo que se podrá pronosticar la ocurrencia, intensidad y trayectoria de huracanes en nuestra región, y así alertar a la población, minimizando pérdidas económicas y humanas”.

Siguiendo la pista de cómo se forman los huracanes

Los huracanes o ciclones tropicales son grandes y fuertes tormentas que se forman en el mar y que pueden provocar vientos con una velocidad superior a los 100 o 200 km/hora. Se crean en aguas con una TSM superior a los 26/27 ºC del océano Atlántico para este caso.

Estos se forman como resultado de una mezcla de diferentes factores. El estudiante Gómez dice que uno de ellos es que es necesario que la PNM sea inferior a 1.013 mbar para que las presiones sean bajas y se dé el movimiento de los vientos.

Además se debe tener una TSM alta al menos de 15 m de profundidad, un aspecto relevante si se tiene en cuenta que “con estas temperaturas aumenta la evaporación, la cual actúa como el 'combustible' que mantiene a los huracanes”.


Agrega que “el huracán necesita movilizarse a través del ciclo del agua, y si la presión atmosférica registrada supera los 1.013 mb, las aguas se convierten en un “transporte” de  tormentas tropicales y huracanes, como sucedió con Harvey (2017), de categoría 4; Michael (2018), de categoría 5; e Ida (2021), de categoría 4”.

Con Harvey, la temperatura del mar se encontraba por encima de los 30 °C y la presión atmosférica marcaba 990 mb. Ida tocó tierra con vientos máximos sostenidos de 240 km/h, se intensificó sobre las cálidas aguas del golfo de México, que se encontraban en 30 °C, además, la presión atmosférica era de 929 mb. Y Michael alcanzó vientos máximos de 260 km/h, la presión mínima era de 919 mb y la temperatura sobre el nivel del mar estaba en 30 °C y olas hasta 6 m.

Para llegar a estas conclusiones se analizaron cinco parámetros que están relacionados con la formación de huracanes: TSM, PNM, temperatura del aire, cobertura de nubes bajas (aquellas cuyas bases se encuentran por debajo de los 2.000 m y que casi siempre están compuestas por gotas de agua) y precipitación convectiva (la que se da como resultado de la interacción de masas de aire que convergen y ascienden generando lluvia); las dos últimas sirven como indicadoras de la presencia de un huracán y su desarrollo.

Con los datos obtenidos se realizaron gráficas y mapas que muestran cómo se han comportado dichos parámetros tanto a lo largo de los años como durante el año, mostrando que hacia el segundo semestre del año las condiciones para la formación de huracanes son propicias y van de la mano con la ocurrencia de huracanes intensos, en especial entre agosto y octubre.

“El calentamiento global ha incrementado la temperatura superficial del mar, factor fundamental para que regiones como el Caribe colombiano sean ahora más vulnerables a procesos de interacción océano-atmosféricos como el huracán Iota que azotó a San Andrés en 2020, y Berni en La Guajira en junio de este año”, concluye la profesora Villegas.