Descubre los orígenes de la ingeniería química y su relevancia en el mundo actual
Por Jean Colmenares, asistente de cátedra y laboratorio del departamento de Ingeniería Química
La ingeniería química es una de las profesiones más buscadas en el sector industrial y extractivo del Perú, representando aproximadamente una quinta parte de las carreras más solicitadas por el personal. Además, los ingenieros químicos son muy pedidos por varias compañías nacionales y multinacionales; y reciben, en comparación a otras ramas de la ingeniería, unos salarios competitivos. Pero, mientras reconocemos su relevancia actual, es importante preguntarnos: ¿cuánto tiempo ha estado presente la ingeniería química en el mundo? Para responder esta pregunta, regresemos a los orígenes de la ingeniería y, por supuesto, de la ingeniería química.
Los orígenes de la ingeniería
Por un lado, la ingeniería tiene tantos años como la historia humana. Las pirámides egipcias y los acueductos romanos, por ejemplo, fueron algunas de las formas en las que las personas desarrollaron estructuras con fines sociales. Sin embargo, no fue sino hasta la Edad Moderna con la Revolución Industrial, en la que la ingeniería sufre una drástica sofisticación y comienza a ser reconocida como institución. En la Francia de 1676 se creó en la infantería un cuerpo llamado corps du génie compuesto por militares experimentados en el manejo de máquinas a motor y en el diseño de artefactos de guerra.
Posteriormente, a finales del siglo XVIII se fundó la primera escuela de ingeniería en la École polytechnique, y esto dio inicio a la creación de escuelas de ingeniería en otros países.
El desarrollo de la ingeniería química
Por otro lado, la ingeniería química como profesión fue desarrollándose gracias a los avances científicos de la Edad Moderna. La revolución industrial tuvo un impacto significativo en la demanda de especialistas en el desarrollo y optimización de procesos para obtener compuestos químicos y sustancias de interés. Varias universidades europeas, especialmente las de Alemania, fueron claves para la investigación de procesos químicos y obtención de nuevos compuestos. Sin embargo, no se hablaba de ingeniería química en ese entonces. Es aquí donde a finales del siglo XIX, George Davis, un inspector de industrias químicas inglés, dio una serie de clases magistrales en la Manchester School of Technology, las cuales luego formarían parte del primer manual del ingeniero químico denominado A Handbook of Chemical Engineering que fue publicado en 1901. Posteriormente, se fundó el Instituto Americano de Ingenieros Químicos (AIChE) en Estados Unidos en el año 1908 y, posteriormente, varias universidades de este país y del mundo comenzaron a incluir a esta carrera dentro de su oferta académica.
La llegada de la ingeniería química al Perú
El Perú ya tenía en el siglo XX carreras de Química con orientación a procesos industriales como la Universidad Nacional de Ingeniería (UNI), por ejemplo. Sin embargo, fue un 22 de enero de 1946 cuando se creó la primera facultad de Ingeniería Química en la Universidad Nacional de Trujillo (UNT) durante el gobierno del ex-presidente José Luis Bustamante y Rivero. Posteriormente, varias universidades peruanas adoptaron a esta carrera en su currícula y comenzaron a formar a estudiantes para el mercado industrial. Hasta el año pasado, el Colegio de Ingenieros del Perú (CIP) ha tenido 17,216 profesionales colegiados desde su fundación en el año 1962.
La UTEC, por su parte, ha formado a más de treinta egresados de esta carrera desde su fundación y, al igual que muchas otras universidades, siguen formando a futuros ingenieros químicos para crear soluciones a los problemas del futuro. Luego de toda esta revisión histórica, podríamos decir que la carrera tiene, aproximadamente, ¡más de un siglo de edad en el mundo! Definitivamente son muchos años, y sin contar los que siguen.
En UTEC la carrera de ingeniería química prepara a los estudiantes para entender los fundamentos de la materia y sus cambios, con el objetivo de aplicar dichos conocimientos al diseño y monitoreo de procesos industriales, los cuales van desde el tratamiento de aguas hasta la elaboración de vacunas y demás productos. Te invitamos a conocer más de esta carrera, así como las otras opciones de pregrado que ofrece esta universidad líder en tecnología e innovación.
Referencias
[1] Ministerio de Trabajo y Promoción del Empleo, ‘‘Encuesta de Demanda Nacional 2022’’, Gobierno del Perú, Lima, Perú, 2022. [En línea]. Disponible en: https://cdn.www.gob.pe/uploads/document/file/3171158/EDO%20al%202022_Nacional.pdf [Accedido: 09-jul-2023]
[2] Universia, ‘‘Ingeniería Química: Salidas Profesionales en el Perú’’, 2020. [En línea]. Disponible en: https://www.universia.net/pe/actualidad/vida-universitaria/ingenieria-quimica-salidas-profesionales-peru-1135655.html [Accedido: 09-jul-2023]
[3] M. Davis, ‘‘An historical preface to engineering ethics’’, Sci. Eng. Ethics, vol. 1,pp. 33-48, March 1995. [Online]. Available: https://doi.org/10.1007/BF02628696 [Accessed: Jul 09, 2023]
[4] N. Peppas, ‘‘The First Century of Chemical Engineering’’, 2008. [Online]. Available:
https://sciencehistory.org/stories/magazine/the-first-century-of-chemical-engineering/ [Accessed: Jul 09 2023]
[5] AIChE Perú, ‘‘La Ingeniería Química en el Perú (Reseña Histórica)’’, 2020. [En línea]. Disponible en: https://www.aiche.org.pe/2020/01/22/ingenieria-quimica-en-el-peru-resena/ [Accedido: 09-jul-2023]
[6] Andina Noticias, ‘‘Día del Ingeniero Químico: ¿Por qué se celebra el 22 de enero?’’, 2023. [En línea]. https://andina.pe/agencia/noticia-dia-del-ingeniero-quimico-por-se-celebra-22-eero-926088.aspx#:~:text=Esta%20fecha%20especial%20conmemora%20la,de%20Trujillo%20el%20a%C3%B1o%201946. [Accedido: 09-jul-2023]
Cada vez es más común escuchar casos de bacterias resistentes a los antibióticos en el ámbito hospitalario, con cada vez menos antibióticos disponibles para combatirlas. La solución a esta nueva y preocupante realidad podría no solo estar en el desarrollo de nuevos antibióticos, sino en utilizar a las bacterias para combatir otras bacterias.
Esta es la propuesta de los científicos del Centre for Genomic Regulation and Pulmobiotics, quienes ante la resistencia a antibióticos que genera la bacteria P. aeruginosa, causante de infecciones pulmonares inter hospitalarias, decidieron modificar genéticamente la bacteria Mycoplasma pneumoniae que causa afecciones similares, removiendo su habilidad para causar enfermedad; y programarla para atacar a P. aeruginosa.
P. aeruginosa es una bacteria naturalmente resistente a los antibióticos por su habilidad de crear biofilms, los cuales se adhieren a las superficies del cuerpo de su hospedero formandoestructuras impenetrables incapaces de ser afectadas por los antibióticos. Estos biofilms pueden crecer en las superficies de los tubos endotraqueales que se usan en los pacientes conasistencia de ventiladores mecánicos, causando una neumonía asociada al uso de ventiladores. Los científicos usaron técnicas de la biología sintética en M. pneumoniae para darle la habilidad de producir diversas moléculas capaces de disolver biofilms: un ejemplo de estas moléculas es las piocina, que son toxinas naturales que inhiben el crecimiento de cepas bacterianas de Pseudomonas.
Esta bacteria producto de la bioingeniería, que fuera renombrada por sus creadores como “medicina viva” o living medicine, es candidata a ser tratamiento de las infecciones causadas por asistencia de ventilación mecánica. El grupo de investigadores liderados por el Dr. Luis Serrano, especialista en biología sintética, se encuentra realizando ensayos para poder administrarla usando nebulizadores.
Sin duda este estudio abre las puertas para que los investigadores puedan crear nuevas cepas de bacterias capaces de atacar otras enfermedades respiratorias, entre ellas el cáncer de pulmón y el asma. El objetivo es ambicioso: revolucionar la tecnología actual modificando las características de las bacterias para liberar todo su potencial, y con ello aportar significativamente al tratamiento de diversas enfermedades.
Bibliografía:
1. Rocco Mazzolini, Irene Rodríguez-Arce, Laia Fernández-Barat, Carlos Piñero-Lambea, Victoria Garrido, Agustín Rebollada-Merino, Anna Motos, Antoni Torres, Maria Jesús Grilló, Luis Serrano, Maria Lluch-Senar. Lluch-Senar. Engineered live bacteria suppress Pseudomonas aeruginosa infection in mouse lung and dissolve endotracheal-tube biofilms. Nature Biotechnology, 2023; DOI: 10.1038/s41587-022-01584-9
Sabemos que el agua es esencial para la vida y que conforme pasa el tiempo mayor es la preocupación por la disponibilidad y uso de este recurso. Es por ello que nos encontramos en la constante búsqueda de métodos sostenibles y pasivos que nos permitan encontrar soluciones a los problemas del suministro de agua. Para hacer frente a este desafío, el enfoque de la investigación en las últimas décadas ha sido la captación de agua atmosférica; así como la reducción del uso de agua dulce y el tratamiento del agua contaminada.
Se ha demostrado que la recolección de niebla es una fuente viable de agua de buena calidad en muchas partes áridas del mundo, una malla de un metro cuadrado puede recolectar de 9 a 70 litros por día en lugares urbanos (por ejemplo, en Lima, Perú y en Dhofar, Omán) e instalaciones a gran escala (es decir, malla de 5.000 m2) puede recolectar hasta 100.000 litros de agua en un solo día. [1]
No es novedad que, en ciertas regiones de nuestro país, además de otros países usen mallas para recolectar el agua de la atmosfera y así poder combatir la escasez de este recurso. Pero, ¿Qué pasa en las zonas urbanas, dónde a parte de la escasez se tiene que lidiar con la contaminación del aire? Investigadores científicos de la ETH de Zúrich han desarrollado una forma sencilla de recolectar agua de la niebla y eliminar de manera simultanea contaminantes presentes en ella.
Ellos presentan un dispositivo combinado de recolección de niebla y purificación de agua que opera de manera completamente pasiva en exteriores requiriendo luz solar solo para activarse. El revestimiento permanece reactivo incluso cuando no se irradia durante varias horas, lo que permite la recolección y el tratamiento simultáneos de la niebla contaminada, incluso cuando la irradiancia solar es baja, como sería en condiciones de niebla
Para ello se utiliza una malla de alambre metálico recubierta de una mezcla de polímeros especialmente seleccionados y nanopartículas de dióxido de titanio anatasa (fase cristalina de estructura octaédrica). Los polímeros garantizan que las gotas de agua se recolecten de manera eficiente en la malla y desciendan lo más rápidamente posible a un recipiente antes de que sean arrastradas por el viento. El dióxido de titanio actúa como catalizador químico, descomponiendo las moléculas de muchos de los contaminantes orgánicos contenidos en las gotas para hacerlos inofensivos. Además, la humectabilidad de la superficie de la malla está diseñada para mejorar la extracción de agua.
Como resultado de la investigación en pruebas al aire libre, el dispositivo puede mantener un buen rendimiento de recolección de niebla, así como una eficiencia de tratamiento de agua de >85 %. En esa misma línea, la producción continua de agua con purificación pasiva demostrada en este estudio proporciona una solución libre de energía para abordar la escasez de agua, avance que podría ayudar a brindar acceso a agua potable a millones de personas en todo el mundo.
Referencias
Ghosh, R. & Ganguly, R. Harvesting Water from Natural and Industrial Fogs—Opportunities and Challenges in Droplet and Spray Transport: Paradigms and Applications (eds Basu, S. et al.) 237–266 (Springer, 2018).
Schemenauer, R. S., Cereceda, P. & Osses, P. Fog Water Collection Manual (FogQuest, 2022)
El pasado mes salió una noticia acerca del potencial carcinogénico que podría estar aparejado al consumo de aspartamo, un endulzante sintético. La noticia salió a raíz de comentarios emitidos por una agencia de la Organización Mundial de la Salud (OMS). Para entender un poco más de qué se trata esta noticia y el potencial peligro del consumo de alimentos que contengan este endulzante es importante entender su origen, su rol y las cantidades presentes en los alimentos considerados bajas calorías o dietéticos.
¿Qué son los endulzantes artificiales?
Los endulzantes artificiales son mayormente moléculas orgánicas con la capacidad de producir la sensación de dulzor en el paladar y por ende, endulzar aquellos alimentos a los que no se les agrega o se le han removido los azúcares. Este tipo de moléculas tienen un poder endulzante superior al del azúcar de mesa, o sacarosa y es por ello que debido a su bajo aporte calórico se han vuelto parte de múltiples alimentos para aquellas personas que quieran perder peso o padecen algún tipo de enfermedad metabólica, entre ellas, la diabetes. El aspartamo se encuentra entre estas moléculas.
El aspartamo es un aditivo alimentario sintético, bajo en calorías y aproximadamente 200 veces más dulce que el azúcar. Fue descubierto en 1965 por el químico James Schlatter y recién salió al mercado en 1981. Está formado por 2 aminoácidos: el aspartato y un metil éster de fenilalanina (aminoácido modificado). Este endulzante es usado en bebidas, postres, golosinas, productos lácteos, productos reducidos en calorías y como endulzante de mesa (en reemplazo del azúcar), entre otros.
Hasta aquí parecería que no hubiera ningún inconveniente con el aspartamo ya que ha sido parte de nuestras vidas por una buena cantidad de tiempo. Sin embargo, a mediados de julio de este año, la OMS realizó un anunció que avivó la preocupación por la presencia de estos compuestos sintéticos en nuestra alimentación.
La declaración de la agencia dependiente de la OMS mencionaba la inclusión del aspartamo como un producto posiblemente carcinogénico y esto despertó la preocupación por su uso actual y los efectos que podrían venir aparejados con su consumo, especialmente la posible conexión con el cáncer hepático. Sin embargo, es importante revisar la información y el sustento científico para realizar el anuncio. La agencia internacional para la investigación del cáncer (IARC, por sus siglas en inglés) indicó que los estudios en humanos tenían evidencia limitada que solo se basaban en 3 estudios observacionales, ésta en conjunto con el comité de expertos en aditivos alimentarios que es parte de la OMS y de la Organización para la Alimentación y Agricultura (FAO, en inglés) o JECFA, han emitido el comunicado indicando la nueva clasificación. Esta decisión indicaba además que no era necesario el cambio de la ingesta diaria permitida de este endulzante (40 mg/kg de peso, según fuentes norteamericanas y europeas).
Entonces: ¿qué significa esta evidencia? Por un lado, se sabe que los estudios mencionados fueron realizados en animales, por lo que no siempre existe una correlación directa con los humanos. Pueden dar pistas y por ello, requieren de mayor investigación y de ser posible, estudios en humanos. Adicionalmente, un estudio publicado por investigadores de Harvard, la Universidad de Boston y el Instituto Nacional de Cáncer de Estados Unidos, examinó el consumo de bebidas endulzadas en personas con cáncer. Los investigadores encontraron un elevado riesgo de cáncer de hígado en personas con diabetes con un consumo de bebidas gaseosas endulzadas artificialmente. Sin embargo, la revisión no halló un incremento en cáncer hepático en aquellas personas que consumían gaseosas y no presentaban diabetes. Esto quiere decir que los estudios observacionales muestran correlaciones, pero no causas y efectos. Para que el efecto negativo del aspartamo sea evidente, y de acuerdo a los límites permitidos de su ingesta, deberíamos sobrepasar un equivalente al consumo de 9 a 14 latas de gaseosas diarias o aproximadamente 4 litros al día.
El mensaje final es seguir siendo cuidadosos en la selección de los alimentos y bebidas que consumimos, buscar ingredientes saludables y no confundirlos con seguros. Recordar que el consumo excesivo de azúcares refinados pueden llevar a la aparición de obesidad y otras enfermedades metabólicas. Más allá de que los endulzantes artificiales puedan servir para reducir el consumo de azúcar, no ofrecen ningún beneficio para la salud y lo ideal sería dejar de consumirlos.
Referencias:
https://www.efsa.europa.eu/en García, B. “El aspartamo sigue siendo seguro (y la OMS debería revisar cómo lanza sus mensajes)”. El Mundo [España], 14/07/2023.
Jewett, C. “Aspartame is a possible cause of Cancer in Humans, a WHO Agency says”. The New York Times [Estados Unidos], 13/07/2023.
Magnuson, B. et al. (2016) Biological fate of low-calorie sweeteners, Nutrition Reviews Vol. 74(11):670–689. doi: 10.1093/nutrit/nuw032
Timberlake, K. (2019) Chemistry An Introduction to General, Organic, and Biological Chemistry, 13th Edition, Pearson.
El pasado mes salió una noticia acerca del potencial carcinogénico que podría estar aparejado al consumo de aspartamo, un endulzante sintético. La noticia salió a raíz de comentarios emitidos por una agencia de la Organización Mundial de la Salud (OMS). Para entender un poco más de qué se trata esta noticia y el potencial peligro del consumo de alimentos que contengan este endulzante es importante entender su origen, su rol y las cantidades presentes en los alimentos considerados bajas calorías o dietéticos.
¿Qué son los endulzantes artificiales?
Los endulzantes artificiales son mayormente moléculas orgánicas con la capacidad de producir la sensación de dulzor en el paladar y por ende, endulzar aquellos alimentos a los que no se les agrega o se le han removido los azúcares. Este tipo de moléculas tienen un poder endulzante superior al del azúcar de mesa, o sacarosa y es por ello que debido a su bajo aporte calórico se han vuelto parte de múltiples alimentos para aquellas personas que quieran perder peso o padecen algún tipo de enfermedad metabólica, entre ellas, la diabetes. El aspartamo se encuentra entre estas moléculas.
El aspartamo es un aditivo alimentario sintético, bajo en calorías y aproximadamente 200 veces más dulce que el azúcar. Fue descubierto en 1965 por el químico James Schlatter y recién salió al mercado en 1981. Está formado por 2 aminoácidos: el aspartato y un metil éster de fenilalanina (aminoácido modificado). Este endulzante es usado en bebidas, postres, golosinas, productos lácteos, productos reducidos en calorías y como endulzante de mesa (en reemplazo del azúcar), entre otros.
Hasta aquí parecería que no hubiera ningún inconveniente con el aspartamo ya que ha sido parte de nuestras vidas por una buena cantidad de tiempo. Sin embargo, a mediados de julio de este año, la OMS realizó un anunció que avivó la preocupación por la presencia de estos compuestos sintéticos en nuestra alimentación.
La declaración de la agencia dependiente de la OMS mencionaba la inclusión del aspartamo como un producto posiblemente carcinogénico y esto despertó la preocupación por su uso actual y los efectos que podrían venir aparejados con su consumo, especialmente la posible conexión con el cáncer hepático. Sin embargo, es importante revisar la información y el sustento científico para realizar el anuncio. La agencia internacional para la investigación del cáncer (IARC, por sus siglas en inglés) indicó que los estudios en humanos tenían evidencia limitada que solo se basaban en 3 estudios observacionales, ésta en conjunto con el comité de expertos en aditivos alimentarios que es parte de la OMS y de la Organización para la Alimentación y Agricultura (FAO, en inglés) o JECFA, han emitido el comunicado indicando la nueva clasificación. Esta decisión indicaba además que no era necesario el cambio de la ingesta diaria permitida de este endulzante (40 mg/kg de peso, según fuentes norteamericanas y europeas).
Entonces: ¿qué significa esta evidencia? Por un lado, se sabe que los estudios mencionados fueron realizados en animales, por lo que no siempre existe una correlación directa con los humanos. Pueden dar pistas y por ello, requieren de mayor investigación y de ser posible, estudios en humanos. Adicionalmente, un estudio publicado por investigadores de Harvard, la Universidad de Boston y el Instituto Nacional de Cáncer de Estados Unidos, examinó el consumo de bebidas endulzadas en personas con cáncer. Los investigadores encontraron un elevado riesgo de cáncer de hígado en personas con diabetes con un consumo de bebidas gaseosas endulzadas artificialmente. Sin embargo, la revisión no halló un incremento en cáncer hepático en aquellas personas que consumían gaseosas y no presentaban diabetes. Esto quiere decir que los estudios observacionales muestran correlaciones, pero no causas y efectos. Para que el efecto negativo del aspartamo sea evidente, y de acuerdo a los límites permitidos de su ingesta, deberíamos sobrepasar un equivalente al consumo de 9 a 14 latas de gaseosas diarias o aproximadamente 4 litros al día.
El mensaje final es seguir siendo cuidadosos en la selección de los alimentos y bebidas que consumimos, buscar ingredientes saludables y no confundirlos con seguros. Recordar que el consumo excesivo de azúcares refinados pueden llevar a la aparición de obesidad y otras enfermedades metabólicas. Más allá de que los endulzantes artificiales puedan servir para reducir el consumo de azúcar, no ofrecen ningún beneficio para la salud y lo ideal sería dejar de consumirlos.
Artificial intelligence techniques have been around for several decades, and are not just limited to machine learning, neural networks, fuzzy logic or deep learning. There is a technique that allows modelling temporal states of highly complex systems and is able to predict changes in these systems by applying simple evolutionary rules. This artificial intelligence technique is known as the Cellular Automata paradigm.
Cellular Automata (CA) are small elements that occupy spaces or unit cells within a discrete two- or three-dimensional domain called a lattice or grid, which volume represents the modelled system (Figure 1). Each automaton located in a cell of this lattice has a state, within a group of predefined states, which through interaction with itself and with its neighbouring cells can maintain or change through the iterations of evolution of the modelled system, because each automaton has the ability to make decisions independently to maintain or change that state as the system evolves. By projecting this automaton behaviour on a larger scale, it is possible to model highly complex systems whose macro behaviour is governed by the behaviour of its smaller component units.
Figure 1. Configuration of a cellular automaton in its cell in a two-dimensional lattice [1].
The evolution of the automaton's state is based on the application of very simple individual evolution rules. In each iteration, the automaton knows only its own state and the state of its nearest neighbours, and depending on these states and the evolution rules, the automaton evolves to the next iteration either maintaining or changing its state.
The cells containing the automata, which in turn form the lattice or domain of the modelled system, may be square, triangular or polygonal in the two-dimensional case, or hexahedral or tetrahedral in the three-dimensional domain.
In order to know the state of its neighbours, the automaton uses a type of neighbourhood to relate to its environment, which depends on the number of neighbouring automata taken into account. The used neighbourhoods range from the empty neighbourhood, in which the automaton only takes itself into account, to the neighbourhoods that take into account four (von Neumann), eight (Moore), twelve (expanded von Neumann, MvonN) or twenty-four (expanded Moore) neighbours. The latter includes the neighbouring automata at the first and second level of distance (Figure 2, top).
Figure 2. Neighbourhoods (top) and Boundaries (bottom) considered in the implementation of cellular automata [2].
When the automaton is at a boundary of the domain, it also takes into account different configurations for the hypothetical neighbouring cells located outside the boundary, which assign them specific states for iteration and evolution. Within the configurations for these out-of-domain positions, they can be assigned a null state (fixed boundary), the same state as the automaton on the boundary (adiabatic boundary), the same state as the automaton on the contralateral side of the boundary (reflexive boundary) or the state of the automaton on the same row at the opposite end of the lattice (periodic boundary), (Figure 2, bottom).
The cellular automata paradigm appeared in the 1940s by Stanislaw Ulam to describe graphically the growth of crystals. Simultaneously, Von Neumann used the same tool to study systems capable of self-replication. In the 1970s, John Conway used the concept of CAs to create the game of life, a model of the dynamic ability of automata to move and replicate themselves by implementing simple evolutionary rules (Figure 3, A). In 1983, Wolfram presents in his work a new kind of science the development of several rules that generate series of self-replicating regular and irregular shapes (Figure 3, B). In 1993, Ermentrout et al. used CAs for the first time in the generation of biological networks such as the neural system and the circulatory system, taking the model as a continuous process (Figure 3, C). By 2004, Deutch et al. developed the first models of tumour growth (Figure 3, D).
Figure 3. Historical developments of cellular automata: (A) Conway's game of life, (B) Wolfram's regular and irregular networks, (C) Ermentrout's neural and cardiovascular networks, and (D) Deutch's tumour growth models [1].
To date, cellular automata have been used to simulate and predict behaviour in diverse systems such as fractal formation, the behaviour of bacterial populations, traffic analysis in large cities, the creation of structures by topological optimisation, and even tissue architecture and healing time in a bone fracture repair process (Figure 4).
Figure 4. Two-dimensional axisymmetric model of cellular automata for the simulation of the process of osteogenesis and bone fracture repair. The architecture of the component tissues of the bone callus are represented with different colours (red: bone marrow; yellow: fatty bone marrow; light blue: granular and fibrous tissue; dark blue: cartilage; white: bone). The repair time t is given in days [1].
In summary, cellular automata, a prominent technique in artificial intelligence, allow the behaviour of a variety of highly complex systems to be analysed and predicted in a simple and straightforward manner.
References
[1] A.J. Arias-Moreno. “Modelo computacional para la simulación del proceso de osteogénesis y curación ósea después de la fractura”. Master thesis, Universidad Nacional de Colombia, Colombia, january 2011.
[2] A. Tovar. “Bone remodeling as a hybrid cellular automaton optimization process”. Doctoral thesis, University of Notre Dame, United States, december 2004.
Los dispositivos de microfluidos han marcado el comienzo de una nueva era de innovación, cautivando a la comunidad científica con su notable capacidad para manipular fluidos a escala minúscula. Estos dispositivos representan un gran avance en el campo y ofrecen precisión, eficiencia y versatilidad sin precedentes. Como investigador que busca constantemente herramientas novedosas para avanzar en mi trabajo, estoy profundamente impresionado por el poder transformador de los dispositivos de microfluidos.
Una de las características más destacadas de los dispositivos de microfluidos es su capacidad para manejar pequeñas cantidades de fluidos, a menudo en el rango de microlitros o incluso nanolitros. Esto no sólo conserva valiosos reactivos y muestras, sino que también permite realizar experimentos complejos que antes eran inconcebibles. Ya sea la mezcla precisa de múltiples reactivos, la separación eficiente de biomoléculas o la creación de gradientes complejos, los microfluidos otorgan a los investigadores un control incomparable sobre sus configuraciones experimentales. La adaptabilidad de los dispositivos de microfluidos es realmente sorprendente. Estos dispositivos se pueden adaptar a diversas aplicaciones, desde biología y química hasta ciencia e ingeniería de materiales. Actualmente con bastante facilidad se pueden diseñar plataformas de microfluidos para imitar condiciones fisiológicas, lo que permitía a los investigadores simular de cerca escenarios del mundo real biológico. Esto no sólo mejoran la precisión de los resultados sino que también aceleran el ritmo de los descubrimientos al permitir una experimentación de alto rendimiento.
En la práctica, los dispositivos de microfluidos tienen una clara ventaja a los procesos de laboratorio tradicionales que demandaban una cantidad significativa de tiempo y recursos. Ahora con los dispositivos de microfluidos se pueden ejecutar estos experimentos en una fracción del tiempo. Ademas, la integración de múltiples pasos dentro de un solo dispositivo reduce el riesgo de contaminación, optimiza los flujos de trabajo y garantiza resultados consistentes y confiables. Esta naturaleza compacta es una gran ayuda para los laboratorios ya que maximiza la utilización de áreas limitadas de trabajo. Usar estos dispositivos es sorprendentemente sencillo debido a la gran cantidad de recursos disponibles que comprenden desde software para diseño y simulación hasta manuales completos para fabricación y operación. Ademas hay grupos online donde los investigadores comparten abiertamente sus ideas, fomentando un entorno de apoyo tanto para los recién inician como para los expertos. Los dispositivos de microfluidos han revolucionado el panorama de las pruebas de COVID-19 al permitir ensayos de diagnóstico rápidos y precisos. Estos dispositivos pueden procesar pequeños volúmenes de muestras de pacientes y brindar resultados en minutos. Mediante la integración de varios pasos (preparación de muestras, amplificación y detección) en una sola plataforma, los dispositivos de microfluidos mejoran la eficiencia y reducen el riesgo de contaminación. Esta capacidad ha sido particularmente crucial en entornos de alto riesgo como hospitales, aeropuertos y centros de pruebas comunitarios.
Los dispositivos de microfluidos han sido fundamentales para llevar las pruebas al punto de atención. Estas plataformas portátiles y fáciles de usar permiten a los proveedores de atención médica realizar pruebas al lado de la cama, eliminando la necesidad de enviar muestras a laboratorios centrales y agilizando la atención al paciente. Su adaptabilidad y facilidad de uso han sido fundamentales para ampliar la capacidad de prueba, especialmente en entornos con recursos limitados. Los dispositivos de microfluidos también han desempeñado un papel vital en la aceleración del desarrollo y la investigación de vacunas. Permiten la manipulación precisa de células inmunes y antígenos, lo que ayuda en el diseño y optimización de candidatos a vacunas. Además, los microfluidos facilitan el estudio de las respuestas inmunitarias a nivel unicelular, arrojando luz sobre cómo reacciona el cuerpo al virus y a las posibles vacunas.
Los dispositivos de microfluidos ofrecen una plataforma invaluable para probar posibles medicamentos y terapias antivirales. Los investigadores pueden crear microambientes que imiten los tejidos humanos, permitiendo el estudio de las interacciones farmacológicas y sus efectos sobre el virus. Estos dispositivos también ayudan a comprender el comportamiento del virus y a identificar posibles objetivos farmacológicos. Los dispositivos de microfluidos no están exentos de desafíos como cualquier tecnología. Las complejidades de fabricación y la posibilidad de que se produzcan obstrucciones o fugas pueden plantear dificultades, pero con la práctica y la cantidad de recursos disponibles esto se puede superar. Además, si bien los costos iniciales de equipos y materiales pueden ser altos, los ahorros a largo plazo en reactivos y mano de obra justifican la inversión.
En esta era sin precedentes, los dispositivos de microfluidos han demostrado ser herramientas innovadoras y versátiles. Su impacto se extiende mucho más allá de la COVID-19 y promete avances en el diagnóstico, la atención sanitaria y la investigación en diversas disciplinas. En conclusión, los dispositivos de microfluidos son una herramienta revolucionaria. Su capacidad para miniaturizar y controlar con precisión los procesos fluídicos abre la puerta a un mundo de posibilidades, desde avanzar en el diagnóstico médico hasta desentrañar las complejidades del comportamiento celular. Los avances que permiten no son meramente incrementales; son transformadores e impresionantes.
Fig. 1. Las plataformas de microfluidos son dispositivos de miniaturización con alta precisión y exactitud que tienen la capacidad de alto rendimiento, alta eficiencia analítica y automatización.
Actualmente profesores de Bioingeniería de UTEC se encuentran trabajando en proyectos relacionados a los dispositivos de microfluídica con aplicaciones biológicas. Si estás interesado en ser parte de los proyectos que esperas: ¡Únete a Bioingeniería de la UTEC!
Por: Paul Cárdenas Lizana
References
J.S. Kim et al. Microfluidics in healthcare: recent advancements and future prospects Biosens. Bioelectron. (2017)
L. Zhang et al. Microfluidics in pharmaceuticals: recent developments, challenges, and future prospects J. Control. Release (2020)
Y. Li et al. Microfluidics in drug discovery and development Expert Opin. Drug Discov. (2018)
J.S. Kim et al. Microfluidics-based platforms for personalized medicine Biosens. Bioelectron. (2018)
J. Li et al. Microfluidic technologies for the manufacturing of pharmaceuticals Expert Opin. Drug Deliv. (2019)
Lijuan Ma et al., Advances in application and innovation of microfluidic platforms for pharmaceutical analysis, TrAC Trends in Analytical Chemistry, Volume 160, 2023, 116951, ISSN 0165-9936
La tendencia en los almacenes a nivel mundial va indudablemente hacia la robotización y automatización. Esto ya se aprecia con mayor claridad en sectores como retail y alimentos. Por ejemplo, en el continente europeo existen, al menos, 40 almacenes completamente automatizados con un número reducido de personas u operadores. Este panorama fue analizado por René de Koster, experto global en logística y gestión de operaciones de Países Bajos, en dos eventos realizados en el campus de la universidad. El primero una charla magistral frente a estudiantes de Ingeniería Industrial y otras carreras y el segundo, un conversatorio con empresas líderes del sector logístico y retail del país.
De Koster, invitado especial de la carrera de Ingeniería Industrial, se ha posicionado como un referente mundial en la investigación sobre diseño y operación de centros de distribución y terminales portuarios con más de 230 publicaciones habiendo sido director del Departamento de Tecnología y Gestión de Operaciones de la Rotterdam School of Management (RSM), Universidad de Erasmus, en los Países Bajos.
De acuerdo con él, la tendencia a la automatización y robotización en el sector debe ir también de la mano con la búsqueda del bienestar de los trabajadores, ya que al tener personas comprometidas con la empresa, el rendimiento será mejor para aprovechar la flexibilidad que ofrecen las personas. Es por ello que vale la pena invertir en la satisfacción laboral, además de la robotización en los almacenes.
Los resultados de sus investigaciones demuestran que a través de retroalimentación, el uso de metas e incentivos se pueden aumentar la productividad, pero mejorar la calidad y seguridad es más desafiante. Al respecto, sus investigaciones encontraron que el liderazgo transformacional impacta en tener menor incidencia de accidentes.
"Se tienen que mejorar las tecnologías que se puedan usar, pero todavía se necesitará de operadores. Si no tienes personas comprometidas detrás o si los operadores no están acostumbrados a trabajar con estas máquinas, se van a ir a trabajar para otra empresa, por lo que tendrás que capacitar a alguien más, lo que requiere mucho más esfuerzo. Es mejor retener a tus propios trabajadores competentes. Si se hace la implementación adecuada con la automatización y los robots, será especialmente para quitar la parte monótona y repetitiva del trabajo. La parte interesante quedará para las personas, ya que suele ser difícil de automatizar”, recalcó el especialista, quien fue invitado especial de la carrera de Ingeniería Industrial para este evento.

En el Perú existen experiencias relevantes en automatización de almacenes y operaciones logísticas. Uno de los que se dio a conocer a través de medios es el de Falabella, que, a inicios de este año, inauguró su primer almacén robotizado de pedidos online. Del mismo modo, Ferreyros, representante de Caterpillar en Perú, dio a conocer que viene implementando el uso de robots para agilizar el 50% de los repuestos en su centro de distribución, permitiéndoles reducir los tiempos de atención a los clientes y lograr un despacho más eficiente a las sucursales.
“Desde la visión de De Koster, no solo hay que actualizarse y conocer las últimas tendencias de almacenaje, sino también desarrollar una visión a futuro de lo que pueden hacer las empresas peruanas identificando los retos de hoy y del mañana y además destacar el papel del empleado como un engranaje clave dentro de todo que potencia la flexibilidad”, destacó José Larco, director de la carrera de Ingeniería Industrial de UTEC.
Hace dieciocho años, Ann que entonces tenía 30 años, sufrió un derrame en el tronco encefálico que la dejó gravemente paralizada, perdiendo el control de todos los músculos de su cuerpo. Al principio ni siquiera podía respirar por sí misma. Hasta el día de hoy, los médicos aún desconocen las causas del derrame.
Un grupo de investigadores de la Universidad de California liderado por el Dr. Edward F. Chang ha desarrollado una interfaz cerebro-computadora que decodifica las señales cerebrales de la paciente (Ann) y las convierte en voz sintetizada que un avatar digital pronuncia en voz alta. Este avatar, al mismo tiempo, reproduce movimientos faciales, haciendo que la mandíbula se abra y se cierra y los labios se muevan. También es capaz de recrear los movimientos faciales de alegría, tristeza y sorpresa. El sistema puede convertir estas señales en texto a una velocidad de 78 palabras por minuto, con una tasa media de error de palabras del 25%, superando sistemas similares. En lugar de reconocer palabras completas, el sistema identifica fonemas, unidades mínimas sonoras del habla, mejorando la velocidad y la precisión. El sistema solo necesitó aprender 39 fonemas para descifrar cualquier palabra en inglés. A fin de capturar las señales, los investigadores implantaron 253 electrodos de matriz sobre la superficie del surco lateral (cisura de Rolando) del cerebro de la paciente. Estos electrodos se conectaron a través de un cable a un puerto fijado a su cabeza, que es utilizado para enviar las señales eléctricas cerebrales a las computadoras. Para crear la voz digital del avatar, el equipo ideó un algoritmo de inteligencia artificial para reconocer señales cerebrales únicas para el habla. Luego, se usó la voz de la paciente antes de la lesión, extraída de una grabación de ella hablando en su boda.
Este trabajo de investigación desarrollado por los departamentos de Bioingeniería de la Universidad de California en Berkeley y en San Francisco, ofrece la posibilidad a usuarios que no pueden hablar de comunicarse casi a la misma velocidad que las personas sanas y de tener conversaciones mucho más fluidas. Este es un ejemplo notable de cómo la Bioingeniería puede ayudar a mejorar la calidad de vida de personas que padecen daños corporales permanentes.
Por: Harry Saavedra
Referencias
Metzger, S.L., Littlejohn, K.T., Silva, A.B. et al. A high-performance neuroprosthesis for speech decoding and avatar control. Nature (2023). https://doi.org/10.1038/s41586-023-06443-4 GitHub - UCSF-Chang-Lab BRAVO/multimodal-decoding: Code associated with the paper titled "A high- performance neuroprosthesis for speech decoding and avatar control" , published in Nature in 2023.
https://www.youtube.com/watch?v=iTZ2N-HJbwA
Eighteen years ago, Ann, then 30, suffered a brain stem stroke that left her severely paralyzed, losing control of every muscle in her body. At first she couldn't even breathe on her own. To this day, doctors still do not know the causes of stroke.
A group of researchers at the University of California led by Dr. Edward F. Chang has developed a brain-computer interface that decodes the patient's (Ann) brain signals and converts them into synthesized speech that is spoken aloud by a digital avatar. This avatar reproduces facial movements involving the jaw and lips when necessary. The avatar is also able to recreate the facial movements of joy, sadness, and surprise in order to show feelings. The system can convert brain signals to text at a speed of 78 words per minute, with an average word error rate of 25%, surpassing existing technologies. Instead of recognizing full words, the system identifies phonemes, which are the smallest units of speech, improving speed and accuracy. The system only needed to learn 39 phonemes to decipher any English word. In order to capture the signals, researchers implanted 253 array electrodes on the surface of the lateral sulcus (fissure of Rolando) of the patient's brain. These electrodes connect via a wire to a port (attached to the head), which is used to send the brain's electrical signals to computers. To create the avatar's digital voice, the team devised an artificial intelligence algorithm to recognize unique brain signals for speech. Then, researchers used the patient's voice before the injury, using a recording of her wedding speech.
This work developed by the Bioengineering departments of the University of California at Berkeley and San Francisco offers users who cannot speak the possibility of communicating almost at the same speed as healthy people and having much more fluent conversations. This is a remarkable example of how Bioengineering can help improve the quality of life of people who suffer permanent damage.
References
Metzger, S.L., Littlejohn, K.T., Silva, A.B. et al. A high-performance neuroprosthesis for speech decoding and avatar control. Nature (2023). https://doi.org/10.1038/s41586-023-06443-4
GitHub - UCSF-Chang-Lab-BRAVO/multimodal-decoding: Code associated with the paper titled "A high- performance neuroprosthesis for speech decoding and avatar control" , published in Nature in 2023.
https://www.youtube.com/watch?v=iTZ2N-HJbwA