Medicina espacial, una estrategia para México: AEM

nathan-anderson-108136.jpg

La actividad humana en el espacio va en aumento y la medicina espacial representa una estrategia para que México pueda aportar científica y tecnológicamente en la planeación de vuelos espaciales tripulados por humanos, declaró para la Agencia Informativa Conacyt, el doctor Francisco Javier Mendieta Jiménez, director general de la Agencia Espacial Mexicana (AEM). 

Entrevistado en el marco del Tercer Congreso Mexicano de Medicina Espacial, celebrado el 5 y 6 de octubre en la Universidad Popular Autónoma del Estado de Puebla (UPAEP), el funcionario dijo que la importancia de la medicina espacial radica en que a través de ella se estudia la adaptación y respuesta del ser humano y sus distintos órganos en ambientes espaciales donde hay microgravedad, además de exposición a radiación solar y cósmica. 

“Debemos entender no solo el comportamiento del cuerpo humano en sus aspectos fisiológico, anatómico, psicológico y hasta social, sino también toda la materia biológica que va a servir para alimentar y coexistir en un ambiente espacial”, declaró el director de la AEM.

El doctor Mendieta Jiménez enfatizó que cada vez hay mayor interés no solo por parte de los gobiernos en todo el mundo sino también del sector privado por concretar los vuelos tripulados y la presencia del ser humano en Marte o nuevamente en la luna.

No se trata de un asunto remoto o codicioso, es nuestro presente y así lo tenemos que asumir y México vive su momento para subirse a la temática de la medicina espacial, que es una prolongación de la salud aeronáutica”.

El funcionario de la AEM reconoció que México cuenta con instituciones y profesionales de alto perfil en el área de medicina aeroespacial, además de convenios que la AEM mantiene con agencias como la Administración Nacional de Aeronáutica y del Espacio (NASA, por sus siglas en inglés), la Agencia Espacial Europea, la Agencia Espacial Rusa, la Agencia India de Investigación Espacial e instituciones como la Administración Federal de Aviación (FAA, por sus siglas en inglés) de los Estados Unidos de América, entre otras.

La colonización en un futuro

El espacio representa en sí un recurso que todos los países quieren aprovechar en distintos ámbitos como la comunicación, obtención de imágenes satelitales para seguridad, fenómenos naturales, identificación de vectores de propagación de enfermedades, telemedicina y vuelo tripulado.

Para el director de la AEM, la presencia humana en el espacio se coloca como un tema relevante. Países como China, dijo, ya trabajan en vuelos aeroespaciales con sus primeros astronautas. El sector privado, por su parte, está cada vez más interesado en enviar seres humanos y no solo a orbitar la Tierra, pues observan el espacio como una prolongación de la navegación marítima y aérea.

“Marte tiene las condiciones para poder recibir un asentamiento humano y no muy lejos del futuro. El sector privado espera tener en el 2030 la primera presencia humana en Marte y en el 2050 lograr la primera colonización en hábitats confinados que tengan protección contra temperaturas extremas y rayos cósmicos, además de una atmósfera razonable para la supervivencia humana”.

Toda esta planeación incluye el conocimiento del comportamiento del cuerpo humano en órbita terrestre, en viajes largos y espaciales y todo lo que tiene que ver con la comida, el agua, las actividades y todos los aspectos médicos, óseos y musculares; asimismo, se tiene que contemplar la presencia de enfermedades o emergencias, de ahí el interés de trabajar con la medicina espacial.

Participación de México

Actualmente, la AEM tiene proyectos en varias direcciones, uno de ellos, explicó su director general, es la prolongación de la medicina aeronáutica hacia la medicina espacial.

El doctor Mendieta Jiménez mencionó también que otro de los proyectos en que ya se trabaja es en el uso de información de imágenes espaciales para rastrear vectores de enfermedades, saber dónde están los transmisores, en qué zona del país, tomando en cuenta la estación del año, la humedad, temperatura y condiciones hidrometeorológicas.

“Otra línea de actividad es la astrobiología para saber cómo se comporta la materia viva en condiciones espaciales extremas y, por supuesto, tenemos grupos importantes de trabajo en el área de biología en Marte y la luna. Los grupos académicos en México están trabajando en estudios sobre la posibilidad de la existencia de bacterias fósiles en Marte, aunque esto hay que tomarlo con la precaución necesaria ya que la investigación aún está sujeta a comprobación experimental”.

Por último, el funcionario añadió que un cuarto proyecto es la telemedicina que sirve, entre otras cosas, para llevar servicios de salud a lugares donde no cuentan más que con lo básico, esto a través de análisis remotos.

Fuente: Conacyt 

INSPIRAS

Revista de lifestyle enfocada en resaltar lo positivo, explorando distintos temas – desde bienestar, viajes, entrevistas, hasta causas, arte y entretenimiento. Creada en Nueva York y con presencia en todo Hispanoamérica en su versión digital e impresa.

Nuevas tecnologías para la detección oportuna de cáncer

ken-treloar-385255.jpg

Estudiantes del Centro de Física Aplicada y Tecnología Avanzada (CFATA), de la Universidad Nacional Autónoma de México (UNAM), campus Juriquilla, desarrollan proyectos de investigación y desarrollo tecnológico enfocados en la detección oportuna del sarcoma de tejidos blandos y cáncer de mama.

Estos proyectos, asesorados y dirigidos por el investigador responsable del área de Termografía de Glándulas Mamarias del CFATA, Ángel Luis Rodríguez Morales, fueron dados a conocer en el marco de la ExpoCiencias Bajío 2017, organizada por la Red Nacional de Actividades Juveniles en Ciencia y Tecnología, la Universidad Tecnológica de Querétaro (Uteq), la Universidad Autónoma de Durango, el Grupo Zoborrótica del Instituto Tecnológico de Querétaro (ITQ), Principia por el Mundo, A.C. y el Consejo de Ciencia y Tecnología del Estado de Querétaro (Concyteq).

Termografía para detección de sarcoma

La estudiante de la licenciatura en tecnología en el CFATA de la UNAM, campus Juriquilla, Tatiana Álvarez Alvarado, presentó un modelo que a partir de termogramas, su procesamiento digital, el diseño de una red de parámetros y la validación médica, permite la identificación del sarcoma de tejidos blandos en sus primeras etapas.

Álvarez Alvarado explicó que las imágenes termográficas son procesadas identificando la forma del contorno y el contraste térmico entre la zona en la que se sospecha la presencia del sarcoma y el tejido que la rodea. Este análisis se realiza mediante la identificación del centroide para posteriormente trazar vectores a los extremos de la figura, que se interpreta de forma gráfica.

La idea del proyecto es detectar el sarcoma en sus primeras etapas. Se trata de un tipo de cáncer que se presenta en forma de neoplasias, que es la generación de un tejido nuevo con características cancerígenas. Se desarrolla muy rápido, en cuestión de semanas o meses, pero si se detecta en las primeras etapas se tiene oportunidad de éxito en el tratamiento de 80 por ciento”, detalló.

La estudiante del CFATA subrayó que el problema en la actualidad es la falta de alternativas accesibles para su detección, además de que el padecimiento, en sus primeras etapas, es difícil de identificar.

“Los tumores crecen de forma acelerada, significa que su metabolismo va aumentando y eso hace que la temperatura aumente. La termografía es una herramienta que nos permite captar el infrarrojo de forma gráfica. Para detectarlo, se debe tomar en cuenta el contraste térmico, que es la diferencia de temperaturas entre la zona del tumor y el tejido circundante, además de su forma. Esto se hace identificando el centroide, es decir, el punto medio del tumor porque suelen ser irregulares”, detalló.

Tatiana Álvarez Alvarado puntualizó que esta información permite obtener vectores a cada uno de los extremos de la forma para que después puedan ser graficados.

De acuerdo con el Instituto Mexicano del Seguro Social (IMSS), para la detección oportuna del cáncer de mama, se recomienda que todas las mujeres mayores de 25 años exploren sus senos después de menstruar, buscando alguna anomalía. En caso de encontrarla se debe acudir al médico, quien solicitará estudios como el ultrasonido y la mastografía.

Los factores de riesgo más comunes son: antecedentes de un familiar con cáncer de mama; tener 40 años o más; haber tenido la primera menstruación antes de los 12 años; el uso de anticonceptivos hormonales por más de cinco años; tener el primer hijo después de los 30 años; no haber tenido hijos; haber tenido la última menstruación después de los 52 años; tomar hormonas para la menopausia, así como la obesidad.

“Como los tumores tienen formas irregulares, obtenemos gráficas características, eso aunado a otros factores que se introducen paramétricamente a un red neurodifusa, que identifica si es sarcoma o no y se pretende que identifique también la etapa de desarrollo en la que se encuentra. La tecnología que estamos usando son cámaras termográficas y un algoritmo de identificación desarrollado por nosotros”, destacó.

La siguiente etapa del proyecto, de acuerdo con la estudiante del CFATA, es establecer convenios con hospitales que se dediquen al tratamiento del sarcoma infantil, para obtener un banco de imágenes más representativo, lo que permitirá mejorar el programa y posteriormente poder transformarlo en la tecnología que ellos requieren para diagnosticar y dar un seguimiento a sus pacientes.

El modelo, que a partir de termogramas permite la identificación del sarcoma de tejido blando en sus primeras etapas, fue premiado con el primer lugar en la categoría de Tecnologías y Ciencias de la Ingeniería y como mejor proyecto de la ExpoCiencias Bajío 2017.

Dispositivo para evaluar densidad mamaria

El otro desarrollo presentado por el CFATA, con la colaboración de la Universidad del Valle de México (UVM), campus Querétaro, y la Universidad Autónoma de Querétaro (UAQ), es un dispositivo de evaluación de densidad mamaria, que tiene la finalidad de discernir la candidatura a una mastografía, por parte de las estudiantes Sarasuadi Guizar Naranjo e Ilse Ivette Reyes Bautista.

Al respecto, la estudiante de la carrera de medicina de la UVM, Sarasuadi Guizar Naranjo, explicó que el objetivo fue diseñar un instrumento inocuo que permita, a través de la identificación de indentación en las glándulas mamarias, discernir si la paciente es candidata o no para un estudio de mastografía.

“En el estudio dividimos la mama en cinco partes, que es en el cuadrante superior externo, superior interno, inferior interno, inferior externo y alrededor del pezón, abarcando así todo el seno. Con el dispositivo, realizamos la medición de los cinco puntos, al tiempo que un software lo clasifica de alta o baja densidad. Al hacer el estudio en las pacientes, debemos determinar tanto la máxima densidad como la mínima, para después hacer una media”, explicó.

Guizar Naranjo enfatizó que este proyecto surgió ante el aumento de casos de cáncer de seno en mujeres menores de 40 años, así como los criterios de exclusión que se tienen en México respecto a las edades en que deben someterse a una mastografía.

Existe un sector de la población que está descuidado. La norma oficial establece que toda mujer a los 25 años debe realizarse una exploración mamaria de manera mensual y que a partir de los 40 debe realizarse la mastografía. Nosotros proponemos que aunado a la edad sea la densidad mamaria el criterio de exclusión para someterse a ese estudio”, sostuvo.

La estudiante de medicina de la UVM, campus Querétaro, señaló que este proyecto colaborativo entre las tres instituciones tiene el objetivo de llevar esta tecnología al sector público, para que pueda utilizarse en comunidades que no tienen acceso a estos estudios.

Hay mujeres que nunca se han hecho mastografía en su vida, sobre todo por la falta de información; no obstante, si con esta tecnología se demuestra la necesidad de hacerse una mastografía, van a adquirir mayor conciencia sobre su importancia”, detalló.

Mando háptico para mayor exactitud en biopsias de seno

Otro de los proyectos presentados por el Centro de Física Aplicada y Tecnología Avanzada de la UNAM, campus Juriquilla, que obtuvo el segundo lugar en la categoría de Tecnologías y Ciencias de la Ingeniería en la ExpoCiencias Bajío 2017, fue el diseño y evaluación de un mando remoto con retroalimentación háptica para un robot Delta, utilizado en la biopsias de seno, del estudiante de la carrera de tecnología Joav Madrid Ayala.

Explicó que este proyecto comprende tres etapas, que comprendieron la construcción de un robot Delta de cinemática paralela y el diseño de un sistema de automatización para estereotaxia con ultrasonidos, que genera una trayectoria en 3D para que el robot la siga y pueda penetrar de manera precisa en las lesiones cancerígenas.

“Así entramos a la tercera etapa, donde estamos haciendo un mando de ajuste en tiempo real para estas trayectorias. Tenemos un médico a cargo que puede ajustar esta trayectoria automática y estamos dándole más precisión a nuestro equipo. Tenemos filtros de automatización del trazado en 3D para que la persona que está a cargo de la aguja con un escalamiento grueso, fino y ultrafino, de centímetros a milímetros, no falle en la biopsia”, explicó.

El estudiante del CFATA resaltó que esta tecnología permitirá al médico corregir la trayectoria original, garantizando que pueda llegar a la masa tumoral y así obtener la muestra necesaria para que sea analizada. Indicó que este mando fue diseñado, a su vez, para contrarrestar el número de falsos positivos que se generan durante las biopsias de detección de cáncer de seno.

“En estadística reportada, 78 por ciento de las biopsias realizadas son exitosas, pero eso quiere decir que hay 22 por ciento de inexactitud, lo que provoca que los tratamientos lleguen tarde a las pacientes. La tecnología que estamos diseñando ayuda a que el médico conozca la fuerza que está ejerciendo en el tejido, si lo está dañando y la detección de partes sólidas. Queremos cambiar la forma de hacer estos procedimientos invasivos, le estamos dando esa extensión de los sentidos al usuario”, resaltó

Fuente: Conacyt 

Anuncian descubrimiento de fusión de estrellas de neutrones a partir de ondas gravitacionales

jeremy-thomas-98201.jpg

Científicos teóricos y experimentales celebran un acontecimiento sin precedentes en la historia de la astrofísica moderna: la detección de un sistema binario de estrellas de neutrones durante su proceso de fusión. Esto fue logrado a partir de la observación de señales electromagnéticas y ondas gravitacionales el pasado 17 de agosto de 2017, lo que abre una ventana de información sobre el comportamiento y funcionamiento de varios fenómenos físicos del universo.

Entre los participantes de tal logro se encuentran tres investigadores del Instituto de Astronomía de la Universidad Nacional Autónoma de México (UNAM), el doctor William Henry Lee Alardín, el doctor Alan M. Watson Forster y la doctora María Magdalena González Sánchez, con colaboración en la detección en rayos X, el modelado teórico y restricciones a las observaciones con el Observatorio HAWC. En entrevista exclusiva con la Agencia Informativa Conacyt, William Lee y Alan Watson platicaron los detalles de este descubrimiento.

Detección gravitacional

El Laser Interferometric Gravitational-Wave Observatory (LIGO) ubicado en Estados Unidos es un laboratorio capaz de detectar ondas gravitacionales a partir de dos interferómetros, es decir, alguna especie de olas en el espacio tiempo que tienen la característica de propagarse a la velocidad de la luz y que son generadas cuando estrellas con una masa como el Sol pero del tamaño de 10 kilómetros de radio se mueven a velocidades cercanas a la de la luz.

En septiembre de 2015, el observatorio LIGO detectó su primera señal exitosa a partir de la fusión de dos agujeros negros. Desde aquella fecha se han detectado cuatro eventos de fusión de agujeros negros de ocho hasta 40 veces la masa del Sol cada uno. Gracias a esto, el Premio Nobel de Física 2017 le fue otorgado a los líderes del proyecto, Kip S. Thorne y Barry C. Barish, del Instituto Tecnológico de California y Rainer Weiss del Instituto de Tecnología de Massachusetts.

A principios de agosto del año en curso, el interferómetro europeo Virgo se unió a la búsqueda de ondas gravitacionales en conjunto con LIGO.

El 17 de agosto, los tres interferómetros detectaron una nueva fuente de ondas a partir de un sistema binario que en esta ocasión no se trataba de dos agujeros negros sino de dos objetos de menor tamaño con una masa más cercana a la del Sol. Esto fue deducido con la información sobre la perturbación del espacio tiempo que ocasionó y fue denominado GW170817.

“Se tiene entendido que son dos estrellas de neutrones formadas probablemente en explosiones de supernovas, el objeto más denso que se forma antes de convertirse en agujero negro. Este objeto es muy interesante porque está relacionado a otros objetos que se conocen bien como las estrellas progenitoras que forman estos sistemas”, explicó el doctor Watson.

Es importante destacar que nunca antes se había observado la fusión de estos cuerpos, hecho que ocurrió en la galaxia NGC 4993, a una distancia relativamente cercana a la Tierra a 130 millones de años luz.

Las estrellas de neutrones son el remanente final de estrellas que, una vez expulsado gran parte de su material, permanecen como compactas esferas estelares que concentran 1.4 veces la masa del Sol en un radio de aproximadamente 10 kilómetros. Es común que existan en el universo de forma singular o binaria. Cuando se encuentran en un sistema doble y tras millones de años logran fusionarse, producen ondas gravitacionales y radiación en el espectro de los rayos gamma.

“Este sistema de estrellas de neutrones en comparación con el sistema compuesto por agujeros negros emite una señal relativamente débil, por lo que el descubrimiento de la fusión de un sistema de estrellas de neutrones en una galaxia es un logro muy emocionante”, agregó.

El doctor William Lee afirma que hasta hace dos años todo lo que se observaba en el cielo era a través de luz en diferentes bandas como visible, infrarrojo, rayos gamma, etcétera, siendo esta la única forma de ver el cielo. Con el funcionamiento correcto de LIGO, desde hace dos años se han detectado ya cuatro fusiones de agujeros negros confirmadas. “Esto permitió encontrar una nueva forma de entender el universo a través de la propagación no de ondas electromagnéticas o luz sino de ondas gravitacionales o perturbaciones del espacio tiempo y que nunca antes se habían visto directamente”.

En el caso de un sistema binario de estrellas de neutrones existe materia alrededor del par que al fusionarse genera ondas gravitacionales que al chocar calientan y ocasionan un mayor brillo que cuando estaban separadas.

Durante el proceso de fusión, las estrellas expulsan material en el plano de giro y de forma perpendicular en forma de jets. Eso brilla en todas las bandas del espectro electromagnético, fenómeno que se ha buscado por décadas pero que no había tenido éxito hasta ahora.

Lo más relevante del descubrimiento del 17 de agosto es que posterior a que LIGO y Virgo identificaran este evento por sus ondas gravitacionales, el telescopio espacial Fermi de rayos gamma observó el evento, que coincidía con la zona en la que los interferómetros registraron su detección.

“Esto permitió obtener restricciones de hacia dónde observar con telescopios desde la Tierra. Ya con este detector se pudo cerrar más la posible zona de procedencia. A partir de esto, otros telescopios terrestres y satélites dirigieron su atención al punto para identificar si había ocurrido algún cambio o evento en la zona que diferenciara de días pasados”, comentó Lee.

Se identificó que la galaxia que alberga el sistema binario era observable de mejor forma desde el hemisferio sur. El conjunto de telescopios que atendieron la emergencia de conocer este evento definieron que semanas o meses atrás no existía un punto brillante en cierta zona como el que se registró a partir del 17 de agosto, presentando un cambio de brillo variable.

No solo se descubrió el sistema binario de estrellas de neutrones fusionándose a partir de la detección de ondas gravitacionales, sino que también se observó su contraparte en luz, lo que permite identificar en qué galaxia y a qué distancia se encuentra, junto con toda la información que se puede obtener a partir de las emisiones electromagnéticas que genera como su formación y evolución”, añadió.

Este hecho es importante porque permitirá a los científicos comprender cómo funciona la materia a muy altas temperaturas y densidades, sobre todo porque en sitios como ese es que se forman elementos químicos que no se configuran en otra parte del universo.

En estos eventos, también se expulsa material durante la fusión y bajo estas condiciones de temperatura y densidad se forman elementos químicos de la tabla periódica más pesados que el hierro y a partir de su decaimiento radiactivo hace que el evento brille en óptico y luz infrarroja. La energía de ese decaimiento logra salir del sistema en forma de luz observable, misma que se observó en los días y semanas siguientes al descubrimiento del sistema.

Con esta información, los científicos que forman parte del proyecto dedicaron su atención a comparar las predicciones del funcionamiento de estos objetos con lo observado para entender el proceso de variación de brillo y si esto es consistente con la teoría predicha.

Alan Watson afirma que aunque era posible que la comunidad científica pudiera haber confundido este evento con una supernova, esto fue descartado luego de realizar la comparación de los datos nuevos obtenidos con información anterior de explosiones de supernovas. La información rescatada en las diferentes bandas de luz y modulación de brillo indicó que se trataba de un evento de fusión de estrellas de neutrones, por lo que los investigadores tienen confianza de que el evento detectado en ondas electromagnéticas se trata de la contraparte en luz del evento descubierto por ondas gravitacionales.

“La fuente de ondas gravitacionales y electromagnéticas es el mismo fenómeno. El brillo se genera en la etapa final cuando los cuerpos se calentaron previo y durante el choque. Ese fenómeno hace que se produzca luz a partir del decaimiento radiactivo de los elementos generados en estas reacciones. Cuando ambas estrellas están a punto de chocar es cuando se tiene la mayor intensidad de ondas gravitacionales y cuando finalmente chocan se da la liberación de energía en forma de luz.  Es decir que elfin del máximo en la generación de ondas gravitacionales coincide con el inicio del máximo en la generación de luz”, explicó Lee Alardín.

Las observaciones identificadas en esta ocasión presentan una diferencia de 1.7 segundos entre el máximo de ondas gravitacionales detectadas por Virgo y LIGO y la observación en rayos gamma por Fermi. Poco más de una semana después a la observación, el satélite espacial Chandra detectó la misma fuente en rayos X, situación que confirmó que la fusión de estrellas de neutrones ocasionó una gran emisión en distintas bandas del espectro.

A pesar de encontrarse en el hemisferio norte, México pudo establecer límites de observación a la emisión producida en altas energías —rayos gamma— a partir del observatorio High Altitude Water Cherenkov ubicado en Sierra Negra, Puebla.

Toda esta información pone a prueba las teorías actuales sobre el universo y crea nuevas preguntas, por ejemplo, sobre el detallado proceso que permite convertir la energía que se libera en calor y luz, “por fin podemos tener información para esto dada la cercanía y geometría inclinada del evento que nos permitirá aprender sobre su funcionamiento”, agregó Watson.

No se sabe cuál fue el destino final del sistema binario después de fusionar, aunque se piensa podría haberse convertido en un agujero negro, pero sí se tiene certeza que la fusión de ambas estrellas ocasionó un chorro colimado expulsado casi a la velocidad de la luz que dio origen a los rayos gamma detectados por Fermi y posteriormente una pequeña cantidad de masa generando luz visible e infrarroja.

Por su parte, los científicos mexicanos William Lee y Alan Watson participan en el grupo de astrónomos de nueve países que presentarán su investigación en la revista Nature, así como en la revista Astrophysical Journal Letters, con una descripción de las observaciones y relación entre el fenómeno detectado en ondas electromagnéticas y gravitacionales.

Alan Watson destacó que en un futuro cercano se espera poder colaborar además de forma experimental con la implementación de la nueva infraestructura que se encuentra en HAWC y en el Observatorio Astronómico Nacional en San Pedro Mártir, Baja California, con los proyectos Deca-Degree Optical Transient Imager (DDOTI), Reionization And Transients Infrared/Optical Project (Ratir) y el Telescopio San Pedro Mártir de 6.5 metros de diámetro.

Con esto se demuestra que es posible obtener más información del universo a partir de la conjunción de ondas gravitacionales y electromagnéticas, así como de las condiciones y comportamiento de la materia a muy altas temperaturas y densidades imposibles de replicar en laboratorio terrestres.

Fuente: Conacyt

Medio siglo del Tratado que prohibió las armas nucleares en el espacio

aperture-vintage-346923.jpg

El 10 de octubre se h cumplido medio siglo de la entrada en vigor del Tratado sobre el Espacio Exterior, que prohibió la expansión de la carrera armamentista fuera de la Tierra.

Aceptado por más de un centenar de estados en la actualidad, incluidos Estados Unidos, Rusia y China, representa el marco jurídico básico del derecho internacional del espacio.

Entre sus principios, prohíbe a los estados partes del tratado la colocación de armas nucleares u otras armas de destrucción masiva en la órbita de la Tierra, su instalación en la Luna o cualquier otro cuerpo celeste, o de otra estación en el espacio exterior.

Se limita exclusivamente la utilización de la luna y otros cuerpos celestes a misiones con fines pacíficos y prohíbe expresamente su uso para la realización de pruebas de armas de cualquier tipo, la realización de maniobras militares o el establecimiento de bases militares, instalaciones y fortificaciones.

El tratado prohíbe explícitamente a cualquier gobierno la reivindicación de recursos celestes como la Luna o un planeta, ya que son patrimonio común de la humanidad.

El artículo II del tratado establece, de hecho, que "el espacio ultraterrestre, incluso la Luna y otros cuerpos celestes, no podrá ser objeto de apropiación nacional por reivindicación de soberanía, uso u ocupación, ni de ninguna otra manera".

El Tratado rige las relaciones de los estados y los particulares con respecto a la exploración, utilización y explotación del espacio ultraterrestre, la luna y otros cuerpos celestes, convirtiéndose de esa manera en la base jurídica en cuanto a la exploración y utilización del espacio.

Fuente: Excelsior.com.mx

A 60 años del comienzo de la era espacial

nasa-45066.jpg

La exploración humana del espacio ha cumplido más de una década desde que el 4 de octubre de 1957 la Unión Soviética lanzara el primer satélite artificial y el 10 de octubre de 1967 entrara en vigor el primer tratado para el uso pacífico del espacio exterior.

Para conmemorar estas fechas y el inicio de la era espacial, es que año con año se celebra en todo el mundo la Semana Mundial del Espacio (SME), que comprende del 4 al 10 de octubre, a través de actividades que despiertan el interés de la población general para difundir los beneficios que el espacio y su tecnología brindan a la sociedad.

Durante la inauguración de dicho evento en México, realizada en el Senado de la República, se contó con la presencia de la diputada presidenta de la Comisión Especial de las Tecnologías de la Información y Comunicación, Sofía González Torres; el secretario de la Comisión de Comunicaciones y Transportes, Gerardo Flores Ramírez, y el secretario de la Comisión de Ciencia y Tecnología, el diputado Bernardino Antelo Esper. También asistió el representante de la Secretaría de la Defensa Nacional (Sedena), el general Horacio Ornelas García, quien es subjefe operativo del Estado Mayor de la Fuerza Aérea.

En esta ocasión la celebración mexicana tiene mayores razones, pues en el marco del International Astronautical Congress (IAC) realizado en Adelaida, Australia, el director general de la Agencia Espacial Mexicana (AEM), Francisco Javier Mendieta Jiménez, fue elegido presidente de la World Space Week Association (WSW), siendo el primer líder que preside también una agencia.

“Recibimos esta presidencia de la WSW en estos momentos con la firme convicción de que ninguna adversidad es mayor a la fuerza de un México unido, y en la comunidad científica también refrendamos nuestro compromiso para seguir redoblando esfuerzos en difundir e impulsar los beneficios del espacio”, comentó Mendieta Jiménez.

Este reconocimiento le fue otorgado debido a los esfuerzos de la AEM por lograr una gran participación por parte de jóvenes mexicanos para realizar estas actividades de divulgación. SME es un evento importante para el sector espacial a nivel mundial, pues tan solo en 2016 fueron reportados dos mil 800 eventos en 86 países. En México, este 2017 también fue nombrado como coordinador nacional el director de Divulgación de Ciencia y Tecnología Espacial, Mario Arreola Santander.

El director de la Agencia Espacial Mexicana hizo un recorrido por la historia de los esfuerzos del país para desarrollarse como una potencia en el sector. Además destacó la importancia actual que tiene contar con la capacidad de recibir información desde el espacio, por ejemplo para el monitoreo de condiciones climatológicas y ambientales, pues son más de 20 las variables que los satélites permiten conocer.

En línea con los logros obtenidos por la AEM es que los diputados destacaron el apoyo que sus comisiones le otorgan a la agencia, ya que reconocen el papel e impacto que ha creado en los jóvenes estudiantes ávidos de información y oportunidades, así como la completa necesidad de mantener a México involucrado en estos temas.

Fuente: Conacyt
 

Lo más reciente:

Inauguran trabajos de la Semana Mundial del Espacio de la ONU en el Senado de la República

clayton-caldwell-382402.jpg

La Agencia Espacial Mexicana (AEM), organismo descentralizado de la Secretaría de Comunicaciones y Transportes (SCT), inauguró en el Senado de la República los trabajos de la Semana Mundial del Espacio, (World Space Week, WSW), que se celebra en todo el globo del 4 al 10 de octubre, e instituida por la Organización de la Naciones Unidas (ONU), con objeto de difundir los beneficios de la ciencia y tecnología espacial a la humanidad.

Presidieron el acto, el Director General de la AEM, Javier Mendieta Jiménez; el Secretario de la Comisión de Comunicaciones y Transportes de la Cámara de Senadores, Senador Gerardo Flores Ramírez; y la Presidenta de la Comisión Especial de Tecnologías de Información y Comunicación (TIC´s) de la Cámara de Diputados, Diputada Federal Sofía González Torres.

Así como el General de Ala Piloto Aviador Diplomado del Estado Mayor Aéreo, y Subjefe Operativo del Estado Mayor de la Fuerza Aérea Horacio Ornelas García, como Representante Personal del Secretario de la Defensa Nacional, General Salvador Cienfuegos Zepeda; y el Secretario de la Comisión de Ciencia y Tecnología de la Cámara de Diputados, Diputado Federal Bernardino Antelo Esper.

El Senador Flores, en uso de la palabra, reconoció la labor de la AEM para la formación de vocaciones de la juventud al acercarlos al estudio de la ciencia, tecnología, ingeniería, y matemáticas (STEM) y destacó la distinción para México, de haber sido elegido por votación del Comité Mundial de la WSW para ocupar el Chair (Presidencia) global de la Semana Mundial del Espacio de la ONU.

La Semana Mundial del Espacio es una oportunidad para llamar la atención de la niñez y juventud para participar en el mundo de la investigación científica y el desarrollo tecnológico, y porque la juventud de México tiene todo el talento e ingenio que se necesita para la materia espacial, continuaremos apoyando estas acciones desde el Senado de la República”, ofreció el Senador.

Al respecto, Mendieta Jiménez expresó: “Recibimos esta Presidencia de la WSW en estos momentos con la firme convicción de que ninguna adversidad es mayor a la fuerza de un México unido, y en la comunidad científica también refrendamos nuestro compromiso para seguir redoblando esfuerzos en difundir e impulsar los beneficios de las TIC´s, que precisamente viajan por el espacio, a más personas”, puntualizó.

Por su parte, la Diputada González Torres destacó la utilidad de las TIC´s, por ejemplo en los recientes acontecimientos sísmicos en nuestro país, donde éstas fueron herramientas vitales a través de las cuales vía celular la sociedad civil se organizó en grupos de mensajería instantánea para labores de rescate, apoyo, voluntariado, y solidaridad con los damnificados, y reconoció igualmente los esfuerzos de la AEM.

“En la Comisión Especial de Tecnologías de la Información y Comunicación hemos estado muy al tanto de todas las labores de esta agencia, y desde que inició la administración, ha obtenido logros muy destacables para el país, por lo que la seguiremos apoyando, porque yo sé que la agencia va a seguir apoyando a México, y apoyando a los jóvenes”, subrayó la Diputada Presidenta.

El Diputado Antelo Esper coincidió con los asistentes en la importancia de continuar impulsando los beneficios de la tecnología espacial, y destacó que con estas distinciones internacionales para nuestro país en materia espacial se está poniendo el alto el nombre de México en todos los rincones del planeta, pues no se puede pensar un México del siglo 21 sin una participación en las actividades espaciales.

El Legislador Secretario refrendó también el apoyo de la Comisión de Ciencia y Tecnología de la Cámara de Diputados para la Agencia Espacial Mexicana, y consideró que es momento de revisar en la medida de lo posible las asignaciones para rubros importantes como, sin lugar a dudas, destacó, lo es la AEM.

Dada la estrecha relación espacio-TIC´s, y la gran importancia de ellas para los ciudadanos, los asistentes coincidieron en la necesidad de impulsar y lograr que la Comisión de TIC´s de la Cámara de Diputados ya no sea solamente una Comisión Especial, sino que se convierta en una Comisión Ordinaria, pues las TIC´s representan un ámbito en el cual ya no puede dejar de legislarse, por su presencia cada vez mayor en cada una de las áreas de la vida de la población mexicana, en esta era espacial y digital.

El evento contó también en el Presidium, por parte de la AEM, con la presencia del Coordinador General de Formación de Capital Humano en el Campo Espacial, Carlos Duarte Muñoz; del Director de Divulgación de Ciencia y Tecnología Espacial y desde 2016, Director de la Semana Mundial del Espacio México, Mario Arreola Santander; así como del Director de Vinculación y Relaciones Interinstitucionales, Guillermo Castro Sandoval.

Fuente: Gob.mx

Los desafíos de la electrónica en el espacio

nasa-53885.jpg

Con los avances que ha tenido la tecnología en los últimos años, las misiones de exploración espacial han podido llegar a lugares nunca antes alcanzados, como es el caso de la misión Curiosity, en la que un robot explora la superficie del planeta Marte.

Como parte de las actividades organizadas por la Agencia Espacial Mexicana (AEM) encaminadas a divulgar la ciencia espacial, se llevó a cabo el seminario Electrónica en el Espacio, impartido por Adriana Gómez Rosal, maestra en ciencias de la computación por el Centro de Investigación y de Estudios Avanzados (Cinvestav) y próxima a concluir la maestría en ciencia y tecnología espacial en la Universidad Tecnológica de Lulea, en Suecia.

Durante el seminario, la maestra Gómez Rosal explicó algunos de los factores más importantes que se deben tener en cuenta en el momento de elaborar componentes electrónicos para dispositivos que abandonen la Tierra, pues fuera de nuestro planeta las condiciones son inhóspitas.

La radiación representa el factor más peligroso para los componentes en el espacio, pues iones y electrones pueden atravesar y dañar los circuitos electrónicos y hacer que funcionen de manera incorrecta, poniendo en riesgo las misiones.

Para disminuir este riesgo, no se utilizan los componentes más pequeños disponibles, pues mientras menor sea el tamaño, mayor es la posibilidad de que la radiación los afecte. Aunado a eso, se colocan componentes en redundancia, es decir, componentes que realizan la misma función que el original y toman su lugar en caso de que falle.

Mario Arreola Santander, Adriana Gómez Rosal y Carlos Duarte Muñoz.“Imagina que tienes una pelota de golf y una malla. Si el tejido de la malla es lo suficientemente separado, la pelota va a pasar sin tocar ningún tejido, pero si vas cerrando la malla aumentan las posibilidades de que la pelota toque los hilos”, dijo Gómez Rosal como analogía.

Otro factor a considerar es la temperatura a la que se expondrán los componentes. En caso de que el dispositivo se encuentre a la sombra del planeta Tierra, las temperaturas pueden descender hasta los -300 grados Celsius, llegando a congelar los componentes; por otro lado, si se encuentra recibiendo la luz directa del Sol, el efecto es inverso, elevando la temperatura de manera dramática.

El tercer factor es la presión: en el espacio las condiciones son de vacío, lo que puede originar que algunos materiales se volatilicen. Cabe aclarar que no solo se presenta una de estas condiciones, sino que se pueden combinar todas.

Para garantizar el correcto funcionamiento de los componentes se les somete a una serie de pruebas replicando las condiciones a las cuales se van a enfrentar durante su utilización fuera de nuestro planeta. Una vez que un componente pasa satisfactoriamente las pruebas, se le destina a ser utilizado en una misión, pues ya se cuenta con la seguridad de que funcionará bajo ciertas condiciones.

En caso de que los componentes fallen, existen diversas consecuencias para las misiones, como la pérdida de comunicación de la nave hacia el centro de comando en la Tierra, la pérdida de control desde el centro de comando hacia la nave o que los instrumentos se dañen y queden obsoletos.

Entre los retos que se tienen que superar en la elaboración de componentes para misiones espaciales, está llegar a un equilibrio entre costos bajos de producción y que al mismo tiempo ofrezcan seguridad.

“Creo que sí vamos a llegar a un punto en el que se junten los costos bajos de producción y la calidad, porque finalmente hay muchos intereses en la carrera espacial, no solo científicos sino también comerciales”, puntualizó la investigadora.

Fuente: Conacyt

Industria Aeroespacial: La industria del futuro

tim-gouw-280701.jpg


En la Semana Nacional del Emprendedor, la Agencia Espacial Mexicana (AEM) realizó más de 400 conferencias, ponencias y talleres bajo el tema "Las industrias del futuro".

El director general de AEM, Javier Mendieta Jiménez, expresó que “cuando en 2013 la Agencia entró en operación, no se tenía fe en el potencial de los jóvenes de México para desarrollarse en la ciencia y tecnología espacial”.

No obstante, “comenzamos a publicar nuestras primeras convocatorias. Y la respuesta fue extraordinaria”.

Destacó que muchas personas auguraron el fracaso en el sector espacial “contra toda iniciativa innovadora, gubernamental o no, siempre aparecen especialistas que con su experiencia vivida tratan de desanimar a los jóvenes, con críticas acerca de porqué el emprendimiento, espacial o no espacial, no va a funcionar”.

Mendieta Jiménez señaló que hay emprendedores mexicanos exportando su desarrollo propio de tecnología espacial en módems satelitales a Reino Unido con apoyo del Conacyt, como la empresa AI Systems, integrante de la iniciativa espacial mexicana MXSpace.

Agregó que gracias al apoyo del Ejecutivo Federal a la materia espacial, los jóvenes están creando su propio camino y avanzando en un cambio de mentalidad en el país, como lo demuestran las ponencias presentadas que detallan cómo las tendencias del mundo en los próximos 30 años transformarán la vida de las personas.

Fuente: DineroenImagen.com

Clima espacial al servicio de la población

derek-thomson-292172.jpg

Los lamentables desastres que han sacudido al país son un recordatorio de que la humanidad es vulnerable ante fenómenos naturales. La resiliencia ante estos fenómenos se construye con investigación, vigilancia y protocolos. Por eso el estudio del clima espacial permite a la sociedad comprender mejor cómo los fenómenos de actividad solar inciden en el entorno espacial de la Tierra y los daños que estas perturbaciones pueden provocar en sistemas tecnológicos estratégicos para la sociedad moderna.

Para esto existe en México un recinto especializado como es el Laboratorio Nacional de Clima Espacial (Lance), en donde científicos trabajan día a día para estudiar, vigilar y pronosticar la actividad solar y sus efectos alrededor de la Tierra.

El doctor Juan Américo González Esparza, responsable técnico del Lance, platicó en entrevista sobre las labores y objetivos de tal recinto de investigación que forma parte del programa de Laboratorios Nacionales del Consejo Nacional de Ciencia y Tecnología (Conacyt).

Ciencia especializada

Equipo de investigadores de LANCE.El clima espacial o meteorología del espacio se puede definir como la medición y análisis en tiempo real de propiedades físicas del Sol, medio interplanetario, atmósfera alta y campo magnético terrestre. La interrelación entre estos sistemas se ve perturbada por la actividad solar cuyos efectos no son locales como durante un sismo o un huracán, sino que las repercusiones son globales afectando a gran parte del planeta. “El monitoreo del clima espacial se considera tema de seguridad nacional”, comentó el investigador.

El problema de estos efectos radica en la dependencia social a tecnologías que son vulnerables a efectos de actividad solar como son los satélites, redes de telecomunicaciones, aviación, sistemas de posicionamiento global y la generación y transmisión de energía eléctrica.

Un ejemplo de esto sucedió el 6 de septiembre de 2017 cuando el Sol produjo la tormenta solar más intensa en los últimos doce años. Esta fulguración solar alcanzó una magnitud X9.3 y produjo varias afectaciones a sistemas tecnológicos; sin embargo, sus efectos en el territorio nacional fueron menores ya que ocurrió en la madrugada del tiempo local de la Ciudad de México y no cuando el Sol se encontraba en el cenit, ya que en ese caso los efectos hubieran sido más intensos sobre nuestro país. No obstante, los fenómenos solares no tienen repercusión en la actividad tectónica, por lo que no originaron ninguna actividad sísmica en el país.

Ante estos riesgos, la comunidad internacional elaboró una serie de recomendaciones dirigidas a todos los países por parte de organizaciones como el Committee on Space Research (Cospar), la Comisión sobre la Utilización del Espacio Ultraterrestre con Fines Pacíficos de las Naciones Unidas (COPUOS, por sus siglas en inglés) y la Organización Meteorológica Mundial (WMO, por sus siglas en inglés).

Los gobiernos de Estados Unidos y Gran Bretaña publicaron en 2015 sus estrategias ante eventos de clima espacial, resaltando el fortalecimiento y establecimiento de redes de colaboración internacional. “En el caso de México, en junio de 2014 se modificó la Ley General de Protección Civil donde se incluyeron los fenómenos astronómicos con un mandato de formular protocolos de protección civil ante eventos de clima espacial”, afirmó Américo González.

A partir de esto es que en 2014 se inició un proyecto en el que participaron cuatro investigadores dentro del programa de Cátedras Conacyt y con el apoyo del Fondo Sectorial de Investigación en Actividades Espaciales (FIDAE) para crear el Servicio de Clima Espacial (SCiESMEX) que forma parte de la Unidad Michoacán del Instituto de Geofísica de la Universidad Nacional Autónoma de México (UNAM) y que tiene como función realizar mediciones, vigilancia y alertamiento sobre la actividad solar y sus efectos en la Tierra. Este servicio trabaja a la par con otros servicios nacionales que ofrece el Instituto de Geofísica de la UNAM.

Dando seguimiento al mandato establecido por la ley, en 2015 se creó un grupo de trabajo llamado Clima Espacial en México. Este grupo es convocado por el Centro Nacional de Prevención de Desastres (Cenapred), la Agencia Espacial Mexicana (AEM) y el SCiESMEX, en donde además participan representantes de la Comisión Federal de Electricidad (CFE), Secretaría de la Defensa Nacional (Sedena), Secretaría de Marina (Semar), Policía Federal, Secretaría de Energía (Sener), Instituto Federal de Telecomunicaciones (IFT), entre otros. “Creamos este grupo para formular las acciones que debía tomar México para prepararse ante un evento de clima espacial, desarrollar investigación, observaciones y vigilancia en tiempo real y tener protocolos de respuesta”, explicó.

Para continuar y mejorar los resultados de los mexicanos, entre 2015 y 2016 Conacyt aprobó proyectos en las convocatorias de Problemas Nacionales, Repositorio Nacional, cátedras Conacyt y el establecimiento de un Laboratorio Nacional, todos estos dedicados al estudio del clima espacial.

Solución de problemas

A partir de 2016 se estableció el Lance con sede principal en el Observatorio de Centelleo Interplanetario de Coeneo, Michoacán (MEXART, por sus siglas en inglés). El Lance agrupa y coordina una red nacional de instrumentación para el monitoreo de clima espacial que incluye el SCiESMEX y el Repositorio Institucional de Clima Espacial (RICE) para resguardar los datos de las redes de instrumentos.

A partir del grupo Clima Espacial en México, el Lance se vincula con las autoridades de protección civil. “A pesar de que todo esto surgió como un proyecto académico de física espacial y ciencia aplicada, en este caso logramos una vinculación muy importante en temas de protección civil y seguridad nacional”, afirmó.

Una distinción importante para este laboratorio nacional es que se conformó como un esfuerzo conjunto entre la UNAM y la Universidad Autónoma de Nuevo León (UANL). En el Lance participan más de 35 académicos, de quienes cinco pertenecen al Sistema Nacional de Investigadores (SNI) como nivel III y otros cinco son parte del programa de Cátedras Conacyt.

El Lance utiliza instrumentos como el radiotelescopio MEXART, el observatorio de rayos cósmicos, estación Schumann, estación Callisto, una red de magnetómetros e ionosondas, así como las redes de estaciones receptoras de GPS del SSN-TLALOCNet.

A través de esta infraestructura es que los científicos del Lance desarrollan diversas líneas multidisciplinarias de investigación como estallidos en la superficie solar, la propagación de tormentas solares en el medio interplanetario, los efectos de estas sobre la ionósfera y el campo geomagnético, y los rayos cósmicos. “Las cátedras Conacyt tienen un papel fundamental, pues todos en el laboratorio tienen responsabilidades diferentes y particulares. Se hace investigación en algunos aspectos de ciencia básica pero también es ciencia aplicada en temas de seguridad nacional”, añadió.

Retos y futuro

A pesar de sus excelentes resultados, el Lance busca mejorar su operación y ha comenzado a implementar un sistema de gestión de calidad y el fortalecimiento de la red de instrumentos en Tierra a lo largo del país. “Para eso estamos creando una red de magnetómetros para medir en tiempo real y cuantificar cómo varía el campo magnético en diferentes regiones del país. Así podemos ver cómo responden las diferentes zonas geográficas del país ante eventos de clima espacial. Esto lo hemos logrado a través de financiamientos y proyectos coordinados”, agregó.

Además, el grupo planea adquirir cinco ionosondas, antenas que emiten un pulso electromagnético que rebota en la ionósfera para captarse de nuevo en la Tierra. La medición de parámetros físicos en la ionósfera es un aspecto muy importante en el estudio de las afectaciones por clima espacial, pues esta capa es fundamental para las telecomunicaciones.

Lance representa a México en el grupo de clima espacial en Naciones Unidas, en la WMO y es uno de los únicos cuatro servicios de clima espacial que operan en tiempo real en el continente, a la par de Estados Unidos, Canadá y Brasil.

A pesar de todos los logros que Lance ha obtenido, aún le quedan retos como el de convertir el proyecto en un servicio 24/7 permanente que pueda operar a toda hora. “Para eso requerimos consolidar más apoyos y contratar más investigadores porque no tenemos el personal suficiente. Los recientes desastres causados por fenómenos naturales son un recordatorio de que tenemos que fortalecer nuestros servicios nacionales”, compartió.

Además se han iniciado colaboraciones con personal de la CFE para evaluar la vulnerabilidad de la red eléctrica del país ante fenómenos de clima espacial. De igual forma, buscan iniciar colaboración con el IFT para valorar la vulnerabilidad de los sistemas de telecomunicaciones en México.

Recientemente en 2017 fue aprobada la consolidación del Lance que busca incrementar y mejorar la resolución espacial y temporal de las mediciones de clima espacial, vincular esfuerzos con otros entes, formular protocolos de prevención y mitigación de afectaciones en sistemas tecnológicos, generación de sinergias entre academia y sectores de la sociedad, implementar sistemas de gestión de calidad y el desarrollo y construcción de un telescopio óptico para observaciones solares,  astronómicas y de objetos cercanos a la Tierra, entre otros objetivos.

Con esto buscan avanzar a una siguiente etapa en donde no solo se obtengan datos científicos y geofísicos del clima espacial sino en donde puedan comenzar a desarrollar estudios multidisciplinarios con la industria de telecomunicaciones, sistemas de distribución y generación de energía para conocer las vulnerabilidades, sistemas tecnológicos clave e incrementación de la resiliencia del país ante estos fenómenos naturales, concluyó.

Fuente: Conacyt 

La ciencia explica el terremoto

banner-reportaje-sismo2017CDMX02.jpg

A 32 años del devastador terremoto en el que murieron al menos 10 mil personas, varios estados del país —y la Ciudad de México en particular— fueron sacudidos el martes 19 de septiembre, a las 13:14 horas por un sismo de 7.1 grados en la escala de Richter.

Hasta la tarde del miércoles 20, las autoridades anunciaban que la cifra de víctimas del sismo alcanzaban 249, además de daños aún incuantificables en edificios, mobiliario urbano e infraestructura vial. Las escenas y situaciones recordaban la experiencias de 1985.

Al mismo tiempo que los servicios de emergencia, el Ejército Mexicano y miles de voluntarios salían a las calles para auxiliar a las víctimas en las zonas más dañadas por el terremoto, la población mexicana también se planteaba preguntas y demandaba explicaciones: ¿por qué este sismo fue tan devastador?, ¿fue este el “gran terremoto” que anticipan los expertos desde hace tres décadas?, ¿cómo puedo determinar si hay daños estructurales en mi vivienda?

Ante la demanda de información por parte de la sociedad mexicana, el equipo de reporteros y corresponsales de la Agencia Informativa Conacyt consultó a científicos, investigadores e ingenieros expertos que acumulan años de experiencia y conocimientos en el tema.

El resultado de este esfuerzo periodístico es un reportaje que ofrece, de manera muy concreta y puntual, respuestas y explicaciones de la voz de expertos —siempre basadas en evidencia científica, en estudios e investigaciones— sobre los terremotos, sus orígenes y sus efectos, para entender la situación que vivimos en este momento. 

¿Por qué fue un terremoto tan devastador?

El investigador emérito de la Universidad Nacional Autónoma de México (UNAM), Jorge Flores Valdés, explicó que el sismo de 7.1 grados que sacudió este martes 19 diversos estados de la zona centro de México fue tan devastador porque el epicentro tuvo su origen entre los estados de Morelos y Puebla, a 120 kilómetros de la Ciudad de México.

“La energía que se libera con el movimiento de la tierra se dispersa y conforme aumenta la distancia, la intensidad de la onda sísmica va disminuyendo cada vez más. Es por esto que el sismo de este 19 de septiembre fue mucho más devastador que el que se registró el pasado 7 de septiembre, el cual a pesar de que fue de mayor magnitud, no causó muchos daños en la Ciudad de México, por el hecho de que el epicentro se localizó a más de 700 kilómetros de la capital del país”, explicó.

¿Fue un choque de placas?

Un gran parte del territorio nacional está sobre el extremo suroeste de la placa Norteamericana, que entra en contacto con la placa de Cocos. Esta placa, de extraordinario dinamismo, avanza debajo de la Norteamericana, en un fenómeno conocido como subducción, que acumula energía y se libera en forma de terremotos.

Luis Quintanar Robles, investigador en el Departamento de Sismología del Instituto de Geofísica de la UNAM, destacó que México es un país con una larga historia sísmica, con eventos recurrentes en las zonas afectadas por el sismo de este 19 de septiembre.

México es un país sísmico y si lo vemos desde el punto de vista de ocurrencia de sismos fuertes en esa zona, no es el primero que se da. No es una sorpresa que ocurran sismos de esta magnitud, pero sí son poco frecuentes. El 24 de octubre de 1980, a alrededor de 50 kilómetros de distancia del epicentro de este 19, en Huajuapan de León, Oaxaca, ocurrió un sismo de 7.1 grados”, explicó.

De acuerdo con el especialista, los sismos de mayor magnitud que se han presentado en México provienen de la costa del Pacífico; sin embargo, el evento ocurrido el 19 de septiembre se asocia a la subducción de la placa oceánica por debajo de la placa continental.

¿Fue un sismo trepidatorio u oscilatorio?

Calificar el sismo de este 19 de septiembre como trepidatorio u oscilatorio es incorrecto. De acuerdo con el doctor Quintanar Robles, tales palabras no existen para los sismólogos, debido a que los sismos se propagan por todas partes y provocan movimientos verticales y horizontales.

“Los sismólogos no utilizamos esos conceptos porque solo se trata de una cuestión de percepción. Los sismos mueven la tierra en todas las dimensiones, para un lado y para otro. En ese sentido, todos los movimientos de un sismo son de tipo tridimensional. Si tomamos como referencia el sismo (...) del día 7 de septiembre, que ocurrió a 700 kilómetros de distancia de la Ciudad de México, lo sentimos con un movimiento más horizontal”, explicó.

Destacó que el sismo del 19 de septiembre ocurrió a 120 kilómetros de distancia, por lo que el movimiento que prevaleció fue de tipo vertical, es decir, “se sintió un jalón hacia abajo, como si nos quitaran el piso, ese es un movimiento vertical evidente y típico de los lugares que están cerca del epicentro. Todos los sismos mueven el suelo en las tres dimensiones”, destacó.

De acuerdo a Dra. Xyoli Pérez Campos, Jefa del Servicio Sismológico Nacional, el terremoto del pasado 19 de septiembre fue un sismo intraplaca, es decir, el movimiento sucedió dentro de la placa de Cocos y no en la zona de contacto entre placas.

¿Por qué colapsaron edificios que resistieron el sismo de 1985?

El doctor Francisco Javier Núñez Cornú, investigador y coordinador de la maestría en geofísica del Centro Universitario de la Costa (CUCSur), de la Universidad de Guadalajara (UdeG), habló sobre las principales afectaciones provocadas por el sismo.

“Por lo que he tenido la oportunidad de ver, las estructuras que se cayeron fueron edificios viejos que habían estado aguantando durante años, o simplemente edificaciones que tenían fallas estructurales, lo que contrasta con el resto de la ciudad, que se encuentra entera hasta cierto punto”, expresó Núñez Cornú.

El investigador refirió que a pesar de que en México la ingeniería sísmica ha tenido un gran avance, existe gente que no respeta las normas de construcción requeridas para la construcción de edificios. Asimismo, resaltó la necesidad de realizar análisis de los lugares colapsados, incluyendo a los responsables del diseño, la autoridad responsable de otorgar los permisos y los encargados de su construcción.

En el mismo sentido, se expresa el maestro Gerardo Vargas, coordinador general del Observatorio en Puebla.

Para conocer si un edificio es seguro, primero se debe tener en cuenta el cumplimiento del reglamento de construcción. El siguiente paso es que cuando se haga la obra, esta debe respetar la solicitud de la licencia.

“Ahí hay un tema muy fuerte de supervisión, hacer responsable a un perito que indique si la construcción fue hecha de acuerdo al reglamento de construcción. Debe considerarse un seguro, que asegure el inmueble”, califica.

Además, en el área metropolitana de la Ciudad de México “hay muchos edificios que en el sismo de 1985 fueron afectados, algunos se derrumbaron, otros se recomendó tirarlos y quedaron varios vigentes. Durante 1975 y 1978, hubo una reducción en el reglamento de construcción de la Ciudad de México y una nueva especificación. Después del sismo de 1985, nuevamente se hizo una revisión al reglamento de construcciones, y las especificaciones para construir se volvieron más exigentes”, comentó.

¿Es una simple grieta o un daño estructural?

El doctor Eduardo Ismael Hernández, investigador académico del Departamento de Ingenierías de la Universidad Popular Autónoma del Estado de Puebla (UPAEP), destacó la importancia de que la población pueda reconocer los verdaderos daños estructurales en sus viviendas.

Indicó que los elementos estructurales son aquellos que realmente proporcionan soporte a una edificación, mientras que los elementos no estructurales se refieren a los muros divisorios pero no de carga, o bien aquellos que funcionan como elemento de arquitectura estética.

“Las grietas o fisuras que presentan los muros divisorios no son daños estructurales, incluso si se vienen abajo. Por supuesto que requieren de reparación pero no condicionan la estructura del inmueble. Por eso le pedimos a la población estar atentos, si hay grietas en sentido diagonal deben considerarse pero si están en un elemento estructural como muro de carga, en una columna o trabe, pero no en un muro divisorio”.

Fuente: Conacyt

Promueve AEM red de globos estratosféricos

yaoqi-lai-22173.jpg

La Agencia Espacial Mexicana (AEM) promueve la conformación de una red de globos estratosféricos en todo el territorio nacional, como estrategia para impulsar el desarrollo de tecnología satelital.

En entrevista con la Agencia Informativa Conacyt, David Muñoz Rodríguez, coordinador general de Investigación Científica y Desarrollo Tecnológico Espacial de la AEM, explicó que el objetivo de este proyecto es consolidar el uso de sistemas satelitales.

“El lanzamiento de globos estratosféricos es una práctica nada reciente en el país, hay diferentes aplicaciones y usos, eso es bien conocido, está bien establecido, pero queremos tener una metodología bien establecida que se convierta no en una cosa de excepción sino como una práctica”, mencionó.

Refirió que en los aeropuertos mexicanos es común que se lancen globos estratosféricos para monitorear, por ejemplo, el sentido de los vientos. La misma tecnología puede utilizarse para hacer otro tipo de observaciones e incluso para probar satélites.

David Muñoz Rodríguez, coordinador general de investigación científica y desarrollo tecnológico espacial de la AEM.“Si yo estoy desarrollando un satélite, probablemente antes de lanzarlo en un cohete —que tiene un costo elevado hacer varias pruebas desde arriba— puedo probarlo desde un globo; la idea es cómo podemos tener una red a nivel nacional que funcione de manera coordinada”, subrayó Muñoz Rodríguez.

Sistemas de monitoreo

De forma paralela, la AEM promueve el desarrollo de tecnología espacial para el monitoreo del territorio mexicano con diversas aplicaciones, que van desde seguridad hasta agricultura.

El coordinador general de Investigación Científica y Desarrollo Tecnológico Espacial de la AEM aclaró que ya existe un mercado explotado por empresas del sector privado, dedicadas a ofrecer los servicios de monitoreo.

No obstante, puntualizó que el objetivo de la AEM es ampliar las capacidades que en materia de tecnología espacial tiene el país y para ello se llevan a cabo estudios experimentales en varias universidades.

Nos interesa contar con diferentes capacidades de monitoreo: alta resolución, que yo pueda ver desde el espacio cosas muy pequeñas; técnicas de radar, ¿por qué es importante el radar?, en México, 50 por ciento del territorio nacional está cubierto por nubes pero si tengo un sistema de radar, yo puedo ver independientemente de que haya nubes, entonces tengo muchas aplicaciones”, sostuvo.

Muñoz Rodríguez indicó que el monitoreo en media resolución tiene aplicaciones en caso de desastres naturales, para la agricultura, biodiversidad, recursos naturales y cambio climático; el monitoreo de alta resolución es aplicable en labores de inteligencia, estimación de recursos e información estadística. 

AEM: perspectivas para México

Como parte del Festival del Conocimiento 2017, evento organizado por la Universidad Nacional Autónoma de México (UNAM), David Muñoz Rodríguez habló sobre las perspectivas de la AEM en materia de desarrollo tecnológico espacial.

Durante su exposición, puntualizó que algunos de los retos a los que se enfrenta el país en el ámbito espacial son el medio ambiente, la brecha digital, el cambio climático, la ciberseguridad y la basura espacial, entre otros.

Fuente: Conacyt 

Afectaciones del viento solar en Marte

sol-head-9817.jpg

En el marco del Primer Congreso México hacia Marte, organizado por la Agencia Espacial Mexicana (AEM), se llevó a cabo la ponencia magistral Interacción del viento solar con Marte, impartida por el doctor Héctor Pérez de Tejada, investigador titular del Instituto de Geofísica (IGF) de la Universidad Nacional Autónoma de México (UNAM), cuyo trabajo se centra en la interacción del viento solar con la ionósfera de Marte y Venus.

El viento solar es irradiado desde la corona solar, parte más exterior del sol, está compuesto de gas ionizado, más comúnmente llamado plasma, con una densidad muy baja. Al momento de salir expulsado de la corona, el viento puede extenderse hasta alcanzar a los planetas más alejados de nuestro sistema solar, e incluso se cree que puede alcanzar distancias más grandes.

A pesar de su casi nula densidad, el viento solar se comporta como un fluido y tiene la capacidad de interactuar de manera coordinada con las ionósferas y las atmósferas de los planetas, lo cual representa una incógnita de ciencia básica que no se ha podido comprender desde el descubrimiento de esta radiación solar en el año 1959.

“Los procesos de interacción se realizan a través de colisiones entre las moléculas y los átomos que forman el agua y el aire. Pero, con la densidad tan baja del viento solar, no hay colisiones, y sin embargo, el viento solar se comporta como un fluido”, explicó el investigador.

La Tierra posee un campo magnético generado por el movimiento del núcleo y sirve como un escudo que nos protege del viento solar. Marte no cuenta con un campo magnético como el de la Tierra, por lo que el viento solar interactúa de manera directa con su atmósfera, ocasionando que se vaya perdiendo. Se tiene información de que este fenómeno se ha presentado a lo largo de los cuatro mil 500 millones de años que tiene de existencia el planeta rojo.

¿Cómo es posible que el viento solar se comporte como un fluido, a pesar de que no existe un choque entre sus partículas? La explicación que da el doctor Pérez de Tejada es que el viento solar posee un campo magnético, el cual presenta fluctuaciones muy altas, ocasionando los cambios de dirección entre las partículas, justificando su comportamiento similar al de un fluido, pero hasta el momento no hay una mecánica estadística que se ocupe del fenómeno.

“Hace 100 años hubo un físico muy famoso, Ludwig Boltzmann, quien proporcionó la mecánica estadística para fluidos, pero para esto no hay una mecánica estadística. Se requiere del ingenio de alguien que desarrolle un proceso similar en donde se usen interacciones entre partículas y fluctuaciones para tener una nueva mecánica estadística y explicar el fenómeno”, resaltó Pérez de Tejada.

En el pasado, Marte llegó a tener agua en su superficie, hubo lagos y se piensa que en el hemisferio norte existía un océano, hasta que su atmósfera desapareció por causa del viento solar, ocasionando que el agua se filtrara hacia las profundidades del planeta y dejando como consecuencia el ambiente frígido y seco que conocemos en la actualidad.

Todos esos datos sobre Marte y sus condiciones atmosféricas ayudarán a la futura planeación de misiones espaciales contempladas para el año 2030. Se espera que humanos realicen un viaje con una duración aproximada de 10 meses para explorar la superficie marciana y posteriormente construir colonias capaces de albergar vida humana.

Fuente: Conacyt 

Miguel del Castillo y su estancia en NASA

nasa-head-9717.jpg

Guillermo Miguel del Castillo Hoffman, ingeniero mexicano comprometido con el desarrollo del sector espacial en México, actualmente trabaja en proyectos de la Administración Nacional de Aeronáutica y del Espacio (NASA, por sus siglas en inglés), un sueño que tenía desde su juventud y en el que enfocaba su pasión por los temas del espacio. 

Nacido en Houston, Estados Unidos, Miguel se mudó a México a la edad de dos años. Después estudió ingeniería en computación en la Universidad Autónoma Metropolitana (UAM), pues debido a la necesidad de trabajar durante sus estudios de licenciatura, decidió que esa carrera le daría mayor movilidad laboral en lugar de alguna otra más relacionada con el espacio.

Sin embargo, su pasión por el espacio seguía ahí. “El museo de NASA en Houston fue el primero al que me llevaron mis papás a una muy temprana edad, me causó un gran impacto”, platicó.

Durante sus años de estudiante, se desempeñó a la par como ingeniero en el departamento de sistemas de un call center, “aunque me hubiese gustado estudiar algo relacionado directamente con el espacio, y puede que lo haga en una maestría, me he sentido satisfecho de mi trabajo y mis estudios. A veces fue complicado mantener trabajo y estudios al mismo tiempo, pero aprendí mucho y conocí colegas con los que aún tengo contacto y amistad”, explicó Del Castillo.

Miguel Del Castillo Hoffman 5Su primer acercamiento profesional en el área espacial fue durante la Feria Aeroespacial México (Famex) en 2015, a la que solo pudo asistir el último día por cuestiones laborales y escolares y en donde tuvo la oportunidad de acercarse a la Agencia Espacial Mexicana (AEM). “Fui con la idea de conocer a la gente de la industria, pero todos sus estands ya habían sido desarmados. Afortunadamente, el pabellón de la AEM seguía abierto y estaban dando una ponencia de microsatélites. Mostraron un CanSat que explicaron lo habían diseñado y construido junto con sus estudiantes de servicio social”.

Luego de enterarse de la posibilidad de realizar su servicio social en la AEM, Miguel comenzó a hacerlo de forma esporádica por cuestiones de su trabajo. “Fue entonces que ahorré mi salario para renunciar a mi trabajo y dedicarme a terminar las materias en la universidad, a la vez que hacía el servicio en la AEM”, agregó.

A finales de 2015, el personal de la AEM tuvo un problema en la página web de la agencia, por lo que solicitaron la ayuda de Miguel. “Chequé que era un problema interno de la red, el proxy. El error se encontraba en un formulario donde se subían documentos para postularse como candidato a las estancias de AEM en NASA Ames. Fue así como me enteré de las estancias, pero luego vi el dinero que se necesitaba y pensé que sería imposible”.

Pocos días después, amigos de Miguel se enteraron de la convocatoria y lo exhortaron para participar, pues conocían su pasión por el espacio. Una de ellas, compañera de la UAM Azcapotzalco, se ofreció para proponer la posibilidad de la estancia con las personas del consejo académico de la UAM Azcapotzalco, unidad de esta universidad en que Miguel estudiaba. Para juntar el dinero, hizo una recaudación en las diferentes instancias de la UAM, desde rectoría hasta departamentos de diseño o ciencias sociales. Finalmente, Miguel y todas las personas que lo ayudaron lograron reunir el dinero.

Sin embargo, ya siendo aceptado por la AEM para participar en la estancia, la NASA no supo tratar su caso por su doble nacionalidad. Nunca se había considerado que alguien con ciudadanía americana intentara entrar como extranjero. “Al final, las diferentes instituciones aceptaron mi caso. La NASA me admitió como estudiante extranjero, pude sacar mis pasaportes mexicano y americano y se pudo realizar la estancia”.

Un sueño espacial

La estancia que Del Castillo Hoffman realizó en el Centro Espacial Ames de NASA en Moffett Field, California, tuvo una duración de tres meses y medio, aunque el periodo acordado inicialmente fue de dos meses y medio solamente. “El mentor me ofreció extender mi estancia y gracias a ahorros y apoyo de mi familia, sin mencionar que me quedé de colado en la habitación de otro interno, pude quedarme”.

Desde el principio fue un sueño hecho realidad. “Entrar como trabajador a NASA fue una experiencia fuera de serie. El centro de investigación es impresionante y se realizan labores muy variadas. Hay laboratorios de biología, medicina, sistemas de soporte de vida, investigación aeronáutica, misiones espaciales robóticas, túneles de viento, una pista aérea y la supercomputadora de la NASA, Pleiades. Al momento en que realicé la estancia, era la onceava computadora más poderosa del mundo”, platicó entusiasmado.

Miguel-Del-Castillo-Hoffman-1.jpg

Los meses previos a la estancia estuvieron llenos de complicaciones que, sin embargo, pudieron ser resueltas. Un ejemplo de esto fue que el proyecto que Miguel había seleccionado en la convocatoria y que implicaba el uso de la supercomputadora, había quedado sin financiamiento desde hacía más de un año. Finalmente, le ofrecieron participar en otro proyecto sobre un modelo 3D de la Tierra. “Sinceramente ese proyecto no me había llamado la atención en la convocatoria. Yo quería trabajar en una simulación de escombros orbitales en la supercomputadora. Pero al final considero que fue muy afortunado trabajar en WorldWind”.

WorldWind, modelo virtual de la Tierra, es un proyecto de código abierto que permite el uso y visualización de información geoespacial y que es utilizado en aplicaciones de monitoreo climatológico, visualización urbana, etcétera. Es similar a Google Earth y surgió por las mismas fechas como un proyecto educativo con la idea de introducir tecnología de NASA en el salón de clases. La idea era que los niños pudieran visualizar animaciones sobre el globo virtual que no pudiesen realizarse en un globo terráqueo común. Por ejemplo, los cambios de la tectónica de placas a través de las eras geológicas, o la historia de las campañas de Alejandro Magno. "WorldWind evolucionó hasta que los sistemas geoespaciales se volvieron cosa de todos los días, como ahora que tenemos un GPS en el celular y comienza a convertirse en un sistema para desarrollar aplicaciones geoespaciales”, explicó Miguel.

En WorldWind, a todo el equipo de internos, así como Miguel, le fue encargado generar aplicaciones en la versión web para mostrar las capacidades del sistema. “Se desarrollaron tres proyectos y yo procuré involucrarme en todos. Me enfoqué más en un rastreador de 15 mil satélites en tiempo real alrededor de la Tierra en una página web. También se realizó un visualizador de sismos con un historial de más de cien años, y el tercero fue un visualizador de imágenes satelitales climatológicas que obtiene su información de diferentes agencias internacionales, además de la NASA”, añadió.

Aunque el trabajo de más de tres meses fue pesado, tuvo sus frutos al ser presentado en Washington DC por el investigador de la NASA encargado del proyecto. Durante la estancia, Miguel no desperdició un solo segundo para aventurarse y conocer cada rincón posible del centro Ames. “Cuando eres interno de NASA Ames, te prestan una bicicleta para trasladarte. Cuando acababa mi jornada de trabajo, salía en la bicicleta y recorría el centro para conocer todo lo que se pudiera. Encontré aviones abandonados, un pequeño museo escondido, placas que delataban la rica historia del lugar y vestigios de proyectos antiguos. Se veían despegar y aterrizar de la pista helicópteros de pruebas y aviones de transporte y combate. Al otro lado de la pista aérea, se encuentra una base de la Guardia Nacional de Estados Unidos”, contó.

El tiempo en NASA había llegado a su fin y debía volver a México. Miguel había dejado una materia por cursar en la universidad antes de partir a la estancia, “la intenté aprobar antes de irme, pero entre el servicio social, las otras materias y el papeleo de la estancia, me fue imposible y dejé de asistir a esa clase”, añadió.

A su regreso, tuvo que dedicarse a conseguir trabajo, y gracias al empleo que tuvo antes de sus aventuras espaciales, pudo realizar una consultoría. Sin embargo, esto no le dejó tiempo para terminar la última materia faltante en la UAM.

En el siguiente trimestre, Miguel pudo cursar su materia y encontró la oportunidad de que su mentor y asesor en NASA lo propusiera, junto con otro compañero brasileño, a realizar una aplicación de WorldWind para una fundación italiana. “No era un proyecto de la NASA, pero WorldWind puede utilizarse libremente. Hicimos el proyecto y fuimos a presentarlo a Italia”.

Nueva vida, nuevas metas

En febrero de 2017, Miguel fue invitado a involucrarse como desarrollador de WorldWind, por lo que le fueron hechas evaluaciones que cumplió exitosamente. Lo aceptaron y, como requisito para su contratación, tuvo que mudarse a Estados Unidos, a pesar de que su posición fuera remota. “Yo preferiría trabajar desde México y lo intentaré en el futuro. Ahora en lugar de ser desarrollador de aplicaciones, trabajo en el desarrollo del globo terráqueo 3D mismo. Es un verdadero proyecto de ingeniería”, concluyó.

Por ahora, Miguel promueve el uso de WorldWind en México y afirma se dedicará a trabajar en este tema durante algunos años. No obstante, no se cierra a la posibilidad de estudiar alguna maestría de tema espacial que le permita aplicar el conocimiento que ha adquirido, su experiencia en el cómputo y su eterna pasión, el espacio.

Fuente: Conacyt

Inicia Primer Congreso México hacia Marte

lia-bekyan-363794.jpg

Marte es el siguiente gran paso en la exploración espacial, por lo que diferentes agencias espaciales alrededor del mundo han destinado esfuerzos y recursos en desarrollar planes para la exploración, estudio y la futura colonización del planeta rojo.

Por tal motivo, la Agencia Espacial Mexicana (AEM) celebra el Primer Congreso México hacia Marte, que se lleva a cabo del 6 al 10 de septiembre en el Centro Nacional de las Artes (Cenart), el Centro Cultural España y el Centro de Cultura Digital, en donde se presentarán los campos en los que nuestro país puede insertarse y participar en las futuras misiones hacia Marte, previstas para el 2030. 

Durante la inauguración del congreso, estuvieron presentes Javier Mendieta Jiménez, director general de la Agencia Espacial Mexicana, Omar Charfén Tommasi, coordinador general de Organismos Descentralizados de la Secretaría de Comunicaciones y Transportes (SCT), Irma Adriana Gómez Cavazos, oficial mayor de la Secretaría de Educación Pública (SEP), y por parte de la Presidencia de la República, Elías Micha Zaga, coordinador de Ciencia, Tecnología e Innovación.

En su intervención, Mendieta Jiménez recordó la importancia que tiene el espacio para la vida cotidiana, como las telecomunicaciones, la observación de la Tierra para la prevención de desastres naturales, la geolocalización y el pronóstico del clima, por mencionar algunas.

Asimismo, destacó que México está comprometido con el uso pacífico del espacio y reconoció la importancia de que los jóvenes se integren al sector espacial.

“México participará en las misiones a Marte con lo que sabemos hacer, tenemos 35 años de experiencia en telecomunicaciones, tenemos excelentes grupos que trabajan geofísica, astrofísica, astrobiología, imágenes satelitales y tecnologías de información, no todo es ciencia de cohetes”, expresó el titular de la AEM.

Destacó la asistencia de numerosos jóvenes a las ponencias de expertos científicos como el maestro Emmanuel Urquieta, médico mexicano colaborador en la Administración Nacional de Aeronáutica y del Espacio (NASA, por sus siglas en inglés), el doctor Omar Pensado, director del Centro de Investigación Atmosférica y Ecológica (CIAE), y el doctor Robert Zubrin, presidente de Mars Society, quienes inspiraron entre los asistentes la vocación científica espacial.

Micha Zaga resaltó la importancia de la generación de nuevos conocimientos y sus aplicaciones, pues gracias a estos, se pueden atender problemas y necesidades de grupos amplios de la sociedad, generando oportunidades de negocio y la creación de fuentes de empleo.

“Incorporar a nuestro país en los retos de la exploración espacial abre la posibilidad de un mejor futuro para los mexicanos. Promover las vocaciones científicas y el interés por las ingenierías es una oportunidad apasionante que surge cuando pensamos en los retos que ofrece un hecho histórico como la exploración de Marte”, dijo Micha Zaga.

Durante los cinco días del congreso, habrá ponencias, mesas redondas, presentación de artículos, talleres, meetups, espectáculos, un ciclo de películas con temática marciana, editatones y actividades de realidad virtual. El programa completo puede ser consultado en esta dirección.

Fuente: Conacyt

Adiós a los antibióticos con nanomateriales de plata

joel-filipe-201191.jpg

El doctor Alejandro Huerta Saquero, investigador del Centro de Nanociencias y Nanotecnología (Cnyn) de la Universidad Nacional Autónoma de México (UNAM), campus Ensenada, experimenta con nanomateriales para probar su efectividad contra la bacteria Vibrio cholerae, causante del cólera.

Huerta Saquero explicó en entrevista para la Agencia Informativa Conacyt que sus experimentos forman parte de un proyecto de investigación desarrollado en colaboración con las doctoras Fitnat Yildiz y Ana Gallego, de la Universidad de California en Santa Cruz (UCSC), ambas expertas en la bacteria.

Nano-1709.jpgExplicó que el equipo de investigadores canaliza sus esfuerzos hacia el desarrollo de nanomateriales en forma de biopelícula capaces de eliminar la bacteria Vibrio cholerae.

Expuso que las biopelículas están compuestas de proteínas y polisacáridos que las mismas bacterias secretan al exterior, y que forman capas impermeables y altamente resistentes que les permiten protegerse de ataques y alteraciones a su entorno. 

“El problema para el humano es que esta forma en biopelícula es altamente infecciosa, si se consume a partir de mariscos o de agua contaminados, se requiere muy poco de estos agregados para infectarse. Además, la biopelícula confiere a las bacterias alta resistencia a los antibióticos al solo ser eliminadas las bacterias superficiales de la biopelícula y no lograr eliminar las que se encuentran dentro, que están de alguna manera protegidas”, detalló el investigador del Cnyn.

Como parte de la investigación, los especialistas prueban distintos nanomateriales con actividad antimicrobiana para analizar si son capaces de evitar la formación de biopelículas o eliminarlas si ya están desarrolladas.

Los resultados en laboratorio indicaron que el único nanomaterial que impidió la formación de biopelículas fue el que se combinó con plata, mientras que las combinaciones cobre y zinc mostraron algunos cambios pero no inhibieron la formación del biofilm.

Tras haber comprobado la efectividad de los nanomateriales, sintetizados en el Cnyn por los doctores Oscar Raymond y Oscar Jaime Acuña, ahora los investigadores buscan un método para desactivar la toxicidad de los nanomateriales que en el organismo pueden afectar bacterias benéficas.

Resistencia bacteriana

Otro de los nuevos objetivos que han surgido con los avances de la investigación es comprender la acción de los nanomateriales y su capacidad para modificar la estructura de la biopelícula, lo que permitiría determinar la respuesta defensiva de las bacterias.

“Quizás algunas de ellas empiecen a generar resistencia a los nanomateriales, tal como lo hicieron con los antibióticos. Nos interesa saber cómo se modifica la expresión genética, cómo se defienden las bacterias cambiando la expresión de proteínas relacionadas con respuesta al estrés, a la resistencia a antibióticos y a los mecanismos de detoxificación, como bombas de eflujo”, indicó el doctor Huerta Saquero.

Subrayó que si se logra entender la respuesta de las bacterias a los nanomateriales, se podrán diseñar estrategias para evitar que gradualmente se generen variedades resistentes.

“Lo que nosotros queremos es proponer una alternativa para el tratamiento de este tipo de enfermedades infecciosas, quizás el blanco no es usarlo como los antibióticos que son ingeridos, quizás puede ser usado como preventivo en las granjas de cultivo de mariscos o en alguno de los pasos de la producción de los organismos marinos”, sostuvo.

Fuente: Conacyt

Carlos Gershenson, un científico de lo complejo

61c80bd497cef6c3e6984a76ebb01b99.jpg

El entendimiento, explicación y solución de fenómenos complejos en la ciencia, así como de la sociedad, no es una tarea fácil. Sin embargo, existen científicos mexicanos que han dedicado su labor profesional a este tema, tal es el caso del doctor Carlos Gershenson García, del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS) de la Universidad Nacional Autónoma de México (UNAM), quien en una joven carrera ha logrado el éxito y reconocimiento nacional e internacional.

En el IIMAS, Gershenson trabaja en el Departamento de Ciencias Computacionales y está afiliado como investigador al Centro de Ciencias de la Complejidad (C3) de la misma universidad. En entrevista con la Agencia Informativa Conacyt, platicó la historia de su desarrollo y labor profesional, además de sus intereses en la complejidad, vida artificial, ciencia cognitiva y educación. 

Curiosidad y esfuerzo

Originario de la Ciudad de México, desde niño tuvo la curiosidad de entender las preguntas que se hacía al mismo tiempo que era motivado por su padre, quien a la edad de seis años lo introdujo a la ciencia al llevarlo a un curso de programación en el Museo Tecnológico (Mutec), área a la que años después dedicaría su carrera. “Desde joven quería entender por qué las cosas son como son y no solo me lo preguntaba, sino que intentaba responder yo mismo”, platicó.

Estudiante de la Escuela Nacional Preparatoria número 6 de la UNAM y ante la indecisión de qué carrera estudiar, Carlos fue presentado a un profesor de filosofía e historia en una escuela de computación, la Fundación Arturo Rosenblueth, en donde por fin decidió que ese tema era su preferido.

“Revisé el plan de estudios y trataba sobre física, matemáticas, computación, economía, filosofía, historia, eso me motivó a estudiar ahí. Dentro de esa escuela teníamos profesores muy buenos que nos sacaban de nuestra zona de confort y nos motivaban a esforzarnos más allá de nuestros límites”.

Durante su época como estudiante de licenciatura, fue expuesto a ideas revolucionarias y tecnológicas que comenzaron a llamar su atención, además de ser invitado a un grupo de investigación en el Centro de Investigación y de Estudios Avanzados (Cinvestav) del Instituto Politécnico Nacional (IPN) y al Instituto de Química de la UNAM. No obstante, durante sus últimos años de la carrera de ingeniería en computación en la Fundación Rosenblueth, también estudió cinco semestres de la licenciatura en filosofía en la UNAM y un verano de investigación en el Instituto Weizmann de Ciencias en la Escuela Internacional de Verano Karyn Kupcinet, en Israel. “Desde muy joven comencé a involucrarme en la vida académica, pues fue algo que encontré muy afín”, agregó.

Además, logró un buen desempeño académico, pues dentro de sus objetivos estaba obtener una beca del Consejo Nacional de Ciencia y Tecnología (Conacyt) para realizar sus estudios de posgrado, mismos que llevó a cabo en el extranjero con apoyo como becario de esta institución. “Esa visión a largo plazo me ha ayudado, porque desde la carrera comencé a asistir a conferencias, publicar artículos, tener interacción con colegas. Desde temprano pude enfocarme en la investigación, en la que ya llevo 20 años”.

Entre 2001 y 2002, Gershenson realizó su maestría en ciencias en la Universidad de Sussex sobre sistemas adaptativos y evolutivos. “Aunque pude quedarme en Sussex a hacer el doctorado, surgió la oportunidad de hacer un doctorado en Bruselas en un grupo interdisciplinario, donde me seguí desarrollando en temas de complejidad y autoorganización”, platicó.

Después de finalizar su doctorado en ciencias, durante el que realizó además un intercambio en la Universidad de Granada, envió solicitudes a distintas instituciones para obtener una posición posdoctoral que finalmente obtuvo en el Instituto de Sistemas Complejos de Nueva Inglaterra en Boston, Estados Unidos, entre 2007 y 2008.

“Estando allá me llegaban anuncios laborales de Conacyt, entre los que estaba una plaza de investigador en el IIMAS de la UNAM en el Departamento de Ciencias de la Computación. Me escogieron y volví a finales de 2008”.

De vuelta a México

Acostumbrado a seguir sus líneas de investigación de manera independiente, Carlos Gershenson se adaptó exitosamente a su nueva posición en México, “a menos de un mes de que regresara, se inauguró el Centro de Ciencias de la Complejidad en la UNAM, me pude incorporar y trabajar en temas de frontera pues no había un antecedente. En comparación con otras disciplinas e institutos más establecidos, pude llegar a un lugar donde tenía la libertad de investigar mis temas”.

Estos han tenido continuidad desde sus estudios de posgrado, pues todos están relacionados con sistemas complejos, desde educación, teoría de la información, sistemas de transporte, redes de regulación genética, evolución de redes, entre muchos otros temas aplicables.

“Un sistema complejo existe cuando se decide estudiar como un sistema complejo. Algo que caracteriza a la complejidad es la dificultad de separar sus elementos y debes estudiarlos todos porque sus interacciones determinan el futuro estado de los componentes, es cuando te conviene describirlo en el lenguaje de la complejidad”, explicó.

Para el especialista, la aplicación de la ciencia y los sistemas complejos puede ayudar a México y el mundo a resolver situaciones. “Es iluso pensar que los problemas se van a resolver haciendo las mismas cosas, los problemas tienen causas y para eso hay que entenderlas, para cambiar la situación de forma que se pueda eliminar el problema. Si no es con la ciencia, no será con serendipia. Son tantas las posibilidades que si nos vamos a someter a las ocurrencias políticas para reducir la pobreza, eliminar la marginación, elevar el nivel educativo, disminuir el desempleo y violencia, no hay de otra, debe ser con ciencia”, agregó.

Además, considera que falta vinculación entre la academia, el gobierno y el sector productivo, pues ha habido una desconexión y es difícil, aunque existan sugerencias de soluciones, se necesita la colaboración de la población para resolver esto. “No existen mecanismos para facilitar la coordinación de esos sectores, lo que nos ha frenado y dificultado la implementación de muchas de las soluciones que hemos explorado. El problema técnico es la parte fácil, la parte política, social y humana es la difícil. Creo que simplemente no hemos encontrado la manera de facilitar la coordinación, es cuestión de que la ciencia nos ayude a encontrarla”.

El año pasado, el doctor Gershenson realizó visitas como profesor en el Senseable City Lab del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés) y en el MOBS Lab en el Network Science Institute de la Universidad Northeastern, en Estados Unidos. Actualmente se encuentra laborando en el IIMAS de la UNAM.

Respecto a su visión de la ciencia en México desde una perspectiva de lo complejo, explicó que “es esencial formar doctores, Conacyt ha sido clave para el desarrollo de la ciencia en México, yo veo que otros países que no tienen esas políticas e institución, están como México estaba hace 50 años en investigación. Parece ser que hay más investigadores mexicanos en el extranjero que en México, lo cual es fuga de cerebros, por un lado Conacyt ha tenido un papel positivo y esencial en México pero también hay cosas que se necesitan corregir. Es importante encontrar mecanismos para que la inversión que se ha hecho en formar recursos humanos pueda traducirse en una economía que sepa regresar a invertir en ciencia y tecnología”, concluyó.

Fuente: Conacyt

En busca de mundos habitables

nasa-45072.jpg

En el día de la Divulgación en el Instituto de Ciencia Nucleares de la Universidad Nacional Autónoma de México (UNAM), se presentaron diferentes temas de investigación entre los que destacan los referentes a los exoplanetas y la búsqueda de lugares habitables en el universo.

Por ello, la investigadora Antígona Segura Peralta explicó cómo es que los científicos buscan estos hipotéticos lugares, cuáles son los obstáculos a los que se enfrentan y hasta dónde se puede llegar con la tecnología actual.

Con un público en su mayoría conformado por estudiantes de licenciatura y posgrado en el Auditorio Marcos Moshinsky de dicha institución, la investigadora impartió la conferencia Mundos habitables en la que despejó algunas de las dudas y mitos acerca de lo que son los mundos habitables y qué tan cerca estamos de ellos. 

Desde la antigüedad la vida humana se ha preguntado si estamos o no solos en el universo y si hay mundos en los que se pudiera albergar la vida tal y como la conocemos. Aún no hay nada concreto, pero investigadores cada día detallan y descubren condiciones y mundos parecidos a la Tierra.

Antígona Segura explicó que el ser humano ha detectado casi cuatro mil planetas que orbitan alrededor de otras estrellas, pero solo unos cuantos han sido puestos en la categoría de potencialmente habitables. 

Para que un planeta se pueda considerar habitable, incurren varios factores. “No es ninguna idea descabellada pensar que la vida en otros planetas también puede estar formada con base en el carbono y el agua”, dijo. 

Para que exista agua líquida en un planeta, se requiere una temperatura adecuada por lo que la búsqueda se limita en los exoplanetas que se encuentran en la zona habitable de su estrella, esta no se sitúa muy cerca de la estrella ni muy lejos para mantener una temperatura idónea para que los microorganismos se puedan desarrollar.

“Son los lugares exactos donde los planetas reciben suficiente energía de su estrella para ser habitables. Pero existe un factor más: la atmósfera. Si la atmósfera de la Tierra desapareciera, la temperatura promedio sería de -17 grados Celsius. Lo que hace habitable la Tierra es que tiene una atmósfera con gases de efecto invernadero”, explicó Segura Peralta.

La forma en que los científicos en el mundo buscan la vida inteligente en los exoplanetas es a través de biomarcadores que se miden mediante la luz que reciben de sus sistemas solares, es decir, analizando los espectros de luz que pasan sobre ellos. 

“Un planeta como la Tierra presentaría una gran cantidad de biomarcadores, por lo que sería fácilmente detectado con la tecnología actual y sería la primera prueba confiable de un mundo habitado, además del nuestro”, concluyó la investigadora de la UNAM. 

Fuente: Conacyt 

Viaje al interior de la Tierra

asoggetti-344261.jpg

Cuando la mayoría de las personas escucha la palabra sismo, automáticamente piensa en destrucción, y no es para menos, pues la energía liberada por estos movimientos telúricos puede llegar a ser devastadora. Sin embargo, para los geólogos es sinónimo de información.

Estudiar el interior de la Tierra no es una tarea sencilla, realizar una excavación lo suficientemente profunda para poder estudiar las diferentes capas supondría un enorme gasto de tiempo y dinero, por lo cual se han aprovechado algunos de los puntos más profundos que existen.

Como parte del ciclo de conferencias de divulgación científica organizadas por el Instituto Italiano de Cultura, se llevó a cabo Sismos y temblores: cómo la sismología logró descubrir el interior de la Tierra, con el fin de dar a conocer cómo los sismólogos y geofísicos estudian el interior de nuestro planeta.

“El Challenger Deep es la parte más profunda y, entonces, la más cercana al centro de la Tierra, se encuentra a 11 kilómetros de profundidad. Hasta el día de hoy solamente tres personas lograron llegar a este punto. Entonces, si pensamos que a la Luna ya se fueron 12 personas, estamos viendo la dificultad que tenemos nosotros para ir hacia abajo con respecto a ir para arriba”, enfatizó el investigador, quien es doctor en geofísica. 

Ante el problema que representa para los científicos la inaccesibilidad al interior de nuestro planeta, la sismología ha ayudado a describir cómo están constituidas las diferentes secciones que conforman el planeta gracias al estudio de las ondas que se propagan cuando sucede un sismo.

Los sismos se producen por la liberación repentina de energía contenida en el interior de la Tierra. Esta energía desatada se propaga en forma de ondas, provocando que las placas que conforman la Tierra se muevan y choquen unas con otras, generando temblores que varían de intensidad, por lo que muchos de ellos son imperceptibles para las personas.

México está en contacto con cinco placas tectónicas —Placa de Norteamérica, Placa de Cocos, Placa del Pacífico, Placa del Caribe y Placa Rivera—, por lo cual, la zona es de alta sismicidad, registrándose un promedio de cuatro temblores al día.

Estos movimientos terrestres son medidos con la ayuda de un aparato llamado sismógrafo, el cual funciona ayudado de la inercia, pues se mantendrá sin movimiento a menos que se le aplique una fuerza. Esta fuerza proviene de los movimientos bruscos de la tierra, haciendo que un marcador dibuje una línea directamente proporcional a la intensidad del temblor.

Las capas que componen la Tierra son tres: en el exterior se encuentra la corteza, es donde habitan los humanos y tiene un espesor de 60 kilómetros aproximadamente; después está el manto, que posee dos mil 850 kilómetros de espesor y está compuesto de rocas en estado semisólido y líquido; y en el centro se encuentra el núcleo, con una temperatura de seis mil grados Celsius y un espesor aproximado de tres mil 470 kilómetros.

Con la ayuda de varios sismógrafos colocados alrededor de todo el mundo, es posible realizar modelos tridimensionales de la Tierra. Esto se logra registrando los tiempos de llegada, intensidad y ángulos en que las ondas viajan por el interior. El resultado de combinar toda la información de los sismógrafos resulta en un mapeo de hasta dos mil 800 kilómetros de profundidad, una distancia que nunca se podría alcanzar excavando.

“Pretender conocer la estructura de la Tierra perforando 12 kilómetros en la corteza de nuestro planeta corresponde a pretender saber cómo está hecha una manzana cortando su piel por 0.08 milímetros, o sea, el espesor de una hoja de papel”, afirmó el científico.

Fuente: Conacyt

Juvenal Rodríguez, un brillante investigador

juvenal-head-82517.jpg

Su interés por la tecnología surgió desde niño, cuando examinaba sus carritos de baterías, los abría y con las piezas sobrantes ensamblaba otros. Se trata del doctor Juvenal Rodríguez Reséndiz, coordinador de la carrera de Ingeniería en Automatización y del posgrado en Ciencias en Instrumentación y Control Automático de la Facultad de Ingeniería en la Universidad Autónoma de Querétaro (UAQ).

A sus 32 años, el doctor Juvenal Rodríguez Reséndiz ha ido forjando su trayectoria profesional como docente, investigador y desarrollador de tecnología, lo que le ha valido el reconocimiento por la comunidad científica, tecnológica y empresarial en México y el extranjero.

En entrevista con la Agencia Informativa Conacyt, Rodríguez Reséndiz compartió sus inquietudes respecto a involucrar a los jóvenes mexicanos en la ciencia y el desarrollo tecnológico, e inculcarles que los esfuerzos y sacrificios durante la vida universitaria rinden fruto en la formación profesional.

Agencia Informativa Conacyt (AIC): ¿Cuándo descubres tu interés por la tecnología?

Juvenal Rodríguez Reséndiz (JRR): Desde muy pequeño tenía la curiosidad de cómo funcionaban las cosas. Abría mis carritos, los destartalaba y como me sobraban piezas hacía otro carrito con ellas. El campo de desarrollo de mi profesión es la tecnología, tengo una carrera técnica en electrónica como egresado del Centro de Bachillerato Tecnológico industrial (CBTis) 118 “Josefa Ortiz de Domínguez".

AIC: ¿Cómo te involucras en el desarrollo de proyectos de investigación?

JRR: Cuando ingresé a la UAQ me fui involucrando en algunos proyectos de investigación; una de la personas que me llevó a su grupo de trabajo fue el actual rector, Gilberto Herrera Ruiz. Ahí también me empecé a integrar en diseños industriales porque una cosa te lleva a la otra. Tanto en el bachillerato como aquí en la universidad te piden que hagas prácticas y te formes en tu profesión participando en proyectos de la vida real.

En ese momento me empecé a vincular con varias empresas de la región y eso generó mucho más interés en mí por el desarrollo de tecnología, era claro que si me integraba con la industria iba a poder hacer proyectos con un trasfondo más científico.

AIC: ¿Qué tipos de proyectos desarrollaste en ese periodo?

JRR: Gracias al Consejo Nacional de Ciencia y Tecnología (Conacyt) se abrieron convocatorias para vincular las universidades con las empresas bajo la visión de la triple hélice, en la que participan tanto el gobierno, la industria y las instituciones educativas en un frente común para el desarrollo. Teníamos algunos fondos, en ese momento, para hacer automatización de procesos de alimentos.

Eso llevó después al desarrollo de proyectos para empresas de invernaderos, del área automotriz, electrodomésticos y aeronáutica, de tal manera que hoy en día, ya como coordinador de la carrera y el posgrado, he tenido la oportunidad de involucrarme cada vez más con este tipo de industrias, observo sus demandas tecnológicas e identifico a los estudiantes que se requieren para desarrollar proyectos, cubrir algunas plazas laborales y prácticas profesionales.

AIC: ¿Y qué pasa en tu labor como investigador?

JRR: Además de mi trabajo como coordinador, soy docente de licenciatura y de maestría, tengo a cargo varias investigaciones, principalmente en la parte de bioingeniería, energías renovables, robótica y sistemas de control automático. Todo esto tiene un gran potencial hoy en día y más aquí en Querétaro, porque han crecido mucho los sectores metalmecánicos, manufactura y aeronáutico, lo que generó a su vez una demanda cada vez mayor de ingenieros y que se abrieran más convocatorias de reclutamiento masivo.

Querétaro ha crecido de forma exponencial, por eso hay un déficit de ingenieros y los estamos importando, aproximadamente entre 60 o 70 por ciento de ellos viene del norte y sur de México, además de otros países. En ese sentido, la universidad ha puesto su granito de arena, hace diez años teníamos solo cuatro carreras en la Facultad de Ingeniería: matemáticas, automatización, ingeniería civil y electromecánica; hoy ya tenemos trece especialidades.

AIC: Uno de los aspectos a resaltar es tu juventud y los logros profesionales que has obtenido, ¿qué nos puedes platicar acerca de eso?

JRR: Pertenezco al Sistema Nacional de Investigadores (SNI) nivel I y en el 2015 fui aceptado en la Academia Mexicana de Ciencias (AMC). Tengo el grado Senior Member del Instituto de Ingeniería Eléctrica y Electrónica (IEEE, por sus siglas en inglés), donde fui presidente de la sección Querétaro de 2014 a 2016.

AIC: ¿Influye tu juventud y trayectoria en la interacción que tienes con tus estudiantes?

JRR: Para los alumnos creo que es un factor ver que alguien, casi de su edad, está desarrollando tecnología y abriendo puertas en otras partes. Muchos lo toman como un reto y se motivan a trabajar, de hecho fue lo mismo que me pasó a mí.

Por otra parte, veo un cambio significativo en la idiosincrasia mexicana, estamos más convencidos de que podemos hacer las cosas en lugar de esperar a que otros las hagan por nosotros. Las oportunidades en México son geniales. A diferencia de otros países, incluso europeos, aquí puedes concursar para una beca y estudiar, además de que las universidades, en especial las públicas, están abiertas para que  puedas trabajar o hacer investigación.

AIC: ¿Tu desarrollo profesional te llevó a hacer sacrificios personales?

JRR: En el desarrollo profesional, la persona se tiene que ir forjando a sí misma y conseguir sus propios recursos para lograrlo. Yo hubiera podido frenar mi carrera en la parte técnica durante el bachillerato, pero tenía la convicción de seguir adelante y hoy en día me sigo preparando.

Dejas muchas cosas de lado para crecer profesionalmente. No tenía tiempo para la familia y hasta llegué a aislarme un poco; ellos entendían porque mi papá también es muy trabajador, sabía que estaba haciendo cosas importantes. Por estar tomando cursos en la licenciatura y el posgrado, sacrifiqué viajes y otros entretenimientos pero estuvo bien, a mí me gustaba y no me arrepiento de nada de eso.

Ahora que tengo las herramientas científicas como para hacer mis propias investigaciones, puedo mirar al otro lado, que son las humanidades. Tomo cursos de música, de idiomas adicionales al inglés y ya tengo la oportunidad de viajar. La vida al final se balanceó.

AIC: ¿Qué se necesita para fomentar el interés por la ciencia y la tecnología en edades tempranas?

JRR: Se necesitan más ingenieros para industrias como el petróleo, los alimentos o la robótica. Para eso hay que impulsar el conocimiento matemático en los niños. En Estados Unidos ya tomaron cartas en el asunto, porque ellos tenían un déficit de ingenieros y ya comenzaron a insertar el lenguaje computacional desde la educación básica.

De esa manera, los estudiantes se van haciendo a la idea de que sí pueden desarrollar cuestiones abstractas y de ingeniería. A nosotros nos hace falta un camino parecido, además de fomentar eventos de investigación, ahí se siembra la inquietud a los niños y el interés por saber el cómo funcionan las cosas. 

Fuente: Conacyt

El telescopio mexicano que localizará los fenómenos astrofísicos más energéticos del universo

yong-chuan-324645.jpg

El Instituto de Astronomía de la Universidad Nacional Autónoma de México (UNAM) desarrolló un proyecto de seis telescopios llamado DDOTI que será capaz de detectar destellos de rayos gamma, ondas gravitacionales y exoplanetas. Con motivo de la aparición de la primera luz en las observaciones astronómicas con el telescopio, los investigadores involucrados en el desarrollo de DDOTI presentaron los avances y el funcionamiento del telescopio instalado en el Observatorio Astronómico Nacional ubicado en San Pedro Mártir.

El Observatorio Astronómico Nacional (OAN) en San Pedro Mártir es uno de los pocos sitios privilegiados para la óptima observación astronómica en el mundo. La Sierra de San Pedro Mártir, en el estado de Baja California, posee condiciones naturales que permiten la plena contemplación del cosmos en el visible y el cercano infrarrojo.

Desde los años 60, el Instituto de Astronomía (IA-UNAM) opera y desarrolla el OAN en San Pedro Mártir. En 1979, el instituto inauguró uno de sus grandes telescopios con una apertura de 2.1 metros y desde entonces se han desarrollado numerosos telescopios de nueva tecnología. El reciente progreso que logró el IA-UNAM requiere inversión y tecnología para impulsar el desarrollo de proyectos astronómicos en San Pedro Mártir para continuar con el alto impacto de la astronomía mexicana a nivel mundial, además de permitir el acceso a las nuevas generaciones de astrónomos en México a la infraestructura de innovación.

Jesús González González, director del IA-UNAMSan Pedro Mártir es una locación que permite a México ser protagonista en el perfeccionamiento de la ciencia astronómica, es por ello que ha sido finalista para albergar grandes proyectos internacionales como LSSTCTA y TMT.

Es el último sitio de excelencia para la observación óptico-infrarroja en ser aprovechado para asegurar la calidad en cuanto a transparencia del cielo, porcentaje de noches despejadas y estabilidad de la imagen a través de la turbulencia. San Pedro Mártir, zona relativamente seca, tiene las condiciones naturales para potenciar los efectos de la atmósfera como los ciclos oscuros del clima, la cantidad de vapor de agua y la absorción misma de los componentes de la atmósfera.

Para el director del IA-UNAM, Jesús González González, es de suma importancia potenciar los múltiples y probados beneficios de los desarrollos astronómicos en la formación de recursos humanos en ciencia básica y aplicada, así como en la derrama e industria tecnológica del país que lleve a México a una mayor independencia y fortaleza. Es necesario el desarrollo en cuanto a infraestructura, accesibilidad, protección y desarrollo de nuevos proyectos con socios estratégicos nacionales e internacionales para propiciar el progreso científico para la astrofísica observacional mexicana.

¿Qué es DDOTI?

DDOTI, por sus siglas en inglés, significa Deca-Degree Optical Transient Imager. En español, el telescopio para transitorios ópticos de una decena de grados es el nuevo proyecto instalado en el OAN en San Pedro Mártir. 

Este conjunto de seis telescopios será capaz de localizar con alta precisión los fenómenos astrofísicos más energéticos del universo como son las explosiones de supernova, colisiones de agujeros negros o la fusión de estrellas de neutrones cuyas contrapartes en luz visible podrán ser detectadas y estudiadas con los telescopios que conforman el proyecto.

“En la astronomía, un desarrollo te lleva a otro, entonces DDOTI surge a partir de una colaboración que tuvimos para hacer una nueva cámara y robotizar un telescopio antiguo. La idea tiene aproximadamente tres años, combinando desarrollos comerciales como los tubos para los telescopios. No tuvimos que desarrollar cada uno sino el concepto que es lo que lo hace diferente. Combinar estos objetos desarrollados por la industria nos sirve para atacar tres temas fundamentales en astronomía hoy en día, que son los destellos de rayos gamma, el seguimiento y detección de las contrapartes electromagnéticas de las ondas gravitacionales y la búsqueda cercada de exoplanetas”, comentó Jesús González.

El telescopio es robótico y toma sus propias decisiones. Responde automáticamente a las alertas de satélites y de experimentos de ondas gravitacionales. También es remoto y se puede operar en vivo desde el IA-UNAM. Actualmente DDOTI cuenta con solo dos telescopios. Al término de este año estarán listos los otros cuatro telescopios direccionales; sin embargo, en el IA-UNAM ya empezaron a hacer ciencia poniendo a punto el sistema de respuesta, de control de telescopio y de apuntado que respondió mostrando la primera luz detectada en lo que va de su funcionamiento.

Los primeros dos telescopios de DDOTI fueron capaces de detectar la primera imagen de luz que muestra las galaxias que conforman el Cúmulo de Virgo.

El proyecto DDOTI, con sus seis telescopios, tuvo un costo total de 6.3 millones de pesos. El Consejo Nacional de Ciencia y Tecnología (Conacyt) aportó aproximadamente 60 por ciento del costo total, mientras que la UNAM colaboró con 20 por ciento y la Administración Nacional de Aeronáutica y del Espacio (NASA, por sus siglas en inglés) con el otro 20 por ciento, contribuyendo con los cuatro telescopios direccionales que estarán montados al 100 por ciento a principios de 2018.

Algunos de los investigadores del Instituto de Astronomía encargados del proyecto son Jesús González González, doctor en física y director del  IA-UNAM; Yilen Gómez Maqueo, investigadora y doctora en física; William Lee Alardín, doctor en física y coordinador de Investigación Científica de la UNAM, y Alan Watson Forster, doctor en astronomía e investigador titular del IA-UNAM.

Detección de destellos de rayos gamma

Alan Watson Forster, investigador en el Instituto de Astronomía, explicó que los rayos gamma son las explosiones más brillantes del universo. Estos fenómenos pueden ocurrir cuando una estrella muere en una supernova. Después de que este acontecimiento sucede, se puede observar la contraparte de la explosión en luz visible con DDOTI.

Alan Watson Forster.Los rayos gamma emitidos por dichas explosiones han sido detectados por dos satélites de la NASA: Fermi y Swift. Los dos detectan alrededor de 100 destellos por año y cuentan con un telescopio de rayos X para determinar la posición del destello. En el Observatorio Astronómico Nacional, llevan cinco años estudiando las explosiones con el telescopio de 1.5 metros.

“Aquí es donde entra DDOTI que va a rastrear un área de 10 grados buscando una fuente nueva que suba y baje el brío relacionado con los rayos X que detectan los destellos de rayos gamma. Una vez que lo localicemos, lo vamos a estudiar con los telescopios que también usamos con los destellos de Swift y Fermi y este será un gran avance para el campo de destellos de rayos gamma. Vamos a tener muchos datos y de mayor calidad. DDOTI tiene una característica que es única, tiene un amplio campo de visión que es 120 veces más grande que el tamaño de la luna”, ratificó Alan Watson Forster. 

Detección de ondas gravitacionales

El investigador del IA-UNAM, William Lee Alardín, explicó que las ondas gravitacionales son perturbaciones u “olas” que suceden en el espacio-tiempo y son producidas por el movimiento de grandes cantidades de materia a velocidades muy elevadas. Son una predicción de la teoría general de la relatividad publicada por Albert Einstein en 1915 pero no se habían observado sus consecuencias hasta hace poco más de un año.

Primera Luz galaxias que conforman el Cúmulo de Virgo.Una fuente típica de estas perturbaciones puede ser la órbita mutua de parejas de materia como dos estrellas de neutrones, dos agujeros negros, o bien uno de cada uno. Conforme se van acercando, giran cada vez más rápido hasta que se funden en un solo objeto y se crea lo que se conoce como el horizonte común de eventos; esto sucede cuando se da la mayor intensidad de emisión de ondas gravitacionales, se convierte en una sola materia y la emisión de ondas gravitacionales prácticamente desaparece.

Las ondas gravitacionales fueron detectadas directamente por primera vez por un experimento en el observatorio LIGO (Laser Interferometer Gravitational-Wave Observatory) en septiembre de 2015 y desde entonces han ocurrido varios eventos como son fusiones de agujeros negros supermasivos, cada uno con alrededor de 30 veces la masa del sol, que producen un temblor en el espacio-tiempo que se propaga a la velocidad de la luz y que estos detectores pueden observar.

Anteriormente, se había examinado el efecto que las ondas tienen sobre ciertos sistemas pero no se habían detectado las ondas, ya que para detectarlas hacen falta telescopios muy especiales tales como los que componen a DDOTI.

“Uno esperaría que esta emisión en ondas gravitacionales también va a producir luz en infrarrojo, en rayos gamma o visible o en alguna otra longitud de onda que se pueda observar con telescopios convencionales. Si se logra hacer esa correlación, entonces se puede aprender muchísimo más sobre la fuente. Las ondas gravitacionales son una manera completamente distinta de observar el universo que lo que hemos tenido hasta el año pasado. Todos los tipos de luz distinta, la luz visible, la radiación infrarroja, las ondas de radio, los rayos X, los rayos gamma, todas son ventanas distintas de un mismo espectro: radiación electromagnética. Las ondas gravitacionales no son una nueva ventana en ese mismo espectro, son otro espectro completamente distinto que da información complementaria. Entonces tiene un valor muy interesante”, manifestó William Lee Alardín. 

El telescopio trata de abarcar la mayor parte de la superficie de la caja de error para detectar si hubo un cambio y determinar dónde fue. Cuando estén los seis telescopios de DDOTI, se podrá abarcar cinco coberturas de campo lo más profundas posible. Se podrá hacer esta misma cobertura y después hacer el procesamiento de los datos para determinar dónde fue la emisión visible de esta fuente.

Detección de exoplanetas

Yilen Gómez Maqueo.Otra característica de DDOTI será la detección de exoplanetas y jupiteres calientes. Un exoplaneta, afirma la investigadora Yilen Gómez Maqueo, es un planeta que está alrededor de otra estrella ubicada más allá del sol.

Un júpiter caliente es un exoplaneta que tiene aproximadamente la misma masa que el planeta Júpiter y que puede tener menores o hasta dos veces más el tamaño de este planeta tardando de uno a diez días en dar la vuelta a su estrella. Son planetas gaseosos que no existen en nuestro sistema solar y que deben estudiarse en el exterior y alrededor de las otras estrellas.

“Necesitamos estudiarlos más. De todos los exoplanetas que se conocen, más de dos mil que han sido confirmados, solamente hay algunos cientos de ellos que son jupiteres calientes. Entonces, todavía tenemos que explorar cómo se formaron y cómo es que llegan tan cerca de su estrella. Sabemos que se tienen que formar más alejados ya que cerca de su estrella está demasiado caliente el ambiente y además tenemos que poder explicar cómo es que llegan a tener tamaños tan variados”, confirmó Yilen Gómez Maqueo.

Finalmente, ¿cómo los detectará DDOTI? Va a medir la luz de todas las estrellas que están en su amplio campo de visión y observará cómo se mueve o cómo eclipsa un exoplaneta a su estrella y localizará una caída en la cantidad de luz que se detecta.

Aunado a la complejidad de los retos de DDOTI, los seis telescopios también se enfocarán en tres proyectos más de astrofísica de vanguardia: 1) la detección de exoplanetas de tipo joviano que se encuentren muy cerca de su estrella, liderado por Yilen Gómez Maqueo y Mauricio Reyes; 2) la generación de un censo cosmológico de núcleos activos de galaxias asociados a la presencia de agujeros negros supermasivos en sus centros galácticos, liderado por el doctor Nathaniel Butler, de la Universidad Estatal de Arizona; y 3) la detección y confirmación de estrellas recién nacidas muy cercanas a nuestro sistema planetario, todas ellas en la Vía Láctea, por el doctor Carlos Román, astrónomo del IA-UNAM. 

Fuente: Conacyt