Universo Startup 2
- 16-05-2025 20:56 |
- Cero+Infinito
* Por Laura Morales
Finalmente, luego de varios retrasos y un despegue abortado, el 12 de agosto a las 4:33 am, hora de Buenos Aires, la NASA lanzó la primera misión que sobrevolará la corona solar –la capa más externa de su atmósfera-. Será la primera vez en la que una nave se acerca tanto al Sol. La misión recibió el nombre de Parker Solar Probe en honor al físico solar Eugene Parker. Su principal objetivo es medir in-situ las condiciones del plasma que componen la corona solar para contestar preguntas que persiguen a los solaristas desde hace más de 70 años: cuál es o son los mecanismos responsables del calentamiento coronal y cómo se genera el viento solar.
¿Por qué estudiamos el Sol?
El Sol no sólo es la fuente de luz y calor indispensables para a existencia de vida, tal como la conocemos, en nuestro planeta; sino que además produce un flujo de gases ionizados que afectan a la Tierra y al resto de los planetas y satélites del sistema solar: el viento solar. Este flujo de plasma en el que la Tierra está embebido está lejos de ser apacible, por el contrario, puede sufrir distintos tipos de perturbaciones que, finalmente, alteran el campo magnético terreste permitiendo el ingreso de partículas y energía provenientes del medio interespacial. Estas alteraciones en el campo magnético terrestre pueden producir auroras australes y boreales; afectar las órbitas y los componentes electrónicos de los satélites de los que dependemos para comunicarnos y perjudicar la salud de los astronautas que se encuentran, por ejemplo, en la estación espacial internacional.
El estudio del viento solar y otros fenónemos solares resulta pues de suma importancia en sociedades que se organizan cada vez más en torno a las comunicaciones.
¿Por qué Parker?
El proyecto de una sonda que pudiera acercarse a unos seis millones de kilómetros de la superficie solar comenzó a tomar forma en 2009 bajo el nombre de Solar Probe y recién en mayo de 2017 la NASA decidió rebautizarlo como Parker Solar Probe siendo la primera vez en la historia que la la Agencia espacial estadounidense nombra una misión en honor a un científico vivo.
Eugene Parker nació en 1927 y es, indudablemente, uno de los científicos espaciales más relevantes del siglo XX. En uno de sus primeros trabajos (Apj, 1958) acuñó el concepto de viento solar para describir el flujo de plasma atmosférico que escapa a la atracción de la gravedad solar en todas direcciones y estudió la forma espiralada que la rotación del sol imprime su propio campo magnético, efecto que conocemos comoEspiral de Parker.Su formulación fue inicialmente muy resistida en la comunidad de astrofísicos a tal punto que su artículo de 1958 Dynamics of the interplanetary gas and Magnetic Fields1 enviado a la revista Astrophysical Journal, fue inicialmente rechazado por los dos revisores pero luego publicado gracias a la intervención de Subrahmanyan Chandrasekhar, editor de la revista.
El modelo de Parker fue confirmado en 1959 y 1962 cuando los satélites Mechta (URSS) y Mariner 2 (NASA) detectaron partículas de viento solar en el espacio2. Éste resultado bastaría para bautizar a una misión en honor a Parker, sin embargo, en los treinta años posteriores a su descripción del viento solar Parker publicó más de doscientos trabajos en los que estudió problemas tan variados como la física de las tormentas geomagnéticas, la paradoja del calentamiento coronal, el dínamo solar, el campo magnético galáctico, las propiedades dinámicas de los rayos cósmicos, la inversión del campo magnético terrestre, entre otros.
Eugene Parker observa el despegue de la nave que lleva su nombre (12/8/2018). Créditos: NASA/JHUAPL
¿Por qué tan cerca del Sol?
En las últimas décadas el Sol ha sido, sin lugar a dudas, la estrella más observada y estudiada; sin embargo, casi siete décadas después de las primeras mediciones del viento solar aún persisten muchas preguntas sin respuesta; por ejemplo: ¿cuál es el origen del viento solar lento? ¿cómo se acelera?, ¿cuál es el mecanismo por el cual la corona alcanza temperaturas cercanas a los 10 millones de grados si su fotósfera es del orden de 5000 grados?, es decir por qué el sol está más caliente en la alta atmósfera que en su superficie. Pero es muy difícil responder estos interrogantes si sólo es posible medir el plasma coronal cuando éste alcanza las inmediaciones de a Tierra y ha atravesado casi 150 millones de kilómetros.
El recorrido de la nave Parker Solar Probe. http://parkersolarprobe.jhuapl.edu
La misión, durará siete años y tendrá su primer acercamiento al sol en el mes de noviembre. La nave estará protegida por un escudo diseñado especialmente, se trata de un compuesto de carbono que podrá tolerar temperaturas cercanas a los 1300 grados Celsius. La trayectoria de la nave ha sido cuidadosamente diseñada con siete sobrevuelos a Venus a lo largo de casi siete años para reducir gradualmente su órbita elíptica alrededor del Sol. De este modo la nave utilizará la gravedad de Venus para reducir su órbita cada vez más alrededor del Sol.
A nivel científico la misión se propone, rastrear y caracterizar el viento solar hasta sus orígenes. Para esto cuatro equipos trabajarán obteniendo y procesando datos experimentales: campos eléctricos y magnéticos, conteo de electrones, protones, helio ionizado y sus respectivas velocidades, densidad y temperaturas. Además, un quinto equipo que se dedicará a la elaboración de teoría y simulaciones numéricas a fin de maximizar los resultados de la misión3.
Indudablemente éste es el comienzo de una nueva era la física solar y en los próximos años obtendremos respuestas y nuevas preguntas.
Referencias
Parker, E. N. (1958); Astrophysical Journal, vol. 128, p.664
Neugebauer, M. & Snyder, C. (1966), Journal of Geophysical Research, 71 (19), 4469-4484
Developing the Solar Probe Plus Mission, (2016), Space Science Review, Volume 204 (1-4)
* Laura Morales es investigadora adjunta de Conicet en el Laboratorio de fisca del plasma, Departamento de Física, Exactas, UBA.
El grupo de Biofísica liderado por Lía Pietrasanta acaba de publicar los resultados de su investigación en Scientific Reports. Los investigadores estudian las respuestas de células mamarias ante un estímulo mecánico de estiramiento, simulando el proceso fisiológico natural. Lo novedoso es que han trabajado con células vivas, observando sus dinámicas en tiempo real a través del microscopio.
“La mayoría de las células en órganos y tejidos están sujetas constantemente a diversos estímulos externos. Nos interesa, en términos globales, el complejo proceso de mecanotransducción que realizan las células, es decir, cómo detectan las fuerzas mecánicas, las integran y convierten en señales bioquímicas. Estudiamos particularmente las células epiteliales de glándula mamaria porque resultan un sistema modelo interesante por los cambios producidos en sus adhesiones focales ante un estímulo mecánico externo”, explica la investigadora del Instituto de Física de Buenos Aires de UBA-CONICET, Lía Pietrasanta.
Las adhesiones focales son puntos de contacto que permiten a la célula agarrarse al sustrato. Son ensamblados hechos de aglomerados de proteínas -cerca de trescientas- que posibilitan el desplazamiento a modo de gateo sobre la matriz extracelular. “Nos interesan algunos aspectos particulares de estas proteínas, conocer cómo se mueven o el grado de estiramiento a nivel molecular de un tipo particular como la vinculina; cómo cambian de manera muy rápida ante el estímulo y también qué sucede con cada proteína a través mediciones locales”, dice Catalina von Bilderling y agrega: “En particular, para la vinculina evaluamos el estado de tensión molecular que posee cuando la célula es sometida al estrés mecánico por estiramiento. De igual manera, para la proteína zixina estudiamos la asociación y disociación a la adhesión focal con la técnica FRAP”.
La investigación se llevó a cabo con células de ratón que, típicamente, reciben estímulos de fuerzas con los cambios fisiológicos: “Cultivamos las células sobre sustratos de PDMS, una especie del film elástico transparente que permite ser estirado. Así, observamos las dinámicas que ocurren en vivo, marcamos ciertas proteínas y realizamos un seguimiento en función del tiempo”, describe otra de las autoras, Lorena Sigaut. “La investigación fue realizada íntegramente en el laboratorio: desde el cultivo de una línea celular, todo el proceso necesario para que crezca, se reproduzca y se mantenga el cultivo durante meses, hasta la identificación de las proteínas a estudiar y su seguimiento en el microscopio. Luego la información es analizada a través de modelos”, concluye.
Scientific Reports 8, 9788 (2018) |
El estudio de las aves permite entender los principios de control vocal, es decir, cómo es que los animales hacen para producir esos complejos comportamientos que son las vocalizaciones. Hace muchos años que el laboratorio de Sistemas Dinámicos del Departamento de Física liderado por Gabriel Mindlin estudia a la aves Oscinas como modelo de fonación. Alan Bush, becario postdoctoral del laboratorio y primer autor de un trabajo recientemente publicado en la revista PNAS, cuenta que lo interesante del modelo animal son las características que comparte con los humanos: “Ambos tienen vocalizaciones complejas, aunque los pájaros que estudiamos en este trabajo no tienen diversidad en el canto, su música es estereotipada. Sin embargo, estas aves, al igual que nosotros, aprenden de un tutor al que deben escuchar mientras crecen y en base a lo oído desarrollan el canto típico de la especie”.
La publicación da cuenta de importantes conclusiones a las que el grupo, perteneciente al Instituto de Física de Buenos Aires de UBA-CONICET, llegó luego de comparar las respuestas de los pájaros ante dos estímulos diferentes: un audio de su propio canto y, el canto sintetizado por un modelo biomecánico del aparato fonador. “Ya en el año 2013 el laboratorio había logrado síntesis lo suficientemente buenas como para que el animal las crea como propias, ya que responde de manera muy similar a como lo hace con su propio canto”, aclara Bush.
El investigador explica que, por ejemplo, ante el canto de otro pájaro el ave no responde; o, si se realizan pequeñas perturbaciones en la vocalización en cuanto a la frecuencia tampoco emite réplica. La respuesta de las aves es tan específica que resulta un desafío conocer cuándo se produce y si lo hace con variaciones: “podemos controlar cómo se sintetiza un canto simulado y también variar los parámetros. En este caso, lo que hicimos fue degradar el canto sistemáticamente, lo empeoramos. Observamos que cuando se evoca una respuesta es idéntica a la producida ante el canto original, y que a mayor degradación disminuye la probabilidad de obtener esa misma réplica”, explica Bush y agrega que la respuesta es “a todo o nada”: o bien se ve el gesto motor de manera completa o no se advierte, en absoluto. “Lo que no observamos y bien podría resultar una hipótesis razonable, es la presencia de gestos degradados”.
El laboratorio desarrolla esta línea de investigación hace muchos años, en un primer momento, todo el sistema biomecánico involucrado en la producción de las vocalizaciones se modeló desde la física no lineal y, de a poco, el estudio viró hacia los circuitos neuronales que controlan la biomecánica de la periferia. “Lo que pudimos observar es que la respuesta evocada descrita a nivel del cerebro también ocurre en los músculos de la siringe. Es decir, que esta activación del sistema por un estímulo auditivo viaja hasta la periferia. Durante la noche el ave no canta porque no está acompañada de los gestos respiratorios que genera la presión necesaria para la fonación”. El investigador concluye que en este momento, se abre una ventana interesante hacia el estudio del sistema, porque “la información a nivel de activación del aparato fonador nos da una medida global de la activación del sistema que resulta complementaria a la de las activaciones neuronales. Podemos mirar la activación del sistema como un todo, desde otro lugar”.
Los autores de la publicación son Gabriel Mindlin, profesor del Departamento de Física e investigador superior del Conicet en IFIBA de Exactas, UBA; Alan Bush, becario postdoctoral de Conicet en IFIBA de Exactas, UBA; Juan F. Döppler,becario doctoral de Conicet en IFIBA de Exactas, UBA; y Franz Goller, investigador de la Universidad de Utah.
Syringeal EMGs and synthetic stimuli reveal a switch-like activation of the songbird’s vocal motor program. PNAS August 1, 2018. 201801251
www.pnas.org/lookup/suppl/doi:10.1073/pnas.1801251115/-/DCSupplemental.
*Por Gastón Giribet
El 12 de julio pasado se anunció oficialmente un descubrimiento deslumbrante que, de ser confirmado, vendría a revolucionar la manera en la que observamos el universo. El descubrimiento tuvo lugar unos meses antes, el 22 de septiembre de 2017. Ese día, los detectores del observatorio Ice-Cube, en la Antártida, detectaron un neutrino que, según indicaran observaciones astronómicas de los días que siguieron, parece haber provenido de un astro brillante de la constelación de Orión, el blázar TXS 0506+056. Se trataría, así, de la primera identificación del origen de los rayos cósmicos que llegan a la Tierra y del inicio de un nuevo tipo de astronomía.
Rayos cósmicos provenientes de la constelación de Orión
Un blázar es un fenómeno astrofísico de origen extragaláctico que está asociado a un tipo muy especial de galaxia con un núcleo activo. Muchas galaxias, si no todas ellas, tienen en su centro un agujero negro de enorme masa que es responsable de gran actividad. Violentos procesos astrofísicos ocurren en las inmediaciones de ese astro central, que recibe el nombre de agujero negro supermasivo debido a que su masa llega a ser varios órdenes de magnitud superior a la de las estrellas. La masa de un agujero negro supermasivo resulta proporcional a la de la galaxia que lo hospeda, un fenómeno para el que aún no existe explicación satisfactoria. En el caso de nuestra Vía Láctea, por ejemplo, el agujero negro que se halla en su centro es Sgr A*, con una masa de alrededor de 4 millones de veces la de nuestro Sol. En los casos de galaxias mayores, éstas llegan a albergar agujeros negros mucho más masivos, que alcanzan varios miles de millones de masas solares y que son fuente de gran actividad en el núcleo galáctico.
Los agujeros negros supermasivos generan un intenso campo gravitatorio que atrae la materia que se encuentra en sus inmediaciones. Así, estos astros terminan vistiéndose con un disco de acreción de materia ionizada, polvo, gas e incluso estrellas que son atraídas y eventualmente arrastradas a su interior. Toda esta materia, al encontrarse en agitación y fricción constante, arremolinada en una región reducida de unas fracciones de pársec cerca del agujero negro, alcanza temperaturas extremas. Esto lleva a la materia moribunda a emitir radiación de muy alta energía y propulsar partículas hacia el medio intergaláctico en forma de un jet colimado que se eleva en la dirección perpendicular al gran vórtice.
Lo que diferencia a un blázar de otra galaxia con núcleo activo no es sólo la existencia de jets ultraenergéticos sino también el hecho de que, por el azar de la distribución cósmica de los astros, uno de estos jets termina apuntando en la dirección de nuestro planeta. En resumen, los blázares son galaxias lejanas cuyos agujeros negros centrales emiten dos jets de partículas que se disparan en direcciones perpendiculares al torbellino de materia que ellos van ingiriendo, y uno de esos jets, providencial, nos ilumina a nosotros. Desde la Tierra, recibimos la luz y las partículas del chorro de energía, lo que aparece en nuestro mapa del cielo como una fuente de brillo inusual, una potente luz que nos habla de un violento ocurrir, allá, a lo lejos.
Representación artística de un blázar.
Los jets se componen de materia ionizada, partículas fundamentales y radiación electromagnética de diferentes frecuencias; en particular, rayos gamma. Su intensidad no es constante en el tiempo, ya que ésta depende de la cantidad de materia que el agujero negro supermasivo que les da origen esté consumiendo. Así, los blázares aparecen como objetos estelares de emisión variable, y experimentan períodos de mayor actividad que pueden durar algunos días. Sus fulguraciones pueden aumentar por lapsos breves y luego refluir a sus niveles medios.
El blázar TXS 0506+056, del que hablamos aquí, está ubicado a unos 3.700 millones de años luz de nosotros, en la dirección de lo que una arcaica manera de mapear el cosmos nos convence de llamar la constelación de Orión. La emisión de partículas, producto de una etapa de gran actividad de este blázar de Orión, es lo que se ha detectado recientemente en el observatorio Ice-Cube de la Antártida.
Centinela del hielo
Ice-Cube es un observatorio de partículas emplazado en la Estación Científica Amundsen-Scott, en el continente blanco, muy cerca del polo sur. Fue construido con el propósito de detectar neutrinos, esas ligeras y escurridizas partículas que son renuentes a interactuar con la materia y que, por ende, son difíciles de atrapar.
Detectar neutrinos requiere, en efecto, de gran ingenio y de una sofisticada infraestructura, como la de Ice-Cube. El observatorio contiene 5.000 detectores enterrados en el suelo antártico, alojados en pequeñas cavidades talladas en el hielo, a pocos kilómetros de profundidad, dispersos en un volumen de un kilómetro cúbico de límpida agua congelada. Esos detectores, llamados módulos, se componen de cámaras muy sensibles provistas de un fotomultiplicador y una pequeña computadora. Enterrados allí, en el hielo austral, los módulos monitorean continuamente el gran volumen de hielo esperando rastros del paso de una partícula extraña que dispare la señal.
El observatorio Ice-Cube en el polo sur.
Los neutrinos, como decíamos, son reacios a interactuar con la materia, e incluso con ellos mismos. Sólo lo hacen por medio de la llamada fuerza nuclear débil –y de la fuerza gravitatoria, que es aún más débil–, lo que los hace indiferentes tanto a la mayoría de las reacciones nucleares cuanto a las interacciones electromagnéticas de cualquier frecuencia; es decir, los neutrinos son, literalmente, partículas elementales invisibles. Por consiguiente, aunque constantemente llegan la Tierra provenientes de todas las direcciones y de manera copiosa, su baja propensión a interaccionar con la materia lleva a los neutrinos a atravesar nuestro planeta sin siquiera notarlo. Sólo una pequeñísima, por lo general indetectable, cantidad de neutrinos termina por interactuar con algún átomo de nuestro planeta. Esto hace casi improbable que un neutrino, en su andar el universo, venga a impactar justo con un átomo del escaso kilómetro cúbico de hielo custodiado por los detectores de Ice-Cube.
Es precisamente gracias a esta baja probabilidad de detectar neutrinos –probabilidad que no es nula sino pequeña– que sabemos de ellos. Para entender esto debemos invertir el razonamiento de arriba: Si Ice-Cube viniera a detectar el paso de algunos neutrinos, la improbabilidad de tal suceso significaría que una inusual cantidad de ellos debió haber llegado a la Tierra en el momento de la detección. Sólo así se entendería que algunos ejemplares de tan escurridiza especie quedaran atrapados en nuestras redes. “El cardumen hubo de ser grande”, concluiríamos.
Eso ocurrió el 22 de septiembre pasado, y en algunas otras pocas ocasiones desde que Ice-Cube comenzó a funcionar, allá por finales de 2010. La primera detección apreciable de neutrinos en Ice-Cube tuvo lugar en 2013, y desde entonces algunas decenas de neutrinos en el rango de energías del tera-electronvoltio fueron observados en el hielo antártico. En particular, los detectores de Ice-Cube encendieron sus alarmas el 22 de septiembre pasado, y esta vez se trató de un evento muy especial.
Los eventos de septiembre
Lo que Ice-Cube detectó fue, en realidad, la radiación electromagnética producida por una serie de procesos que la colisión de un neutrino con un átomo desencadena. Al tratarse de detectores ópticos, los módulos de Ice-Cube no detectan el neutrino directamente –los neutrinos no interaccionan con la luz–. Lo que en realidad ocurre es que, al colisionar con las partículas que componen los átomos en el hielo, el neutrino genera una partícula llamada muón, que es similar al electrón pero unas dos mil veces más pesada. Este muón, al ser una partícula cargada eléctricamente, sí interacciona con la luz. Éste puede desplazarse por unos pocos metros dentro del hielo acarreando una porción del impulso que el neutrino original le supo propinar y finalmente emitir luz. Es la luz producida por el muón lo que los detectores ópticos colectan. Se trata, así, de una detección indirecta –como lo es todo ver– pero que aun así permite reconstruir la trayectoria y cantidades cinemáticas del neutrino que desencadenó la serie de procesos.
En el evento detectado el 22 de septiembre de 2017 lo que en realidad se vio fue eso, un muón; pero un muón muy sospechoso: La partícula apareció en las cámaras de Ice-Cube trayendo una inclinación inesperada, como si hubiera venido del centro de la tierra y no desde el espacio. Los muones se generan también en la alta atmósfera y, aunque muchos mueren en el trayecto, una gran cantidad de ellos llega a la superficie terrestre sin mayor dificultad. Por ello, la detección de muones provenientes del cielo no sería algo extraño. Lo que sí es difícil de explicar es que un muón con la energía del observado esa nochecita de la primavera austral provenga, no del cielo, sino de la misma masa terrestre. Los muones, a diferencia de los neutrinos, no pueden atravesar la masa rocosa del planeta sin desaparecer en el intento. Esto es síntoma inequívoco de que ese muón detectado acababa de ser creado por algo más, alguna partícula predecesora; ese muón no era sino el postrer aliento de un neutrino cansino que hasta ahí llegó, un neutrino proveniente de una fuente lejana.
A la pregunta de cuáles son las chances de detectar un neutrino de esa energía en el kilómetro cúbico de hielo monitoreado por el observatorio antártico le cabe una enfática respuesta: Bajísimas. De esto concluimos que, si vimos uno, pues es que debió haber una cantidad inusual de ellos; una copiosa lluvia de neutrinos debió acaecer ese día de septiembre.
El hielo y el cielo
Los detectores de Ice-Cube dispararon una alarma a los pocos segundos de haber detectado el paso de la partícula. Menos de un minuto después del hallazgo el evento ya tenía su nombre (Ice-Cube170922A) y se alertaba a distintos observatorios astronómicos en diferentes puntos del planeta, incluyendo los que operan telescopios a bordo de satélites. La idea era que, conociendo la dirección aproximada de la cual la lluvia de neutrinos parecía provenir –lluvia de la que sólo una gota había sido retenida por los detectores–, los telescopios enfocarían sus esfuerzos en esa región del firmamento para buscar allí evidencia de algún evento astrofísico que pudiera ser identificado como la fuente del inusual chorro de partículas.
Imagen del blázar TXS0506+056
Cuando los fenómenos astrofísicos muy energéticos tienen lugar, por lo general las emisiones de materia y energía se producen en varias formas, en diferentes partes del espectro, en distintos tipos de radiación. Así, se esperaba que la emisión de neutrinos viniera acompañada de contrapartes electromagnéticas, en rayos X o en rayos gamma. Lo que hace a esta historia interesante es que tales emisiones compañeras fueron, en efecto, observadas.
Mediciones inusuales en el espectro de rayos X fueron las primeras en ser detectadas. Tal como se anunciaba un día después, el 23 de septiembre, casi una decena de fuentes activas en rayos X fueron identificadas en la región del cosmos de la cual los neutrinos parecían provenir; entre ellas, el blázar TXS 0506+056, hoy sindicado como el responsable. La confirmación vino unos días después, sobre fines de septiembre, cuando el telescopio de gran área LAT, a bordo del satélite Fermi de la NASA y con la misión de vigilar celosamente miles de blázares, anunciaba una inusual actividad en TXS 0506+056, en la constelación de Orión, de donde los neutrinos parecían provenir. Observaciones en radio y otras frecuencias también fueron realizadas.
La correlación entre la actividad inusual de rayos gamma en TXS 0506+056 y el arribo de una gran cantidad de neutrinos a la Tierra excitó a la comunidad. La coincidencia en la dirección angular y en el tiempo de ambos fenómenos deja pocas dudas. Como se suele decir en estos casos, aquello era ver la pistola humeando luego de haber oído el disparo.
A raíz de este descubrimiento, la colaboración científica Ice-Cube emprendió la tarea de revisar detecciones previas de neutrinos, acaecidas en los años anteriores, entre 2012 y 2017. Encontraron en ese registro más evidencia del origen de las lluvias observadas.
Esta es la primera vez que se identifica con tanta claridad la posible fuente de neutrinos de ese nivel de energía. Los neutrinos, aunque tienen una pequeñísima masa y, por lo tanto, no pueden viajar a la velocidad de la luz, sí lo hacen a una velocidad muy cercana a ésa. Es por ello que, aunque provenientes de miles de millones de años luz, la señal de rayos gamma del blázar y los neutrinos llegan a la tierra casi simultáneamente.
Este descubrimiento es de enorme importancia, dado que se trata de la primera vez que se identifica la fuente de rayos cósmicos de tal energía. Si bien es cierto que conocemos de la existencia de rayos cósmicos desde hace más de un siglo, que sabemos del origen extrasolar de la mayoría de ellos, que sospechamos del origen extragaláctico de muchos de ellos, y que tenemos teorías al respecto en las que bien confiamos, también es cierto que hasta el momento las únicas fuentes identificadas de los neutrinos que arriban a la Tierra eran dos: el Sol y la explosión de supernova observada en 1987 (denominada SN1987A). La detección de neutrinos en Ice-Cube el 22 de septiembre de 2017 y su correlato con la actividad del blázar TXS 0506+056 es la primera identificación del origen de un flujo de neutrinos de altas energías.
Sumando fuerzas para mapear el cosmos
Esto parece hitar el comienzo de una nueva etapa de la astronomía. Hasta 2015, la astronomía se restringía a la observación de la luz proveniente de los astros y la consecuente tarea de inferir qué procesos físicos podrían dar origen a la emisión observada. Y si bien la vastedad del espectro electromagnético nos permitió estudiar diferentes rangos de energías y diferentes tipos de fenómeno, el principio físico atrás de toda observación astronómica era el mismo: Tanto la astronomía convencional, como la radioastronomía, o la astronomía en el infrarrojo, o en el espectro de rayos X o de rayos gamma, son todas subdisciplinas basadas en lo mismo, la detección de la luz del proceso distante. La historia comenzó a cambiar en 2015, a partir de la detección de las ondas gravitacionales en los observatorios LIGO y Virgo. Se abrió entonces la ventana a un nuevo tipo de astronomía, que ya no percibe al cosmos simplemente por la luz que sus astros emiten, sino que lo hace escuchando también las perturbaciones del campo gravitatorio que esos astros, muchos invisibles, producen en su andar y encontrarse. Ahora, a la luz de esta observación de los neutrinos producidos por el blázar de Orión, una tercera manera de sentir el cosmos parece sumarse a las anteriores: Ya no son la electromagnética y la gravitatoria las únicas fuerzas con las que sentimos el universo, sino que ahora también la fuerza nuclear débil contribuye a la empresa. Es esta última fuerza la que genera los neutrinos en galaxias distantes que, luego de un trayecto extenuante de miles de millones de años luz, quedan atrapados allí, en los hielos del sur.
Referencias
[1] Neutrino emission from the direction of the blazar TXS 0506+056 prior to the IceCube-170922A alert, by the IceCube Collaboration, in Sciences, July 12th, 2018.
http://science.sciencemag.org/content/early/2018/07/11/science.aat2890.full
[2] Multimessenger observations of a flaring blazar coincident with high-energy neutrino IceCube-170922A, by the IceCube Collaboration, in Sciences, July 12th, 2018.
http://science.sciencemag.org/content/early/2018/07/11/science.aat1378.full
[3] Single subatomic particle illuminates mysterious origins of cosmic rays, in Nature, July 13th, 2018. https://www.nature.com/articles/d41586-018-05703-y
(*) Gastón Giribet, Profesor del Departamento de Física, Exactas, UBA. Investigador Principal en IFIBA de UBA-CONICET. Investigador del Centro de Cosmología y Física de Partículas de New York University.
GENis es un software diseñado para contribuir al esclarecimiento de delitos a través de coincidencias entre el perfil genético de una muestra de ADN con aquellos cargados en el sistema. La herramienta desarrollada íntegramente en Argentina busca efectivizar procesos en criminalística, como así también ayudar a resolver casos de desapariciones de personas o en la identificación de individuos víctimas de desastres masivos.
Ariel Chernomoretz es coordinador del equipo científico de GENis, y explica que uno de los objetivos del soft es brindar una herramienta a la justicia para sacar el máximo provecho de muestras genéticas encontradas en escenas del crimen, facilitando la posibilidad de incorporar en el análisis el uso de bases de datos locales, regionales y nacionales, y homologando al mismo tiempo un protocolo de trabajo. “Este es un proyecto que comenzó en 2014, ya está operativo en cuatro provincias y recientemente obtuvo las firmas necesarias para funcionar en otras catorce”, explica el profesor del DF, investigador en IFIBA de UBA-Conicet y director de un laboratorio en el Instituto Leloir.
“Es un proyecto súper interesante porque dialogamos con desarrolladores de soft, abogados y fiscales, en torno a temas de mucha actualidad, con profundas implicancias sociales, y cada uno hace su parte. Nosotros, desde la pata científica, si puede decirse así, buscamos tener una herramienta lo más confiable posible, acorde a estándares internacionales, con el objetivos de interconectar laboratorios y ser lo más eficiente posible”, asegura el físico.
La huella digital genética
El genoma de cada individuo tiene diferencias suficientes para identificar casi unívocamente una persona y diferenciarla de otra. La técnica forense consiste en utilizar unos marcadores que se encuentran en la parte no codificante del genoma, que son pequeños fragmentos de ADN con “poquitas letras”. De acuerdo a cuántas veces se repite esa “frase” en el perfil da como resultado una huella digital única, una especie de código de barras para los distintos marcadores que permite identificar individuos.
“La idea es tener un sistema con el que cotejar si hay match entre la evidencia de ADN levantada en un escena de crimen con alguna persona ya registrada en la base de datos; identificar reincidencia; encontrar la conexión de delitos cometidos en distintos territorios para unificar causas, etc.”, asegura Chernomoretz y agrega que otra posibilidad que permite el soft es el cotejo de datos en la búsqueda de personas desaparecidas, donde se vincula a la persona que ingresó como NN en una base de datos con la familia que lo está buscando”.
Según el investigador, el proceso de cotejo de correspondencia debe hacerse de manera eficiente, porque las bases de datos poseen volúmenes considerables. “Por ejemplo, si dentro de una determinada población tomamos a una persona cualquiera, ¿qué tan probable es que el matching haya ocurrido por azar? Para responder a esa pregunta utilizamos el p-value, una medida de la significancia estadística del match. Con la tecnología que se usa en la mayoría de los laboratorios se logran valores muy bajos de p-value, lo que da una confianza muy grande en los matchs, por lo tanto, se rechaza la casualidad y comienza a pensarse en la causalidad”.
Luego de cotejar los datos a través del software, los usuarios reportan los resultados al juez de la causa en cuestión. “Es importante decir que no puede idealizarse esta herramienta, los resultados deben ser ponderados en el contexto de otras evidencias y del propio trabajo del juez”, aclara.
Desafíos técnicos y políticos
“Hay situaciones complejas, como cuando en un escena del crimen se encuentran muestras de más de un aportante, eso implica deconstruir la señal para encontrar a los contribuyentes más probables. Lo que reportamos es un cociente de verosimilitudes, es decir, cuánto más probable es haber encontrado la muestra en cuestión dada la hipótesis del fiscal, por ejemplo, en contraposición a la hipótesis propuesta por el defensor. Entre dos posibilidades, el cociente nos dice qué escenario tiene mayor probabilidad”. El mismo tipo de estadística se utiliza para la búsqueda de personas desaparecidas, “tenemos un pedigrí formado por padres, hijos, sobrinos, nietos, y, en ese caso, medimos la posibilidad de que una persona pertenezca o no la genealogía familiar. La verosimilitud de un pedigrí es algo costoso computacionalmente, en ese caso utilizamos una técnica basada en lo que se conoce como redes bayesianas”.
Chernomoretz asegura que la puesta en uso de la herramienta suma complejidad porque involucra coordinar legislaciones de distintas provincias: “a veces, ni siquiera existen o si las hay, difieren mucho en los alcances que cada una plantea para las bases de datos”. Sin embargo, el soft tiene claras ventajas para el país, ya que “crea una comunidad de usuarios y desarrolladores locales, donde la interacción es muy fructífera, y donde aparecen nuevos desafíos todo el tiempo. Otra virtud es que es un soft open source, por lo que todos los algoritmos están publicados o por publicarse, y fue construído con software libre”.
La herramienta informática es financiada por la Fundación Sadosky a partir de un requerimiento de la Sociedad Argentina de Genética Forense y cuenta con el apoyo del Ministerio de Ciencia, Tecnología e Innovación productiva de la Nación. Sin embargo, compite en su implementación con el software desarrollado por el FBI, CoDIS (Combined DNA IndexSystem) que intenta imponer el Ministerio de Seguridad de la Nación. En este sentido el científico cuenta: “el soft importado se licencia de manera gratuita mediante la firma de acuerdos de uso -una licencia que se puede revocar- y es muy restrictivo por lo que no podemos conocer características de uso y difusión de su tecnología. Como es un sistema de caja cerrada, no se conoce bien qué hace. La licencia es gratis, aunque sabemos que nada lo es, tiene algunos costos. De todos modos, lo problemático es que se puede revocar la licencia de un momento a otro y si toda la justicia se monta sobre este sistema quedas desvalido. En cambio, GENis promueve la formación de recursos humanos en el área y para nosotros es una oportunidad de crecimiento muy grande a nivel local y también global, porque no hay muchos softs de este tipo”.
“Como encargado de la parte científica del proyecto la preocupación es cumplir con todos los requerimientos, validar el soft todas las veces que sea necesario a través de organismos competentes como el Banco Nacional de Datos Genéticos, el grupo de desarrollo de soft de la UBA, que se ocupa de validar todas las especificaciones que sean las correctas, es decir, que todo lo que se dice que el programa hace, se haga, y también de la Sociedad Argentina de Bioinformática y Biología Computacional”, concluye el físico.