Universo Startup 2
- 16-05-2025 20:56 |
- Cero+Infinito
* Por Susana Landau
Los primeros indicios de que las leyes de Kepler no predicen adecuadamente las curvas de rotación en cúmulos de galaxias fueron reportados por Oort en 1932 y Zwicky en 1933. Estos astrónomos encontraron evidencia de que la masa de cúmulos de galaxias debe ser mucho mayor a la masa luminosa correspondiente a las estrellas en esos cúmulos. Estas observaciones se confirmaron en 1970 cuando fue posible medir velocidades de rotación en galaxias espirales y no se observó la dependencia kepleriana esperada.
Para resolver este problema importante de correspondencia entre la predicción de la teoría de gravedad vigente (Newtoniana o Einsteniana) y los datos obtenidos mediante observaciones astronómicas, se postuló la existencia de la materia oscura, que no absorbe ni emite radiación electromagnética, pero que puede detectarse mediante sus interacciones gravitatorias. Según el modelo cosmológico estándar, constituye el 25 % de la materia del Universo. Si bien, no se ha podido detectar la materia oscura en los experimentos terrestres diseñados a tal fin, los resultados de la mayoría de las observaciones astronómicas que se utilizan para estudiar el Universo requieren de la existencia de materia oscura para poder ser explicados. A su vez, se han postulado teorías alternativas a la Relatividad General (RG) para describir la Gravitación, donde la modificación a la RG resulta en un predicción consistente con las observaciones, mientras que el modelo cosmológico estándar es necesario postular la existencia de materia oscura.
En este paper que recomiendo, un grupo de investigadores midió las velocidades radiales de diez objetos en la galaxia ultra difusa NGC1052–DF2, que tiene una masa estelar de aproximadamente 2x108 masas solares. Utilizando el método de los trazadores de masa (TME) calcularon la masa estelar de la galaxia, mientras que la masa del halo fue estimada con el método de la proyeccion de los radios de los sistemas de cúmulos estelares globulares. El resultado sorprendente es que el cociente entre la la masa del halo de la galaxia y la masa estelar de la misma es aproximadamente 1, cuando lo esperado es del orden de 400. Esto indica que no todas las galaxias tendrían un halo de materia oscura. Sin embargo, este artículo, lejos de descartar el paradigma de la materia oscura, lo afirma, ya que la ausencia de la misma, puede ser explicada por choques de la galaxia con otras durante su evolución. Por el contrario, las teorías de gravedad modificada que no incluyen la materia oscura, tendrían mayor dificultad para explicar esta observación.
1 A galaxy lacking dark matter P. van Dokkum et al. Nature 555, 629 (2018) doi:10.1038/nature25767
* Susana Landau es Investigadora del Instituto de Física de Buenos Aires, de UBA-CONICET.
* Por Enzo Tagliazucchi
El problema único que la consciencia plantea a la física
Lo que llamamos usualmente “consciencia” es idéntico a nuestra experiencia de existir como humanos. El “azul” del azul, el sufrimiento de un dolor de muelas, la pasión o la tristeza se experimentan de manera subjetiva y privada por cada uno de nosotros. No obstante, la evidencia científica sugiere fuertemente que cada una de estas experiencias privadas se relaciona con eventos físicos objetivos que ocurren dentro de nuestro cerebro.
La física intenta encontrar explicaciones de la naturaleza en su nivel más fundamental. ¿Cuál ese el rol de la física en la explicación de la consciencia? ¿Una hipotetica teoría unificada de la física debería ser capaz de incluir en su poder explicativo por qué la descarga de neuronas en el cerebro al ver el color azul conlleva también una sensación experimentada por dicho cerebro, y por qué la sensación de ver el color es cómo es, y resulta distinta a la de ver el color rojo?
En otras palabras, la mayoría de los científicos y filósofos cree que el cerebro tiene una propiedad única no compartida por ningún otro objeto físico en el universo conocido: un punto de vista. Existe “qué se siente ser un cerebro” pero no existe “qué se siente ser un electrón” o “qué se siente ser un agujero negro”. ¿Cómo da cuenta la física de esta singularidad?
¿Por que un fotodiodo no es conciente?
Una de las teorías más promisorias sobre la conciencia fue desarrollada por el psiquiatra y neurocientífico Giulio Tononi1. La teoría puede explicarse a partir de una serie de experimentos mentales sencillos en la tradición de la física clásica.
Consideremos un fotodiodo; un dispositivo capaz de detectar la presencia o ausencia de luz más allá de determinado umbral. Un ser humano también puede “trabajar” de fotodiodo decidiendo la presencia o ausencia de luz y reportándolo. Sin embargo, a pesar de que funcionalmente el ser humano y el fotodiodo desempeñan una misma tarea, el fotodiodo no posee una sensación consciente de la presencia o ausencia de luz, mientras que el ser humano sí lo hace. ¿Por qué un fotodiodo no es consciente?
La respuesta reside en el repertorio de estados posibles del fotodiodo: la presencia o la ausencia de luz. En teoría de la información, determinar el estado del fotodiodo determina 1 bit de informacion. En cambio, el ser humano puede percibir la ausencia o presencia de luz, pero además puede estar en una cantidad inmensa de otros estados: pensemos en todas las posibles experiencias visuales que vivimos y viviremos a lo largo de la vida. Especificar el estado del cerebro, dado su enorme repertorio de posibles estados, determina un valor mucho más elevado de información.
Este argumento aparentemente trivial se complica cuando consideramos que el ojo humano posee una resolución aproximada de 500 megapixels, pero existen cámaras digitales en la actualidad que empujan su límite de resolución hasta 400 megapixels, es decir, que pueden capturar un repertorio de imágenes comparable al del ojo humano. ¿Significa que una cámara de 400 megapixels es consciente de las escenas visuales que captura? La respuesta es que no, dado que una cámara digital no es más que una colección de un número enorme de fotodiodos que capturan luz de manera independiente. En cambio, en el cerebro existe un proceso de integración – la información se combina para generar una escena unificada en la cual la información contenida en el sistema total es más que la suma de las contribuciones de sus sub-partes, dado que las mismas no son estadísticamente independientes-.
Tononi concluye que la consciencia surge de un balance de integración-segregación en el cerebro. El repertorio posible de estados se maximiza si cada neurona dispara de manera independiente de las otras, pero en este escenario no ocurre integración de dicha información. Por otro lado, en un escenario donde dicha integración es máxima todas las neuronas disparan en conjunto, pero entonces el número de estados es igual al de un fotodiodo. Estos dos ejemplos pueden mostrarse en concreto con condiciones neurológicas y farmacológicas asociadas a la pérdida de la consciencia:
1. En una crisis epiléptica la corteza cerebral se comporta de manera “biestable” –las neuronas o bien disparan sincronizadamente, o bien entran en un estado de quiescencia;
2. Bajo la influencia del anestésico disociativo ketamina, las neuronas pierden la capacidad de comunicarse entre sí y por lo tanto aumenta el repertorio posible de estados, pero a la vez se pierde la capacidad de integración.
Ilustracion del concepto de integración, segregación y su relación con el de complejidad2. En el panel superior, a la izquierda se muestra un display de televisión con un máximo nivel de segregación (i.e. ruido blanco, cada píxel se comporta de manera independiente). A la derecha, existe una mayor correlación entre el comportamiento de los píxeles. En un punto medio la complejidad del sistema es máxima, cuantificada en base al balance de integración y segregación de la dinámica del sistema.
El panel inferior ejemplifica lo mismo con la evolución temporal del acomplamiento de un grupo de neuronas A, B y C que se identifican con las partes media, derecha e izquierda del panel superior.
El primer prequisito para desarollar un teoria física sobre un fenómeno es ser capaz de medirlo y cuantificarlo. Posteriormente, el desarrollo de una teoría permite entender el mecanismo fundamental por el cual dicha medición es funcional. Por ejemplo, los primeros termómetros informaban la temperatura en una escala arbitraria y fueron fundamentales para el desarrollo de la termodinámica. El desarrollo de la mecánica estadística y el concepto de microestado permitieron a Max Planck formular la tercera ley de la termodinámica y por lo tanto encontrar una escala absoluta para medir temperaturas.
En el paper que recomiendo, Casali y colegas desarrollan un “termómetro” de la consciencia humana basado en las consideraciones teóricas propuestas por Giulio Tononi3. Siguiendo la tradición de muchos experimentos en física, a diferencia de un termómetro tradicional -que se basa en el cambio de una propiedad física de un material en equilibrio térmico con su entorno- Casali y colegas proponen un “termómetro perturbativo” para medir la consciencia humana. Fundamentalmente, la medición consiste en la aplicación de un pulso magnético focalizado a través del cráneo y la medición simultánea de la respuesta neuronal generada por dicho pulso, mediante la adquisición de electroencefalografía, una técnica que permite inferir de manera indirecta la actividad de poblaciones sincronizadas de neuronas en el cerebro.
Un cerebro que carece de consciencia tiene, de acuerdo a la teoria de Tononi, un repertorio muy reducido de estados. Por lo tanto, una perturbación externa del sistema solamente generaría una respuesta “simple” resultante del tránsito del sistema a través de estos pocos estados. En la terminología de la física estadística, el espacio de fases de los potenciales estados del cerebro inconsciente se encuentra ampliamente reducido respecto del cerebro consciente. En este caso, el pulso magnético aplicado por Casali y colegas es capaz de producir una respuesta compleja resultante de recorrer un espacio de fases expandido.
Clínicamente, el método propuesto en este trabajo tiene una importancia fundamental: ya no que no requiere que el paciente sea capaz de procesar información sensorial ni producir una respuesta comportamental o motora. Este el caso de muchos pacientes supuestamente “vegetativos” que se diagnostican de manera errónea por asumir que la falta de reactividad motora a estímulos sensoriales es una señal de inconsciencia, mientras el paciente puede en realidad estar plenamente consciente pero “desconectado” de su entorno. El “termómetro de la consciencia” de Casali permite distinguir estos pacientes de pacientes verdaderamente vegetativos (y ya se encuentra en aplicación en ciertos hospitales). También permite distinguir con gran precisión a una persona despierta de una persona dormida o bajo distintos tipos de anestesia.
Hacia una mecánica estadística de la consciencia
El trabajo de Casali y colegas generó un gran impacto en la comunidad neurocientífica básica y clínica, pero pienso que paso lamentablemente desapercibido para aquellos que entendemos a la consciencia como el resultado de un sistema dinámico complejo. En primer lugar, la definición de consciencia de Tononi admite una reformulación en términos de complejidad. De hecho, si consideramos un modelo clásico de la mecanica estadística -el modelo de Ising- las fases de dinámica integrada y segregada corresponden a las fases sub- y super-críticas, y el punto óptimo dónde surge un comportamiento complejo es en la transición de fase de segundo orden del modelo. Es sabido que en dicho punto la susceptibilidad del sistema es máxima, es decir, el sistema presenta un cambio maximal ante una perturbación externa – un resultado análogo al observado por Casali y colegas. Este resultado y otros similares fueron reproducidos computacionalmente por trabajo de nuestro grupo de investigación en el cual simulamos el comportamiento a gran escala del cerebro mediante un modelo que presenta una transición de fase de segundo orden4, 5.
Por lo tanto, pienso que el interés del trabajo experimental de Casali y colegas para un físico es instalar la noción de que la consciencia puede ser cuantificada mediante métodos robustos y reproducibles y basados en teorias matemáticas concretas. En este sentido, pienso que la neurociencia de la consciencia se encuentra en una transición similar a la ocurrida entre la termodinámica clásica y la mecánica estadística a fines del siglo XIX.
Quizas sea posible –y necesario- formular la teoria de Tononi en el lenguaje de la mecánica estadística. En esta formulación, el estado del cerebro no es más que un punto en un espacio de fases de enorme dimensión que representa todas las variables biológicas relevantes (conductancia de membranas, concentraciones de neurotransmisores, potenciales de acción viajando a lo largo de axones de neuronas, etc.). La dinámica de dicho punto puede verse atraída a ciertos puntos de metaestabilidad, es decir, a estados de cuasi-equilibrio que constituirían el “repertorio” de estados posibles del cerebro. La perdida de la consciencia se asociaría entonces a un cambio en dicho repertorio debido a la pérdida de puntos de metaestabilidad. No obstante, es posible que dicha pérdida sea solo aparente, causada por una pérdida de accesibildad entre puntos de metaestabilidad que continuan existiendo. Crucialmente, el experimento de Casali y colegas permite distinguir ambos escenarios dado que, al ser perturbativo, permite evaluar si el estado del sistema puede desplazarse entre distintos puntos de metaestabilidad de accesibilidad reducida. Esta situación se muestra en el diagrama utilizando el ejemplo de una pelota apoyada sobre una superficie con una serie de picos y valles, los cuales representan barreras de potencial y puntos de metaestabilidad, respectivamente (para que este ejemplo físico sea realmente quasi-estable debe asumirse una direccion transversal en la cual la dinámica es inestable)..
El diagrama ilustra el concepto de metaestabilidad de manera sencilla2. La evolución temporal del sistema desde t=0 a t=1 se muestra como el desplazamiento de una partícula en una superficie. Asumiendo dinámica inestable en la dirección transversal al diagrama, a la izquierda se muestra un sistema en el cual la energía de la partícula es suficiente para atravesar todos los puntos de metaestabilidad. En el medio, aumentar las barreras de potencial entre puntos causa que el sistema sea incapaz de transitar todos los puntos de metaestabilidad. Finalmente, en el escenario derecho solo existe un punto de metaestabilidad. El método perturbativo propuesto por Casali y colegas tiene la virtud de distinguir los últimos dos escenarios al entregar de manera externa al sistema energía en forma de un campo magnético localizado, y por lo tanto medir de manera perturbativa el repertorio de estados posibles del sistema, que se vincula -de acuerdo a la teoría de Tononi- con el nivel de consciencia.
¿Presenta la dinámica global del cerebro un repertorio de estados gobernado por una serie de puntos de metaestabilidad? ¿Qué mecanismo físico entre muchos posibles es responsable de esta metaestabilidad (e.g. ciclos heteroclinicos, ruinas de atractores, atractores no estables, etc.? ¿Qué mecanismos biológicos gobiernan la aparición/desaparición de puntos de metaestabilidad? ¿Es posible reformular completamente la teoria de Tononi utilizando las herramientas de la física estadísica? Éstas son algunas de las interrogantes que abre el apasionante experimento de Casali y colegas, que quizás quede en la historia como la primera cuantificación de la capacidad de poseer las sensaciones subjetivas que son la quintaesencia de nuestra identidad como seres humanos.
Referencias
1 Tononi, G. (2004). An information integration theory of consciousness. BMC neuroscience, 5(1), 42.
2 Cavanna, F., Vilas, M. G., Palmucci, M., & Tagliazucchi, E. (2017). Dynamic functional connectivity and brain metastability during altered states of consciousness. NeuroImage.
3 Casali, A. G., Gosseries, O., Rosanova, M., Boly, M., Sarasso, S., Casali, K. R., et al. (2013). A theoretically based index of consciousness independent of sensory processing and behavior. Science translational medicine, 5(198), 198ra105-198ra105.
4 Tagliazucchi, E., Chialvo, D. R., Siniatchkin, M., Amico, E., Brichant, J. F., Bonhomme, V., ... & Laureys, S. (2016). Large-scale signatures of unconsciousness are consistent with a departure from critical dynamics. Journal of The Royal Society Interface, 13(114), 20151027.
5 Tagliazucchi, E. (2017). The signatures of conscious access and its phenomenology are consistent with large-scale brain communication at criticality. Consciousness and cognition, 55, 136-147.
* Enzo Tagliazucchi es investigador del Instituto de Física de Buenos Aires de UBA-CONICET.
Las investigadoras del Departamento de Física y de IFIBA de UBA-CONICET Marta Ferraro y Mónica Pickholz junto a Damián Grillo y Juan Albano publicaron recientemente en The Journal of Chemical Physics el estudio de propiedades mecánicas de una membrana polimérica cargada con fármacos modelo y su implicancia en el diseño de polimerosomas aptos como nanocarriers -transportadores de tamaño nano- de fármacos. Su aplicabilidad es importante en la administración controlada de drogas, como en el caso de terapias oncológicas. La investigación fue llevada a cabo junto a Esteban Mocskos, del Departamento de Computación de Exactas-UBA y el Centro de Simulación Computacional para Aplicaciones Tecnológicas de CONICET; y Julio Facelli de la Universidad de Utah.
“La idea global de esta línea de trabajo es conocer con mayor detalle las características de ciertos nanocarriers poliméricos que mejoren alguna propiedad del efecto de fármacos, como su capacidad para llegar al sitio de acción, o bien, tener una actividad más prolongada. Nos interesa saber cómo -mediante herramientas computacionales- se puede apuntar un diseño racional, y así, disminuir la cantidad de pruebas, ahorrar tiempo de desarrollo y optimizar recursos”, explica Mónica Pickholz.
Un polimerosoma es una vesícula, una especie de cápsula que está formada por una membrana constituida por polímeros con un interior acuoso (ver figura adjunta). Según desarrolla Damián Grillo, “lo interesante de estos sistemas es que pueden encapsularse compuestos tanto en la membrana si la droga es hidrofóbica, o en el interior acuoso de los sistemas si es hidrofílica, aunque también se pueden encapsular ambas en simultáneo, cada una en su región, lo que puede resultar sumamente útil a la hora de abordar terapias combinadas”. Dado que las propiedades de un polimerosoma están fuertemente relacionadas con las características de la membrana que lo forma, el estudio de modelos de membrana representaría un enfoque simplificado para determinar propiedades del polimerosoma completo.
Marta Ferraro cuenta que la investigación implicó sucesivas etapas de trabajo como el diseño de un modelo de membrana, la formación del sistema, la estabilización del mismo; y por último el estudio de la interacción membrana-droga encapsulada. “En una etapa posterior lo que interesa conocer es cómo responde el modelo completo y correlacionar los resultados con los obtenidos con el modelo de membrana. Es un desafío porque computacionalmente requiere de muchos recursos”, dice la investigadora.
El polimerosoma, al estar hecho de polímeros permite una gran versatilidad en cuanto a los materiales, ya que son múltiples las formas en que puede prepararse o sintetizarse según criterios deseados como la permeabilidad o la elasticidad mecánica, por ejemplo. En este sentido, “las posibilidades de estudio son muchas, nuestro trabajo se centró en la encapsulación, una propiedad mecánica en particular” afirma Grillo y asegura que les interesaba especialmente cómo se veía afectada la estabilidad del sistema cuando se incluía el fármaco modelo. “Lo que hicimos fue colocar la droga hidrofóbica en la membrana y otra droga hidrofílica afuera, en el medio acuoso, queríamos ver cómo se modificaba el comportamiento del sistema ante la interacción de estos componentes. Observamos cómo variaba el perfil de presiones a lo largo de la membrana; lo que permitió entender el balance entre las fuerzas internas que ocurren dentro y determinar si la inclusión de la droga resultaba desestabilizadora”.
Juan Albano, es el médico de este equipo interdisciplinario. Afirma que estos estudios preliminares que se hacen desde el área teórica acortan mucho los plazos a la hora del desarrollo de nuevos nanocarriers con propiedades específicas; “además el mejoramiento continuo del software hace que la brecha entre las etapas teórica y experimental sean mucho más cortas. Por lo que la alimentación entre teoría, simulación y experimentación se ve enriquecida”.
“Los resultados nos permiten afirmar que la inclusión de la droga modelo no desestabiliza la membrana; por lo cual este tipo de sistemas que estudiamos serían aptos para ser usados en la administración de fármacos. Ahora continuamos trabajando en la incorporación del cálculo de presiones para sistemas esféricos en el programa de simulación , y de ese modo, poder calcular las presiones en el sistema completo”, concluye Ferraro.
Journal of Chemical Physics, 148, 214901 (2018)
*Por Augusto Roncaglia.
El proceso de intercambio de información, en forma general, involucra la codificación de un mensaje en un portador o sistema físico -por ejemplo un pulso electromagnético- que se envía luego a un receptor. De esta manera, la capacidad de los sistemas de comunicación para transmitir y procesar información se encuentra limitada por las leyes de la física. En este contexto, se pueden encontrar varios ejemplos donde la utilización de sistemas que operan en el régimen cuántico permite llevar a cabo tareas útiles que resultan imposibles clásicamente.
El escenario que consideraremos aquí puede ser ejemplificado de la siguiente manera: dos compañeros de trabajo, Alice y Bob, se encuentran apartados y cada uno desea comunicarle al otro si asistirá a una reunión que tenían programada. El objetivo en este caso es que cada uno sepa con certeza qué hará el otro utilizando la mínima cantidad de recursos. Clásicamente, la información viaja en una dirección y será necesario que cada uno codifique su mensaje en un sistema físico, una partícula por ejemplo, para enviarlo a su compañero. En consecuencia, utilizando sistemas clásicos la comunicación bidireccional requiere como mínimo dos partículas, o bien invertir el doble de tiempo con una única partícula que viaje ida y vuelta entre las partes.
Sorprendentemente, Flavio Del Santo y Borivoje Dakić de la Universidad de Viena, muestran1 que es posible realizar esta comunicación bidireccional utilizando una única partícula cuántica que comparten Alice y Bob o, en forma equivalente, se podría decir que ambos compañeros reciben el mensaje dentro del mismo tiempo que tomaría enviar el mensaje clásicamente en una dirección. En el artículo, publicado este año en Physical Review Letters, proponen un protocolo que permite realizar esta tarea si la partícula se encuentra en un estado de superposición coherente entre dos regiones diferentes del espacio y, además, la información que se desea transmitir se encuentra codificada en la fase relativa de este estado. Por otro lado, señalan que esta comunicación es segura, e incluso anónima, un espía no podría determinar la dirección de la comunicación.
La implementación experimental más simple de estas ideas ha sido realizada recientemente2 y requiere de un único fotón en un arreglo tipo interferómetro de Mach-Zehnder que permite generar el estado superposición. Este ejemplo sencillo refleja, una vez más, las ventajas que ofrecen los sistemas cuánticos para las comunicaciones y el procesado de la información.
1 Two-Way Communication with a Single Quantum Particle. Flavio Del Santo and Borivoje Dakić, Phys. Rev. Lett. 120, 060503 (2018).
2 Experimental two-way communication with one photon. Francesco Massa, Amir Moqanaki, Flavio Del Santo, Borivoje Dakic, Philip Walther arXiv: 1802.05102 (2018).
* Augusto Roncaglia es profesor Adjunto del Departamento de Física e investigador del Instituto de Física de Buenos Aires, UBA-CONICET.
* Por Lis Tous.
El nuevo libro de los físicos José Edelstein y Andrés Gomberoff lleva un título inspirado en el clásico Guía para perplejos de Maimónides, del cual los autores rescatan el valor de hacer circular pensamientos que en principio serían únicamente para entendidos. Un libro de divulgación sobre el hombre que forjó las ideas más radicales de la física del siglo XX es, también, un texto sobre quien persiguió obstinadamente nociones que no despertaron entusiasmo por parte de la comunidad científica y que, “en los últimos veinte años de su vida, lo confinaron a un creciente autismo científico”.
“Escribir sobre él es una forma de obligarnos a repasar sus trabajos científicos, sus ensayos, su correspondencia, a separar las anécdotas apócrifas de las que no lo son y, en definitiva, a interpelar al personaje desde la perspectiva de otros ilustres testigos de su tiempo”, aclaran los autores. Porque sí, libros sobre Einstein hay muchos, pero su archivo es muy extenso, su obra resulta compleja y sus ecuaciones imprescindibles.
La frondosa imaginación de Einstein perpetuó una forma de hacer ciencia con experimentos mentales - lo que la lengua alemana nombra como Gedankenexperimen -. Abrió el juego teórico cuando imaginó la posibilidad de alcanzar un haz de luz o las consecuencias de un cuerpo al arrojarse por una ventana. Luego fue capaz de escribir las leyes que daban sentido y coherencia a las interpretaciones universales del mundo físico. Así, los autores repasan los razonamientos del físico y explican cómo se acomodaron las piezas de la historia de la ciencia después del cimbronazo que produjeron sus cuatro trabajos publicados en 1905: sobre la naturaleza de la luz, de las moléculas, de la masa, del espacio y del tiempo. “Cada uno de ellos significó una revolución científica de tal calado que la única consecuencia razonable habría sido la concesión de cuatro premios Nobel”. Lo recibió por el primero de ellos, una explicación del “efecto fotoeléctrico”.
“Como hay miles de libros de Einstein intentamos repensar lo que nos parecían lugares comunes. Por ejemplo, hay errores de él que son muy conocidos, pero son muy buenos desaciertos porque su refutación dio lugar a lo que hoy es la carrera por la computación cuántica; así como su error de la constante cosmológica que es una idea rescatada del tacho de basura para explicar por qué el universo se expande aceleradamente. También tuvo equívocos un poco bochornosos, en 1939 quiso demostrar con una mala matemática que no puede haber agujeros negros -en términos del lenguaje moderno- con la poca fortuna de que es mismo año Oppenheimer y Snyder comprobaron que el colapso de una estrella produce un agujero negro. Además, esto sugiere que Einstein no estaba al tanto de lo que otras personas hacían sobre un mismo tema, en el mismo momento”.
De las conversaciones de los autores con personas que conocieron a Einstein se rescatan anécdotas que el lector disfrutará. Entre ellos, Freeman Dyson, Peter Lax y la becaria francesa del apartado del Einstein "viejo, cansado y final”. Divierte seguir la historia y entredichos con Tesla, al que apodaron como “crackpot”; los guiños a la literatura latinoamericana y hasta la sorpresa de toparse con un seminario de Jacques Lacan inspirado en juegos de dados, deseos y universos mudos.