Coloquio: Optimal Control Theory and Quantum Information Systems
- 2025-07-17 14:00 |
- Aula Federman
- Por Lis Tous. Fotos: Juan Pablo Vittori -
Serge Haroche, Premio Nobel de Física por sus trabajos sobre la manipulación de sistemas cuánticos individuales, brindó una conferencia en el Departamento de Física de la Facultad de Ciencias Exactas y Naturales de la UBA. El título de la presentación Cómo la investigación sobre el azul del cielo y la tecnología se nutren mutuamente es el disparador de una idea que Haroche defiende con ahínco: “para hacer ciencia se necesita tiempo y confianza”.
El investigador francés reconstruyó una genealogía de la tecnología moderna; describió una serie de momentos claves en la historia que permitieron las tecnologías de hoy. Su paso por el país se dio en el marco de su rol como jurado en los premios a la investigación científica que otorga la Fundación Bunge & Born cada año.
1 El equilibrio
“¿Por qué hacer investigación científica? Bueno, hay dos tipos de respuestas. La primera, para tratar de entender mejor el mundo que nos rodea, no sólo el mundo natural sino también los sistemas vivientes. Esto se llama investigación del azul del cielo, es decir, investigación que no está relacionada directamente a ningún tipo de utilidad práctica, a ningún tipo de ganancia. Y, como segunda respuesta, para poder realizar tareas útiles y satisfacer algunas necesidades sociales como reducir el cambio climático o desarrollar energías alternativas. Hablo de las combinaciones que existen entre la ciencia básica, aquella motivada por la mera curiosidad y la investigación aplicada que tiene por objetivo producir objetos, dispositivos que sean comercializables e importantes para el desarrollo económico de las sociedades”.
2 Contra la miopía
“ En este momento donde en muchas partes del mundo estamos viviendo crisis económicas, los políticos tienen una tendencia muy marcada a favorecer la utilidad a corto plazo; a considerar que la investigación científica debe ser redituable, que debe dar una ganancia inmediata. En este sentido, muchos políticos dicen que la curiosidad a largo plazo es una especie de lujo que debe dejarse para cuando haya vacas gordas; dicen que la ciencia básica hay que hacerla en Estados Unidos, mientras nosotros, oportunamente, podemos utilizar las patentes y desarrollar alguna aplicación. Busco dar argumentos sólidos frente a administradores de no valoran o conocen el valor de la ciencia básica”.
3 La historia
“La historia de la ciencia muestra que no se puede separar la investigación del azul del cielo de la de otro tipo de tecnología. Son las dos caras de la misma moneda, si se hace una y no la otra se pierde el equilibrio, se entra en terrenos difíciles. Por ejemplo, entre los siglos XVI y XVII se trató de medir la velocidad de la luz, uno de los científicos que intentó hacerlo fue Galileo Galilei con un experimento un poco inocente; después hubo estimaciones astronómicas; pero las primeras mediciones precisas fueron realizadas a mediados del siglo XIX por Fizeau y Foucault. Ellos, utilizaron ruedas rotatorias e hicieron experimentos que fueron posibles porque contaban con objetos mecánicos. Este es un ejemplo de cómo la ciencia básica tiene que ser desarrollada cuando uno tiene la tecnología necesaria para poder hacer las mediciones. Por otro lado, hacia fines del siglo XVII los científicos estaban tratando de responder preguntas con respecto a la naturaleza de la luz y de la materia. No tenían absolutamente ninguna idea acerca de las aplicaciones que podrían surgir. La luz, ¿está compuesta por partículas como pensaba Newton?, o ¿la luz es una onda que se propaga a través del espacio como sostenía Huygens?. Los dos eran físicos y vivieron hasta principios del siglo XVIII. Esta pregunta fue resuelta mucho tiempo después”.
4 La naturaleza de las cosas
“Para mediados del siglo XIX se conocían muchas cosas con respecto a la luz y al mismo tiempo se plantearon dudas respecto a la naturaleza de la materia y sus propiedades electromagnéticas. Y, nuevamente, gran parte de la investigación guiada por la curiosidad fue realizada en este rumbo: Coulomb que descubrió las leyes de la electrostática, y después, Faraday y Ampère que fundaron las leyes del magnetismo, plantearon así la relación entre esta fuerza y la electricidad. Esta línea de investigación llegó a su fruición, fue coronada con el trabajo de Maxwell hacia fines del siglo XIX. De sus hallazgos surge que la luz es una onda electromagnética, una combinación de campos electromagnéticos que se propaga a una enorme velocidad, independientemente del observador”.
5 El manuscrito de Maxwell y la mano de Röntgen
“Las ecuaciones de Maxwell que describen cómo los campos eléctricos y magnéticos interactúan y evolucionan de una manera combinada, permiten computar la velocidad de estos campos electromagnéticos. En un manuscrito conservado en la Royal Society of London, Maxwell concluye su trabajo afirmando que el acuerdo de los resultados parece demostrar que la luz y el magnetismo son afecciones de la misma sustancia y que la luz es una perturbación electromagnética que se propaga a través del espacio según las leyes electromagnéticas. Esta tal vez es la frase más importante de la física porque es la primera instancia de unificación de diferentes tipos de fuerzas. Hasta mediados del siglo XIX, se pensaba que la electricidad, el magnetismo y la óptica eran tres cosas diferentes”.
“Lo que descubrió Maxwell es que la luz es una onda electromagnética, pero la luz que es visible, la luz a la cual son sensibles nuestros ojos proviene de una pequeña ventana del espectro de frecuencias. Diez años después de la muerte de Maxwell, Hertz descubrió las ondas de radio; Röntgen fue la primera persona en hacerse una radiografía, la imagen de su mano fue posible gracias a su descubrimiento que él bautizó como rayos x, se tardó quince años en saber que estos rayos eran radiaciones de alta frecuencia. Hoy tienen muchísimas aplicaciones: diagnósticos médicos, todo tipo de estudios de la materia, cristalografía, etc.”.
6 La revolución de la relatividad
“Personas como Planck y Einstein se sintieron motivadas por entender el mundo, es decir, hicieron ciencia básica. Ellos no tenían idea de hacia dónde podían conducir sus descubrimientos y aún así, han inducido a innovaciones que nos cambiaron la vida. La energía nuclear, por ejemplo, no hubiera sido posible; la manera en que nos comunicamos; la manera de almacenar y poseer información; la forma en que se realizan diagnósticos médicos. No es un solo hallazgo lo que condujo a estas aplicaciones, si no la conjunción de aciertos en diferentes áreas de la ciencia, luego de un largo período de maceración”.
7 La revolución cuántica
“Otro aspecto importante es que la luz es al mismo tiempo un conjunto de partículas y una onda, lo que de alguna manera reconcilia a Huygens y a Newton. Este aspecto combinado era muy difícil de entender para ellos, el entendimiento fue posible luego en el ámbito de la física cuántica. Después de muchos desarrollos realizados a principios del siglo XX se descubrió que la luz y la materia obedecen a una serie de leyes que son muy contraintuitivas como la dualidad onda-partícula: la materia está hecha de átomos, un núcleo cargado positivamente con electrones que se mueven en órbitas a su alrededor, y que tienen niveles energéticos cuantizados. A su vez, los electrones y el núcleo llevan spín, así se explican las propiedades magnéticas de la materia”.
8 El futuro que nadie imagina
“Entre finales del siglo XIX y principios del XX los físicos y los químicos pensaban que la ciencia y la física en particular ya se conocía enteramente, que ya se conocía todo sobre sus leyes. En el año 1900 en la gran feria de ciencia universal que tuvo lugar en París, que se realizaba cada veinte o treinta años, tenía como temática el progreso. La idea era que la ciencia iba a conducir a un montón de aplicaciones que nos cambiarían la vida. Entonces se le pedía a la gente que tratara de imaginar cómo se iba a ver el mundo en el año 2000. Se publicaron postales en todo el mundo donde se puede ver cómo se imaginaban el futuro. Son postales extremadamente ingenuas, nadie ni ningún científico fue capaz de predecir el origen de las computadoras, el advenimiento del láser o toda la tecnología celular. Las postales son extrapolaciones de lo que ya se conocía en el siglo XIX”.
9 El reloj más preciso del mundo
“El reloj atómico es una aplicación que tiene origen en el experimento de Rabi [los efectos de los campos magnéticos externos sobre el núcleo de las partículas]. Este reloj mide el tiempo mediante la frecuencia a la cual los electrones se están moviendo en el átomo. Se miden los fenómenos periódicos que ocurren en los átomos porque son mucho más estables en frecuencia que lo que se puede ver en un reloj de cuarzo o en un reloj de péndulo. Un reloj atómico estándar tiene un grado de incertidumbre es de 1 segundo en un millón de años”.
“A su vez, estos relojes son la base para la tecnología del Sistema de Posicionamiento Global (GPS), donde una gran cantidad de satélites están en órbita alrededor del planeta, y cada satélite porta un reloj atómico sincronizado a los otros. A través de la medición del tiempo, de la triangulación se puede encontrar la posición de una determinada persona con precisión menor al metro. Esta es una derivación no sólo de la física cuántica, sino que también está altamente vinculada a la relatividad porque los relojes que giran en órbita alrededor de La Tierra tienen una velocidad respecto de nuestro planeta, de acuerdo con la relatividad especial la tasa al cual los relojes miden el tiempo depende de su velocidad y de acuerdo con la relatividad general el hecho de que se encuentre en un campo gravitacional diferente genera una corrección. Si no fueran tomadas en cuenta estas correcciones el GPS fallaría por kilómetros de distancia. Otro ejemplo de un sistema que utiliza ciencia básica, investigaciones que podrían haberse considerado como totalmente inútiles a principios del siglo XX y hoy tienen aplicaciones bien prácticas”.
10 El láser, la luz domesticada
El láser es otro descubrimiento de la ciencia, en este caso por curiosidad de Einstein.
“Tiene que ver con la emisión estimulada, lo que Bohr había descubierto a principios del siglo XX era que un átomo en un estado excitado puede bajar a un estado de baja energía emitiendo un fotón, un paquete de luz. Este fotón es emitido espontáneamente, en cualquier dirección y con un alto rango de posibles frecuencias. Lo que Einstein describió es que por encima de este proceso de emisión espontánea hay otro proceso que corresponde a una luz que tiene propiedades mucho más definidas. Lo que él descubrió es que si un fotón viene de un átomo excitado, el átomo va a tener una alta probabilidad de emitir otro fotón en exactamente el mismo modo, es decir, otro fotón con la misma frecuencia, la misma dirección y la misma polarización. Este es un proceso de amplificación, mediante el cual la luz ‘pide’ luz con las mismas propiedades. Einstein quería comprender cómo la luz y la materia llegaban a un equilibrio, y vislumbró que era necesario tener en cuenta la emisión estimulada para entender este proceso. Así llegamos al máser el dispositivo de microondas y después al láser”.
“Los láseres se volvieron una herramienta muy fundamental para las investigaciones en física, química y biología y para aplicaciones en meteorología, medicina y la comunicación”.
- Por Lis Tous -
El sueño llega, tarde o temprano, todos los días durante el transcurso de nuestra vida. Sin embargo, por qué dormimos es aún una pregunta crucial para la neurobiología. Ariel Haimovici, Enzo Tagliazucchi y Pablo Balenzuela construyen parámetros para distinguir los estados del sueño y la vigilia, y así, caracterizar modos globales del cerebro cuando dormimos y cuando estamos despiertos. Los investigadores pertenecen al Departamento de Física y al Instituto de Física de Buenos Aires (IFIBA), UBA-CONICET, y han publicado junto al Dr. Helmut Laufs de la Universidad de Kiel, Alemania, su trabajo en Scientific Reports.
"Sabemos que el cerebro humano no funciona como una máquina con un switch de encendido y apagado; más bien, se encuentra constantemente encendido. Los estados cerebrales se dan de manera global, es decir las neuronas pueden comunicarse entre ellas de manera local, pero a su vez dando origen a modos característicos de dinámica global. Por ejemplo, en la etapa más profunda del sueño la influencia de ciertos neurotransmisores transforman al cerebro en un sistema biestable, donde las neuronas alternan entre períodos con alta tasa de disparo y períodos de inactividad. Este comportamiento es cualitativamente más sencillo del que se observa durante la vigilia consciente”, aclara Enzo Tagliazucchi.
La originalidad del trabajo radica en la complejidad de la metodología aplicada, ya que integra el clásico encefalograma a las imágenes de resonancia magnética funcional -fMRI por sus siglas en inglés-. “Una vez superado este importante obstáculo técnico, el trabajo utiliza novedosos métodos de análisis multivariado para distinguir estados típicos de vigilia y de sueño en personas que están dentro del resonador”, dice Tagliazucchi. De esta forma, los investigadores pueden hipotetizar sobre comportamientos neuronales particulares conociendo -mediante estereotipos estadísticos- si la persona entró en una cierta etapa de sueño o no.
“Cuando realizamos estudios del cerebro utilizando fMRI suele aparecer un problema, ya que la persona puede pasar en el aparato aproximadamente una hora, se le suele pedir que cierre los ojos y a pesar de que hay ruido es una situación propensa al sueño. La forma de conocer si la persona está dormida y en qué etapa del sueño se encuentra es mediante el encefalograma, por eso necesitamos de las dos observaciones al mismo tiempo”, dice Tagliazucchi y enfatiza: “es muy importante poder diferenciar el estado de sueño del de vigilia particularmente cuando se estudian cuestiones clínicas y el uso de psicofármacos, ya que estos pueden introducir una variable de confusión estadística muy difícil de remover si no se hacen las mediciones adecuadas”.
A través de la resonancia se pueden reconocer los modos, o estados globales del cerebro. Mediante cambios en el flujo sanguíneo -mayor o menor presencia de oxígeno- se puede identificar qué regiones del cerebro tienen más actividad y cuáles trabajan simultáneamente, de manera coordinada. Con la información obtenida los científicos construyen mapas de correlaciones cerebrales, una representación de actividad neuronal simultánea.
Balenzuela reconoce que para realizar este tipo de experimentos debieron sortear un problema técnico complicado ya que necesitaban introducir un encefalograma dentro de un resonador nuclear, y por consiguiente, trabajar con la presencia de fuertes campos magnéticos cambiantes dentro del resonador. “Después medimos, debimos distinguir qué personas estaban dormidas y cuáles no para obtener así ejemplos de todos los estados posibles”, resume el investigador. Los estudios experimentales fueron realizados en el departamento de neurologia de la Universidad de Frankfurt, en Alemania, por el grupo de los Drs. Laufs y por el mismo Tagliazucchi.
Haimovici, por su parte, asegura que el resultado central del trabajo es el estudio de las fluctuaciones entre el acoplamiento de distintas regiones cerebrales mientras se conoce el estado de sueño, prescindiendo de la electroencefalografía. “Básicamente, computamos la manera en que el acoplamiento evoluciona en el tiempo y aplicamos técnicas de clustering para particionar distintos segmentos temporales de acuerdo a los patrones de acoplamiento. Esa división es un reflejo fiel de las fases de sueño que los sujetos transitan durante el experimento”.
Sueño y psicofármacos
“El problema de la pérdida de la vigilia en experimentos de resonancia magnética funcional es potencialmente desastroso en estudios clínicos”, dice Tagliazucchi y ejemplifica: “supongamos que nuestro objetivo es entender si una enfermedad como la esquizofrenia altera la actividad espontánea del cerebro; medimos una serie de pacientes y sujetos sanos y comparamos los resultados, encontrando diferencias llamativas. Si los pacientes psiquiátricos toman medicamentos -como neurolépticos o antipsicóticos-, es posible que estos incrementen la probabilidad de perder la vigilia y de que confundamos cambios en la actividad debido a una enfermedad con cambios en la actividad debido al sueño”.
Por otro lado, el investigador argumenta que existen en la actualidad inversiones millonarias en este tipo de estudios y “debido a nuestra línea de investigación han tenido que modificarse muchos de los protocolos experimentales para evitar este problema. Con este nuevo trabajo proporcionamos una herramienta para simplificar la estabilización de los niveles de sueño en los sujetos estudiados y por lo tanto atenuar este problema”.
El trabajo no solamente indica que deben tomarse precauciones para evitar la presencia de sueño en estudios con fMRI, sino que además proporciona una herramienta para “salvar” datos experimentales ya adquiridos en los cuales dichas precauciones no fueron tomadas. Tagliazucchi asegura que el análisis “puede ser aplicado retrospectivamente a grandes bases de datos clínicas que ya fueron adquiridas para identificar a aquellos sujetos que se mantienen despiertos e incluirlos en el análisis, así como para descartar a sujetos que evidentemente cayeron en un estado de sueño profundo. También podemos utilizar el método para estimar la probabilidad de que algunos resultados de la literatura atribuyan erróneamente diferencias causadas por el sueño a distintos trastornos neuropsiquiátricos”.
“El próximo paso en el que estamos trabajando es en la mejora de los algoritmos de clustering para tener una idea más precisa de la secuencia de eventos que llevan de la vigilia al sueño, con el objetivo de comprender con más profundidad el proceso de quedarse dormido. A partir de ahora, experimentos muy grandes, colaborativos, que involucran a muchos centros clínicos en el mundo pueden usar este algoritmo como un estándar”, concluye Balenzuela.
On wakefulness fluctuations as a source of BOLD functional connectivity dynamics, Scientific Reports, 2017. DOI:10.1038/s41598-017-06389-4
- Comunicación DF -
Durante el primer cuatrimestre de este año dos referentes internacionales en cosmología de precisión dictaron en el Departamento de Física un curso para estudiantes de licenciatura y doctorado. “Cora Dvorkin y Román Scoccimarro sumaron esfuerzos para combinar el trabajo de dar una asignatura en conjunto y aprovechar el tiempo al máximo. Fue una oportunidad muy especial, que no sucede todos los días, escuchar la clase de quienes escriben los libros sobre un tema”, dice Esteban Calzetta, coordinador del programa.
El curso abarcó los desarrollos más recientes en cosmología: radiación cósmica de fondo, oscilaciones acústicas de bariones, y la naturaleza de la materia y la energía oscura. Scoccimarro y Dvorkin son investigadores del Center for Cosmology and Particle Physics, New York University; y del Department of Physics, Harvard University, respectivamente. Ambos, graduados en el DF son líderes en el tema a nivel mundial.
“Hay tres vías para conocer la composición inicial del universo: por un lado la radiación cósmica de fondo; la nucleosíntesis que es la forma por la cual conocemos la cantidad de helio generado en el universo temprano; y una tercera forma es pesando galaxias, a través de lentes gravitatorias, viendo cómo la presencia de la galaxia distorsiona la imagen de objetos que son todavía más lejanos”, explica Calzetta, profesor del DF e investigador principal del IFIBA, UBA-CONICET.
“La idea que tenemos ahora es que el universo surge en algún momento, pasa por una etapa increíblemente caliente y densa y a partir de ahí se empieza a expandir. De esa etapa primordial quedan fluctuaciones que son de origen cuántico y a través de un proceso llamado pérdida de coherencia son las semillas de todas las estructuras que existen actualmente. Del mismo modo, esas fluctuaciones primordiales han dejado una marca en la distribución de estructuras a gran escala, que son las llamadas oscilaciones bariónicas", específica.
El investigador y coordinador del curso explica que la radiación cósmica de fondo está compuesta por ondas electromagnéticas, cuya longitud de onda se desplaza al rojo con la expansión del universo, de manera que cuando fueron emitidas correspondían a rayos x y ahora a microondas. El estudio de la radiación cósmica de fondo permite sacarle una foto al universo cuando tenía entre 300 y 500 mil años de edad -hoy tiene catorce mil millones-, por lo que es una galería de información preservada en el tiempo y la principal forma de acceder a ese universo temprano.
Por otro lado, el uso de las lentes gravitatorias permite conocer que el 30% de la materia total del universo está concentrado en galaxias y cúmulos, y sólo la sexta parte de ese porcentaje es materia bariónica, es decir, ordinaria. El investigador sintetiza los otros ejes del curso: “simplificando bastante decimos que la materia oscura es ese treinta por ciento que podemos ver a través de las lentes gravitatorias y la energía oscura es el setenta por ciento que no está concentrado en galaxias”.
Así, “la denominada materia oscura no se sabe exactamente qué es y cómo está distribuida en el universo. Podemos saber a partir del estudio de la radiación cósmica de fondo cuánta materia hay en el universo, porque cuando uno mira la distribución de las intensidades en el cielo se ven regularidades, como si uno estuviera mirando un dibujo hecho por la repetición de un patrón. Hay estudios que determinan qué tamaño tenía ese patrón al momento de la emisión de la radiación de fondo, pero el tamaño con el que lo vemos ahora depende no sólo del tamaño en su origen sino también de la densidad de materia en el universo desde entonces hasta acá, por eso se puede determinar con mucha precisión cuánta materia hay en el universo”.
La energía oscura se asocia con otro fenómeno relativamente nuevo en la historia del conocimiento, y es que el universo se expande y lo hace de manera acelerada. Según Calzetta hay teorías que hacen pensar a la energía oscura como explosiones, similares a la que originó el universo, pero a una tasa mucho menor. La energía oscura es inherentemente inestable, y eso es lo que impulsaría la expansión del universo en este momento. Contrariamente, la materia oscura que es estable y atrae gravitatoriamente, contribuye a la formación de galaxias.
“Tanto la materia como la energía oscura son hipótesis muy locas, sí. Pero, tienen la virtud de que permiten conectar varias observaciones que son completamente independientes entre sí, que usan distintos aparatos, que miran otras cosas. Cada uno de estos fenómenos pueden interpretarse de manera alternativa, el desafío es explicarlos todas a la vez”.
“El curso -al que asistieron muchos alumnos de licenciatura- fue diseñado para que los estudiantes lleguen a conocer los temas de frontera. Entender de qué se trata es tarea de varios años, pero fue una muy buena aproximación al conocimiento de estos temas por parte de dos expertos. Este tipo de estudios tiene una tradición muy fuerte en el Departamento de Física y estamos tratando de retomarla”, concluye Calzetta.
- Comunicación DF -
Mientras atraviesa el tramo final de su doctorado el físico Pablo Poggi publicó en la Revista Europhysics Letters (EPL) los resultados de su investigación: “¿Cómo se ve afectada la no Markovianidad cuando intentamos controlar el sistema externamente ?”, es la pregunta que dispara su trabajo. El artículo que escribió junto a Fernando Lombardo y Diego Wisniacki fue elegido por el editor como lo más recomendado de la edición (Editor’s Choice). Los investigadores pertenecen al Instituto de Física de Buenos Aires (IFIBA), dependiente de UBA-CONICET y al Departamento de Física - FCEyN - UBA.
“En las últimas décadas se ha generado una gran expectativa alrededor del potencial desarrollo de las tecnologías cuánticas. Sabemos que los sistemas microscópicos, que obedecen las leyes de la mecánica cuántica, podrían ser usados para realizar diversas tareas de una manera mucho más eficiente, si se los compara con sus análogos clásicos”, contextualiza Poggi.
Uno de los desafíos para lograr este objetivo es mantener a los sistemas cuánticos suficientemente aislados del entorno para que no pierdan coherencia. Es decir, la posibilidad de encontrarse en superposiciones de estados clásicos.
La investigación busca conocer si es posible lograr un mayor grado de control sobre un sistema abierto que, irreversiblemente, pierde coherencia si se lo pone en contacto con un entorno especial. El investigador focaliza en aquellos contextos donde la coherencia del sistema puede recuperarse por un entorno particular conocido como no Markoviano. Son situaciones singulares, como las que suceden a muy bajas temperaturas por ejemplo, donde el desorden es menor.
“Si uno prepara el sistema cuántico con el que desea trabajar como una combinación coherente de estados clásicos, éste pierde la coherencia pero si se diseña un entorno especial, puede recuperarla”, aclara el investigador y explica que “sucede que por ser éste un entorno más ordenado posee memoria. Y, por lo tanto, la posibilidad de recuperar la coherencia momentáneamente”.
“Dentro de los resultados que obtuvimos, encontramos que cuando controlamos al sistema usando campos externos, es posible acentuar estos efectos no Markovianos, que se hacen más pronunciados en comparación a la evolución libre del sistema. Hallamos también que esta mejora se da cuando el sistema interactúa débilmente con el entorno, pero no tanto cuando la interacción es fuerte”, concluye Poggi.
Actualmente, los investigadores trabajan sobre las consecuencias específicas de diseñar un sistema de estas características, y si es posible lograr procesos controlados más eficientes.
Driving-induced amplification of non-Markovianity in open quantum systems evolution
DOI: https://doi.org/10.1209/0295-5075/118/20005
- Comunicación DF -
“Soy abuelo y viví una situación que tal vez le sucede a muchos, cuando llegó el momento de que mis nietos reciban las vacunas aparecieron ciertas dudas en la familia. Cotidianamente escuchamos discursos que aseguran la peligrosidad de las vacunas así que, en el marco de esta investigación, buscamos saber qué puede ocurrir si se abandona el consenso sobre la inmunización pública”, dice Claudio Dorso, Investigador principal del CONICET y profesor titular del Departamento de Física en Exactas, UBA.
Junto con Pablo Balenzuela, Investigador independiente de UBA-CONICET en el Instituto de Física de Buenos Aires (IFIBA) y Andrés Medus, ex becario doctoral del DF, los investigadores publicaron un trabajo en la revista Physica. En la investigación se explora, mediante simulaciones numéricas, posibles escenarios de brotes epidémicos por la influencia de personas que rechazan las vacunas.
Dorso señala que este es el primer trabajo de una línea de investigación a desarrollarse durante varios años: “La idea es poder ser cada vez más cuantitativos con los resultados. En nuestro trabajo mostramos como la hipótesis de formación de al menos un cluster, aunque minoritario, puede dar lugar al rebrote de enfermedades que considerábamos controladas”.
Los autores trabajan focalizados en la vacuna del sarampión y la forma de propagación que alcanza ese tipo de virus. Según la Organización Mundial de la Salud (OMS), esta enfermedad es una de las principales causas de muerte entre los niños pequeños, a pesar de que hay una vacuna segura y eficaz para prevenirla. En el año 2015 hubo más de 130 mil muertes por sarampión en todo el mundo, es decir, cerca de 367 por día o 15 por hora.
“Nuestra hipótesis es que vivimos con la sensación de estar a salvo de las epidemias, porque muchas enfermedades se han erradicado y ya no las padecemos. Por otro lado, nos encontramos con la idea de que es una decisión individual, de tipo privada y la verdad es que no, porque no vacunar a los niños tiene consecuencias para el resto de la humanidad”, afirma Balenzuela y caracteriza la situación como un problema de tipo complejo, donde el comportamiento colectivo no se puede predecir a partir de comportamientos individuales. “Eso hace que las interacciones sean no lineales y, por lo tanto, no se puede inducir el comportamiento del todo a partir del de las partes», resume el investigador.
El modelo
Los autores basan su trabajo en un modelo que permite simplificar un panorama de alta complejidad. La reducción de agentes -personas, grupos y Estado-, así como la polarización de opiniones y decisiones, permite evaluar si la hipótesis principal es relevante o no. Con el tiempo, los sistemas numéricos pueden profundizarse, sumar características, y así obtener escenarios en una multiplicidad de contextos.
“La OMS afirma que la inmunidad se alcanza cuando el 95 por ciento de la población está vacunado; se considera que quienes no recibieron inoculación son casos aislados, que no pueden provocar un rebrote de la enfermedad. En nuestro trabajo tomamos ese cinco por ciento restante para plantear esta hipótesis: cómo esta minoría podría provocar un rebrote de enfermedades virósicas altamente contagiosas -como el sarampión- si se mantiene unida”, sintetiza Dorso.
Balenzuela explica que la formulación del modelo se realiza sobre una red diversa, donde hay dos tipos de relaciones entre humanos: físicas y virtuales. Es decir, el modelo contempla vínculos de cercanía que permiten el contagio de la enfermedad, y relaciones a distancia que representan intercambio de información: “asume que hay sujetos anti-vacunas y que por afinidad cultural con otros, forman grupos y así transmiten opinión hacia conjuntos poblacionales más grandes”.
Según se desarrolla en el paper, el esquema teórico está basado en el modelo de Axelrod, donde la dinámica de interacción cultural se basa en dos premisas: por un lado, la probabilidad de interacción entre individuos es proporcional al número de atributos culturales que comparten; y por otro, la interacción aumenta la similitud cultural entre individuos.
“Hicimos un modelo de agentes, donde cada uno tiene algunas características, en este caso representado por un vector cultural. Una de esas particularidades es si está a favor de la vacunación o no; otras son la elección política, la situación económica, la religión, el club del que es hincha, etc. Es decir, el modelo asume que dos personas tienen más posibilidad de interactuar si son parecidas culturalmente entre sí, y además que a partir de la interacción las similitudes se refuercen. Como consecuencia, se van a formar clusters, grupos que están en contra de la vacunación y no permanecen aislados”, explica Balenzuela.
El trabajo contempla diferentes interacciones entre agentes: a nivel real la proximidad física les permite intercambiar opiniones, pero también generar contagios; por otro lado, las interacciones virtuales a través de medios y redes sociales sólo influencian las opiniones. Por último, se incluye el efecto de los grupos que rechazan las vacunas rotundamente y la acción del estado mediante campañas de vacunación, como fuerza opuesta.
Claudio O. Dorso, Andrés Medus, Pablo Balenzuela, "Vaccination and public trust: A model for the dissemination of vaccination behaviour with external intervention" Physica A 482 (2017) 433–443.