Powered By Blogger

miércoles, 18 de abril de 2012

Físicos crean el primer enlace cuántico de larga distancia

Artículo publicado por Jim Heirbaut el 11 de abril de 2012 en Science Now

Durante más de una década, los físicos han estado desarrollando métodos mecánico cuánticos para enviar mensajes secretos sin miedo a que pudiesen interceptarse. Pero aún no han creado una auténtica red cuántica – el análogo definitivo mecánico cuántico de una red común de telecomunicaciones en las que puede forjarse una conexión imposible de atacar entre dos estaciones o “nodos” cualesquiera de una red. Ahora, un equipo de investigadores de Alemania ha construido el primer enlace cuántico auténtico usando dos átomos distantes. Podría construirse una red completa combinando muchos de tales enlaces, dicen los investigadores.

“Estos resultados son un logro notable”, dice Andrew Shields, que trabaja en física aplicada y es director ayudante de gestión en Toshiba Research Europe Ltd. en Cambridge, Reino Unido, quien no estuvo implicado en el trabajo. “En el pasado hemos construido redes que pueden comunicarse usando información cuántica, pero convirtiéndola en a su forma clásica en los puntos de intercambio de la red. [Los investigadores] informan de los experimentos preliminares sobre la formación de una red en la que la información permanece en su forma cuántica”.

Comunicación cuántica © Crédito: Andreas Neuzner/Max Planck Institute of Quantum Optics


Los esquemas de comunicación cuántica normalmente aprovechan el hecho de que, de acuerdo con la teoría cuántica, es imposible medir la condición o “estado” de una partícula sin perturbarla. Por ejemplo, supón que Alice quiere enviar a Bob un mensaje secreto. Puede hacer el cifrado de manera tradicional, escribiendo el mensaje en forma de un número binario largo y blindándolo de cierta forma matemática con una “clave” para formar otra larga cadena de ceros y unos. Bob puede usar la misma clave para descifrar el mensaje.

Pero primero, Alice debe enviar a Bob la clave sin que nadie más la vea. Puede hacer esto si codifica la clave en partículas aisladas de luz, o fotones. Los detalles varían, pero los esquemas generalmente aprovechan el hecho de que una fisgona, Eve, no puede medir los fotones aislados sin alterar su estado de alguna manera que Alice y Bob puedan detectar comparando notas antes de que Alice codifique su mensaje y lo envíe. Esta “distribución de clave cuántica” ya se ha demostrado en redes, en una de hasta seis nodos en Viena en 2008, y distintas compañías ofrecen dispositivos de distribución de clave cuántica.

Tales esquemas sufren una limitación significativa, no obstante. Aunque la clave se pasa de un nodo a otro de forma cuántica, debe leerse y regenerarse en cada nodo de la red, dejando los nodos vulnerables a ataques. Por tanto, a los físicos les gustaría crear nodos de red que sean por sí mismos completamente mecánico cuánticos – es decir, estén formados por átomos individuales.

De acuerdo con la mecánica cuántica, un átomo puede tener sólo unas ciertas cantidades discretas de energía de dependiendo de cómo giran sus tripas. Extrañamente, un átomo también puede estar en dos estados distintos de energía – llamémoslos 0 y 1 – a la vez, aunque esta incierta condición de dos estados simultáneos “colapsa” en uno u otro tan pronto como se realiza una medida en el átomo. El “entrelazamiento” lleva la extrañeza a extremos absurdos. Dos átomos pueden estar entrelazados de manera que ambos estén en un estado incierto, pero sus estados estén perfectamente correlacionados. Por ejemplo, si Alice y Bob comparten un par de átomos entrelazados y ella mide el suyo y encuentra que está en el estado 1, entonces sabrá con seguridad que Bob encontrará un estado 1 también en el suyo, incluso antes de que él lo mida.

Obviamente, Alice y Bob pueden generar una clave aleatoria compartida simplemente entrelazando y midiendo sus átomos una y otra vez. Es clave señalar que, si el entrelazamiento puede extenderse a un tercer átomo que tiene Charlotte, entonces Alice y Charlotte pueden compartir la clave. En tal caso, si Eve trata de detectar la clave midiendo el átomo de Bob, deshará las correlaciones entre los átomos de Alice y Charlotte de una forma que les revelará su presencia, haciendo inatacable una verdadera red cuántica, al menos en principio.

Pero primero, los físicos deben entrelazar átomos muy distantes. Ahora, Stephan Ritter del Instituto Max Planck de Óptica Cuántica en Garching, Alemania, y sus colegas han hecho justamente esto, entrelazar dos átomos en laboratorios distintos en lados opuestos de una calle, según se informa en Nature.

Esto puede sonar a que es algo simple, pero los investigadores necesitaron una sala de laboratorio llena de láseres, elementos ópticos, y otros equipos en cada nodo. Cada átomo se situó entre dos espejos altamente reflectantes separados 0,5 mm, lo cual formó una “cavidad óptica”. Aplicando un láser externo al átomo A, el equipo de Ritter provocó que un fotón emitido por dicho átomo escapase de la cavidad y viajase a través de una fibra óptica de 60 metros hasta la cavidad en el otro extremo de la calle. Cuando el fotón fue absorbido por el átomo B, la información cuántica original del primer átomo se transfirió al segundo. Empezando con el estado adecuado en el primer átomo, los investigadores pudieron entrelazar ambos. De acuerdo con los investigadores, el entrelazamiento podría, en principio, extenderse a un tercer átomo, lo que hace que el sistema sea escalable a más de dos nodos.

“Cada paso fundamental tenía que darse en el momento justo para que funcionase”, dice Ritter, que trabaja en el grupo de Gerhard Rempe. “Tomemos, por ejemplo, la cavidad óptica. Todos los físicos están de acuerdo en que los átomos y fotones son un gran material para construir una red cuántica, pero en el espacio libre apenas interactúan. Tuvimos que desarrollar una cavidad para eso”.

“Este es un avance muy importante”, dice Shields, de Toshiba, debido a que nos permitirá compartir claves cuánticas en redes donde los nodos intermedios pueden no ser de confianza y podría también llevar a protocolos de comunicación multipartita complejos basados en entrelazamiento distribuido. “Sin embargo”, advierte Shields, “aún hay mucho trabajo por hacer antes de que la tecnología sea práctica”. La miniaturización de los componentes que constituyen un nodo estarán sin duda en la lista de peticiones de los investigadores.


Autor: Jim Heirbaut
Fecha Original: 11 de abril de 2012
Enlace Original

Comparte:PrintDiggStumbleUpondel.icio.usFacebookTwitterGoogle BookmarksBitacoras.comIdenti.caLinkedInMeneameNetvibesOrkutPDFRedditTumblrWikio

This page is wiki editable click here to edit this page.



martes, 17 de abril de 2012

Receta rápida: evitar desconexión por timeout en ssh

Problema: El servidor ssh al que te conectas cierra la conexión cuando detecta inactividad del usuario. Como tienes varias ventanas y tareas abiertas a la vez, ese timeout hace que la sesión ssh se quede bloqueada cada dos por tres. Solución: crar un fichero ~/.ssh/config con el contenido que indico a continuación. Ese fichero se [...]

La teoría del caos

Hablando de… es la serie caótica (hoy más que nunca) en la que recorremos el pasado saltando de asunto en asunto casi al azar, enlazando cada artículo con el siguiente y tratando de mostrar cómo todo está conectado de una manera u otra; los primeros veinte artículos de la serie están disponibles, además de en la web, en forma de libro, pero esto no tiene pinta de terminarse pronto. En los últimos artículos hemos hablado acerca del debate Huxley-Wilberforce sobre la evolución, en el que participó el “bulldog de Darwin”, Thomas Henry Huxley, que utilizó para defender las ideas de su amigo un cráneo de Homo neanderthalensis, nombre científico según el sistema creado por Carl Linneo y empleado en su obra magna, el Systema Naturae, que acabó en el Index Librorum Prohibitorum, lo mismo que todas las obras de Giordano Bruno, prohibidas por el Papa Clemente VIII, quien en cambio tres años antes dio el beneplácito de la Iglesia al café, bebida protagonista de la Cantata del café de Johann Sebastian Bach, cuya aproximación intelectual y científica a la música fue parecida a la de Vincenzo Galilei, padre de Galileo Galilei, quien a su vez fue padre de la paradoja de Galileo en la que se pone de manifiesto lo extraño del concepto de infinito, cuyo tratamiento matemático sufrió duras críticas por parte de Henri Poincaré, el precursor de la teoría del caos. Pero hablando de la teoría del caos…

A pesar de que pocos comprendieron su enorme relevancia, las conclusiones de Poincaré sobre el problema de los n cuerpos cambiarían nuestra concepción, si no del Universo, de nuestra capacidad para comprenderlo de manera absoluta. Como recordarás, el francés se había topado, al estudiar ese problema físico aparentemente simple, con el hecho de que una modificación levísima de los datos iniciales llevaba a soluciones que divergían en el tiempo. Además de eso, Poincaré se percató de otras características del problema que se convertirían, con el paso de los años, en los requisitos básicos de un sistema caótico — pero a esas otras características llegaremos un poco más adelante, cuando definamos un sistema caótico.

Porque, a pesar de que Poincaré fue el precursor de la teoría del caos, pasarían muchos años hasta que comprendiéramos las consecuencias de su descubrimiento. No es que la comunidad científica despreciase las conclusinoes de Poincaré ni mucho menos (ya vimos que era profundamente admirado), pero se pensaba que lo que había descubierto el francés era algo restringido a este sistema físico. Era posible que hubiese otros sistemas con un comportamiento impredecible en la práctica, desde luego, pero lo que nadie comprendió aún es que todos esos sistemas, por el mero hecho de comportarse así, tuviesen tantísimas cosas en común como realmente tienen, y que algunas de esas cosas fueran tan extrañas como realmente son.

Remolino
El estudio del flujo turbulento tuvo un antes y un después de la creación de la teoría del caos (dominio público).

Me parece irónico que el primer sistema en el que observamos –aunque no nos diésemos cuenta de su auténtica relevancia– un comportamiento caótico fuese uno tan simple como un conjunto de masas sometidas únicamente a la fuerza gravitatoria. En cierto sentido se trataba de un sistema casi diseñado para ser predecible, como la “niña bonita” del mecanicismo determinista newtoniano… pero se convertiría en el umbral de algo muy diferente. Dada la arrogancia del ser humano, no resulta sorprendente que, tal vez de manera inconsciente, intentásemos o bien olvidarlo o quitarle importancia. Poincaré publicó sus conclusiones en la década de 1880, y podrías pensar que la teoría del caos surgiría unos pocos años más tarde, pero no fue así en absoluto: tras Poincaré, durante muchas décadas, prácticamente nada.

De hecho, esto se repetiría a lo largo de los años: alguien descubriría un sistema de este tipo, y se quedaría asombrado; estudiaría sus características… y luego la cosa se dormiría de nuevo, o quedaría incluso olvidada durante años, o sería considerada como una curiosidad matemática sin importancia para el “mundo práctico”. Posteriormente, alguien más descubriría un sistema sin la menor relación aparente con el anterior, en una rama diferente de la ciencia, y se quedaría sorprendido; estudiaría sus características… y otra vez la cosa se dormiría. Era como si nos negásemos a aceptar la naturaleza de las cosas, como si dijésemos “¡Anda, que excepción más curiosa!”, “¡Vaya, otra excepción más, parecida a la otra!”, “¡Fíjate, otra excepción más!” “¡Que de excepciones tan parecidas, quién lo hubiera pensado!”, e hiciese falta que la realidad nos diese en los morros una y otra vez para comprender que no eran excepciones.

Mirando hacia atrás, hoy sabemos que varios científicos en la primera mitad del siglo XX, sobre todo durante la elaboración de sus tesis doctorales, se encontraron con lo que luego llamaríamos sistemas caóticos; pero en unos casos fueron incapaces de ver que ahí había algo más que “ruido” o errores de medición y cálculo, y en otros sus directores de tesis les aconsejaron no publicar sus conclusiones para no caer en el ridículo. Hizo falta esperar unos ochenta años tras la solución de Poincaré al problema de los n cuerpos para comprender que había algo que se nos estaba escapando. Hizo falta además la llegada de algo de lo que Poincaré había carecido: los ordenadores.

Edward Norton Lorenz

En la década de los 60, un matemático y meteorólogo estadounidense llamado Edward Lorenz (a la derecha) estaba trabajando con modelos matemáticos del tiempo meteorológico. En esa época ya empezaban a utilizarse ordenadores para predecir el tiempo utilizando ecuaciones bastante complejas: en el caso de Lorenz, disponía de doce ecuaciones interrelacionadas. Comparado con alguna de las máquinas descritas por Macluskey en su impagable historia de un viejo informático, el ordenador LGP-30 de Lorenz era una modernidad — tenía un teclado en vez de usar tarjetas perforadas, y los bits de salida se leían en una especie de pantalla (digo “especie” porque no era una auténtica pantalla, la puedes ver en el enlace anterior si tienes curiosidad). Este monstruo de la computación tenía nade menos que unos 16 KB de memoria y pesaba tan sólo unos cuatrocientos kilos.

Entonces, igual que ahora, predecir el tiempo requería una capacidad de proceso tremenda, de modo que cuando se iniciaba un proceso de este tipo no se obtenía el resultado en unos minutos. Por tanto, el programa de Lorenz iba imprimiendo los resultados intermedios según iba calculando las cosas; por ejemplo, si iba a predecir el tiempo de mañana utilizando incrementos de tiempo de media hora, iba imprimiendo los datos predichos cada media hora hasta llegar al final. Así, si algo iba mal, al menos tenías los datos intermedios en papel.

El caso es que Lorenz necesitaba retomar un conjunto de datos determinado; pero empezar desde el principio otra vez era un rollo, por lo mucho que tardaba la máquina en recorrer todo el tiempo de la predicción. Afortunadamente, en la ejecución anterior el programa había ido imprimiendo los datos intermedios (hombre, no es que fuera cuestión de suerte — el propio Lorenz lo había ordenado así a propósito). Lo único que necesitaba hacer el estadounidense era introducir los datos intermedios y reducir así el tiempo de ejecución, puesto que la primera parte del trabajo ya estaba hecha. En el caso de una variable determinada, por ejemplo, el valor que mostraba el papel era 0,506. De modo que Lorenz puso esos datos en el ordenador como datos iniciales y dejó el programa corriendo y prediciendo el tiempo a partir de ese punto.

Pero, para su sorpresa, el resultado final no era el mismo que la ejecución anterior. No sólo eso: no era ni siquiera parecido. El sistema había evolucionado de una manera absolutamente diferente a la anterior, ¡a pesar de tener los mismos datos iniciales! Sólo que, naturalmente, no se trataba de los mismos datos. El ordenador calculaba las variables con seis decimales, pero para ahorrar espacio en el papel, Lorenz los imprimía con tres decimales. El dato intermedio introducido por el meteorólogo, aunque en el papel había salido como 0,506, había sido en la memoria 0,506127, como Lorenz observó cuando imprimió los datos intermedios con más detalle. De ahí que la solución fuera distinta al descartar los decimales adicionales.

Gráficas de Edward Lorenz
Gráficas del programa de predicción de Lorenz para 0,506 y 0,506127: observa la divergencia en el tiempo.

Sin embargo, la sorpresa seguía estando allí: ¿cómo era posible que en un tiempo de predicción relativamente corto, con una diferencia en el cuarto decimal, la solución fuera completamente distinta de la anterior? Es más: un dato inicial con cuatro cifras decimales era algo, en la práctica, casi inalcanzable. Por lo tanto, si este comportamiento de las ecuaciones era consistente, en la práctica sería imposible predecir el tiempo meteorológico más allá de tiempos muy cortos, cuando las dos soluciones aún no han divergido mucho.

En 1963, Lorenz publicó sus conclusiones en Deterministic Nonperiodic Flow (Flujo no periódico determinista). Hablando con sus colegas, uno de ellos dijo que, de ser esto cierto, el batir de las alas de una gaviota en un lugar determinado podría cambiar el tiempo meteorológico para siempre. Posteriormente, supongo que para ser más poético, Lorenz habló del batir de las alas de una mariposa originando un tornado (y eso es lo que ha perdurado en la imaginación colectiva), pero a mí me gusta más la gaviota.

Sin embargo, como decía al principio, realmente no era algo nuevo: era, una vez más, el problema de Poincaré. Un sistema en el que cada parte afecta a las demás, de modo que las ecuaciones predicen estados diferentes con condiciones iniciales distintas que, a su vez, producen estados más y más diferentes… De hecho, el genial Ray Bradbury ya había escrito, en la década de los 50, una historia corta llamada A Sound of Thunder (El ruido de un trueno), que te recomiendo que leas si no la conoces, en la que la muerte de una simple mariposa en el pasado modifica los acontecimientos futuros.

No, no es una idea nueva: evidentemente, cambiar las condiciones iniciales de un sistema cambia el futuro del sistema. De hecho, hay gente que cree que eso es lo que significa que un sistema sea caótico, y por tanto llega a la conclusión de que es una perogrullada. Sin embargo, hay mucho más que eso — pero hacía falta más tiempo para darnos cuenta. Los ordenadores fueron nuestros aliados en esto, ya que eran capaces de realizar cálculos iterados una infinidad de veces en un tiempo muy corto y con paciencia cibernética.

El propio Lorenz desarrolló otros sistemas de ecuaciones de este tipo pero más simples que el que, por casualidad, lo había llevado a descubrir este extraño comportamiento y que, como decía antes, tenía doce ecuaciones y doce incógnitas. Uno de ellos es tan famoso que tiene nombre propio y recibe el nombre de sistema de Lorenz:

\frac{dx}{dt} = \sigma (y - x)

\frac{dy}{dt} = x (\rho - z) - y

\frac{dz}{dt} = xy - \beta z

Se trata de un sistema de tres ecuaciones diferenciales con tres incógnitas, que modela de una manera muy simple la convección atmosférica. Es un sistema tan simple en su planteamiento, tan determinista en su corazón y tan endiabladamente complejo en sus predicciones que lo hemos venido usando constantemente para entender estas cosas; además, el tener tres incógnitas nos permite “ver” la evolución del sistema de un modo muy intuitivo; luego hablaremos más de este asunto.

Robert May

Unos años después de que Lorenz publicase su artículo, otro científico estaba trabajando en un problema en apariencia completamente diferente del tiempo meteorológico: las poblaciones de animales. Se trataba del australiano Robert May –que, entre otros rimbombantes títulos como Barón May de Oxford y miembro de la Orden del Mérito, ha sido Presidente de la Royal Society, que no es moco de pavo–. En la década de los 70, May (a la derecha) estaba estudiando la evolución de poblaciones de animales, tratando de simularla con ecuaciones relativamente simples.

Entre los muchos factores que determinan la evolución de una población, como el número de individuos iniciales, la cantidad de comida disponible, el nivel de depredación, etc., May jugó con el número de hijos por individuo para observar su efecto sobre el comportamiento poblacional. Y al hacerlo se topó con algo sorprendente, como me imagino que ya te olías que iba a suceder.

Si el número de hijos por individuo era pequeño, la población desaparecía (algo nada sorprendente). Si lo iba aumentando, la población no desaparecía sino que se estabilizaba en un valor determinado, que dependía de la comida disponible y ese número de hijos, pero no dependía en absoluto del número inicial de individuos; una vez más, algo nada sorprendente.

Sin embargo, cuando el número medio de hijos superaba un determinado valor, la población se ponía a oscilar entre dos valores fijos, que dependían precisamente de ese factor y se separaban uno de otro cuando aumentaban los hijos por individuo. Y al superar otro valor determinado, la oscilación era entre cuatro valores de población, luego ocho, luego dieciséis… y en un intervalor muy pequeño de aumento del factor de hijos por individuo, esta especie de “cascada” desembocaba en una miríada de bifurcaciones y un sistema muy raro.

A partir de ese valor crítico, las condiciones iniciales sí afectaban a la evolución del sistema. No sólo eso: al igual que en el caso del tiempo meteorológico de Lorenz, variando ligeramente el número inicial de individuos, el sistema iba evolucionando de manera cada vez más diferente hasta que, en unas cuantas generaciones, cualquier parecido con la solución anterior era pura coincidencia. De hecho, el comportamiento era prácticamente idéntico al del problema de Lorenz: ambos sistemas, aunque de orígenes diferentes, presentaban un comportamiento particular y propio de muchos otros sistemas de la Naturaleza.

Aquí es donde tengo que hacer un paréntesis y una invitación.

En la primera versión de este artículo entré bastante en detalle en las ecuaciones y su comportamiento en el ejemplo de May, con un programita en javascript que predecía la población a lo largo del tiempo y cosas así. El resultado fue un monstruo de artículo infumable, sobre todo teniendo en cuenta que esta serie intenta “picotear” por los asuntos, no entrar de lleno en ellos y menos aún en matemáticas bastante densas. Por lo tanto, he eliminado del artículo la parte más abstracta y matemática para centrarme en las cuestiones generales e históricas: no hace falta leer aquello para entender la importancia y el fundamento de la teoría del caos.

Aquí viene, sin embargo, la invitación: si tras leer este artículo tienes ganas de entrar más en detalle en el asunto, jugar con un caso concreto y ver juntos cómo surge el caos de un sistema aparentemente muy simple, la semana que viene publicaremos esa otra parte eliminada de aquí dentro de la serie Alienígenas matemáticos, que se presta más a artículos largos y abstractos. Como digo, se trata de algo absolutamente opcional, y aquel artículo requerirá de mucho más esfuerzo que éste para entenderlo. Así cada uno puede ir tan lejos como lo lleve su interés.

Hecho este paréntesis, seguimos con la programación habitual…

En diciembre de 1977 ya se habían encontrado los suficientes ejemplos de este tipo de sistemas (el flujo turbulento de aire, la mezcla de distintas tintas en un vaso de agua, la evolución del precio de las cosas o la bolsa…) como para que la comunidad científica realizase un simposio sobre ellos. Estos sistemas se denominaron sistemas caóticos, un término mencionado por primera vez en un artículo de James A. Yorke y Tien-Yien Li titulado Period Three Implies Chaos (El período tres implica caos) en 1975.

Al simposio del 77 acudieron, entre otros, Lorenz, May y Yorke. A partir de entonces se empezó a desarrollar una auténtica teoría del caos que describiese las propiedades de estos sistemas –que resultaron ser muchísimos–. Se trata siempre de sistemas con las siguientes características básicas (dichas mal y pronto, como siempre):

  • Son sistemas determinísticos. En otras palabras, dadas unas condiciones iniciales determinadas siempre se obtiene el mismo resultado. En el caso del tiempo meteorológico, unas condiciones idénticas a otras producen un tiempo idéntico. Un sistema puramente aleatorio, por tanto, no es caótico, y los sistemas caóticos no son la consecuencia de la incertidumbre cuántica ni nada parecido.

  • Son sistemas muy sensibles a las condiciones iniciales, de modo que un cambio ligero en esas condiciones supone un cambio enorme, a largo plazo, en el comportamiento del sistema: el ejemplo del batir de alas de la gaviota (o de la más poética mariposa).

  • Son sistemas que, modificando ligeramente las condiciones iniciales, alcanzan prácticamente cualquier estado válido dentro del sistema. En el caso de las poblaciones de May, por ejemplo, si en un ecosistema de comportamiento caótico pueden existir un máximo de un millón de individuos e inicialmente tenemos diez, modificando ligeramente ese número (a nueve, a once), tarde o temprano tendremos casi cualquier otro valor de población entre 1 y 1 000 000.

A menudo se hace énfasis en la segunda característica, pero quiero dejar claro que el hecho de que un sistema sea sensible a las condiciones iniciales no lo convierte en caótico. Como ejemplo, imagina que pensamos en un sistema simple, como el dinero en un banco a interés compuesto. Si tú empiezas con una cantidad de dinero y yo con otra, al cabo del tiempo la diferencia entre lo que tienes tú y lo que tengo yo se irá haciendo cada vez mayor y, pasado el suficiente tiempo, se hará arbitrariamente grande — enorme sensibilidad a las condiciones iniciales. Sin embargo, no es un sistema caótico.

La tercera condición es clave, porque es la que no cumple, por ejemplo, el sistema de dinero en el banco de arriba. En un sistema caótico suele haber un intervalo válido de estados (como los individuos en una población determinada con un límite definido por la comida disponible) y, al cabo del tiempo, dos estados iniciales muy diferentes acabarán produciendo estados intermedios muy parecidos. Puedes pensar en ello con este otro ejemplo: si en un vaso echas una gota de tinta roja en un sitio y otra de tinta azul en otro, y luego remueves el vaso, al cabo del tiempo cada gotita de tinta roja habrá recorrido prácticamente todo el vaso, lo mismo que cada gotita de tinta azul, de modo que al final todo acaba mezclado.

Observa la especie de simetría entre la segunda y la tercera característica (sí, sí, soy repetitivo pero es la clave de todo): la segunda asegura que, si dos estados no son exactamente iguales, terminarán en algún momento como cosas muy diferentes. Pero la tercera afirma que, aunque dos estados sean muy diferentes, terminarán en algún momento como cosas muy parecidas. No puedes quedarte quieto, pero tampoco puedes escaparte.

La relevancia de la teoría del caos resultó ser extraordinaria porque, al final, ha resultado que casi todos los sistemas complejos presentan un comportamiento caótico, y nuestra incapacidad frecuente para conocer con total exactitud el estado inicial de los sistemas que estudiamos hace que, aunque sean determinísticos, nos sea imposible predecir lo que va a pasar más allá de cierto punto. Entre los sistemas complejos en los que hemos encontrado comportamiento caótico se hallan cosas aparentemente tan distintas como los terremotos, la bolsa, las llamaradas solares, la evolución biológica o la dinámica de fluidos.

Además, las sorpresas aún no se habían terminado. El propio Lorenz se dio cuenta de que, a pesar de la impredecibilidad de los sistemas caóticos, en muchos de ellos el estado del sistema parecía acercarse a algunos estados “privilegiados” y permanecer cercano a esos estados de ahí en adelante. Era como si algunos valores de las variables del sistema fueran muy “atractivos” y el sistema acabase acercándose a ellos tarde o temprano — algo predecible dentro de lo impredecible.

Esas regiones “atractivas” se denominaron, por tanto, atractores. Esto sucede, desde luego, en sistemas no caóticos: por ejemplo, si empiezo con 10€ y cada día me quitas 1€ hasta dejarme sin nada, el estado de mi sistema tiene un atractor clarísimo: 0€. Una vez llego allí, nunca podré salir. Lo curioso no era eso, sino que sistemas aparentemente “locos”, como el propio sistema de Lorenz que hemos mencionado antes, también tengan atractores.

Más curioso aún es que, si un sistema está cerca de un atractor y modificamos las variables ligeramente, no suele alejarse de él o, si lo hace, vuelve cerca posteriormente: una vez más, orden dentro del caos, como si la Naturaleza quisiera llevarnos la contraria ahora que habíamos aceptado el caos como algo sensible a las condiciones iniciales. Y hay otra cosa más curiosa todavía, pero que tengo que mostrar visualmente para que se haga obvia.

A menudo se dibuja la evolución de un sistema representando el estado como un punto cuyas coordenadas son las variables del sistema (en una línea si hay una variable, una superficie si hay dos, un volumen si hay tres…). Al hacerlo, puede visualizarse cómo evoluciona el sistema mirando cómo se mueve ese punto a lo largo del tiempo. Esto no funciona, claro, para un sistema de doce variables diferentes, porque no podemos visualizar cosas en doce dimensiones, pero afortunadamente hay sistemas caóticos, como el de Lorenz, que son de tres variables.

Así, al visualizarlo se tiene un punto que se mueve en tres dimensiones. En el vídeo se empieza con tres estados prácticamente idénticos, lo cual, gráficamente, significa que son tres puntos prácticamente coincidentes, tanto que durante un tiempo es imposible discernir que hay tres puntos y no uno. Pero, según avanzamos, vemos la divergencia propia del caos… y, al mismo tiempo, el orden propio del caos. Estás viendo el atractor de Lorenz, y debería ser evidente por qué se llama así:

Hay muchos tipos diferentes de atractores y, como digo, muchos sistemas dinámicos los tienen, caóticos o no. Pero muy pronto, cuando los matemáticos como Lorenz se dedicaron a determinar, no ya la existencia de un atractor en un sistema caótico determinado como el del vídeo, sino la forma del atractor, se toparon con la sorpresa mayúscula de verdad. Algunos, como digo, eran una línea (una dimensión); otros, cosas como un círculo o un cuadrado, es decir, una superficie (dos simensiones), otros eran volúmenes de tres dimensiones, como el interior de una esfera.

Y otros no tenían una dimensión entera.

Dicho de otra manera, algunos atractores son fractales, y la presencia de atractores fractales es una de las cosas más interesantes de muchos sistemas caóticos. Cuando un atractor tiene dimensión fractal, por cierto, se denomina atractor extraño. El atractor de Lorenz es seguramente el atractor extraño más famoso. Si los fractales te dejan confuso, tal vez te ayude –o te desquicie– leer el artículo en dos partes que les dedicamos al hablar de la baldosa del palacio de Nholeghoveck.

El caso es que seguimos aprendiendo cosas sobre los sistemas caóticos continuamente: date cuenta de lo reciente del nacimiento de esta disciplina, ¡está en pañales! Según pasa el tiempo y, sobre todo, según mejoran nuestros ordenadores, vamos descubriendo cosas nuevas. La clave de la cuestión está en el cambio de paradigma que se produjo gracias a Lorenz, May y similares.

Antes de ellos era como si muchas veces fuéramos “contra corriente”: pensábamos que la Naturaleza debía ser simple. Cuando un sistema no lo era, nos daba rabia, e intentábamos reducirlo a algo simple, resistiéndonos a aceptar su complejidad. Pero, como hizo Poincaré con el problema de los n cuerpos, la solución era dejar de luchar sólo en ese sentido — en cambio, debíamos estudiar la propia complejidad, para comprender lo que puede comprenderse de ella. No quiere decir que dejemos de buscar la simplicidad; quiere decir que, al mismo tiempo que hacemos eso, debemos abrazar la complejidad y aprender también de ella.

En primer lugar, provistos de una teoría del caos, aunque sea incipiente, somos capaces de reconocer sistemas caóticos en vez de simplemente quejarnos de que no se comporten “bien”. Un buen ejemplo de esto es el flujo turbulento de líquidos y gases; cuando los fluidos se mueven bastante despacio, las ecuaciones que describen ese movimiento son predecibles y estupendas. Sin embargo, cuando el flujo se vuelve turbulento, la cosa es mucho más difícil de estudiar: puntos que empiezan muy próximos pueden terminar muy alejados uno de otro, mientras que puntos muy lejanos en un principio, o regiones separadas del fluido, pueden mezclarse rápidamente. ¿Te suena esto?

Flujo turbulento en un fluido
Flujo turbulento en un fluido (C. Fukushima y J. Westerweel, Universidad Técnica de Delft/ Creative Commons Attribution 3.0 License).

Antes de empezar a comprender los sistemas caóticos, nuestras herramientas para estudiar el flujo turbulento y similares eran bastante más limitadas. Tras la elaboración de la teoría del caos, un matemático holandés –Floris Takens– y un físico-matemático belga –David Ruelle– la emplearon para superar la teoría anterior y mejorar enormemente nuestra comprensión del flujo turbulento. Fueron Ruelle y Takens, por cierto, los creadores del término atractor extraño. Para rizar el rizo de las conexiones, en 2006 David Ruelle recibió el Premio Henri Poincaré por sus aportaciones a la física matemática.

Hoy en día podemos reconocer las propiedades de un sistema caótico y, por tanto, aunque seamos incapaces de predecir lo que la propia naturaleza caótica del sistema nos impide, sí podemos hacer cosas como encontrar atractores, con lo que sabemos hacia dónde se dirigirá el sistema tarde o temprano, dentro de ciertos límites. Una vez más, la humildad nos permite llegar un poco más lejos que antes.

Pero, además, comprender el comportamiento caótico no significa rendirse a él, ni dar la batalla por perdida: en muchos casos no queremos un comportamiento caótico. Ahí es donde conocer a nuestro “enemigo” es nuestra mejor herramienta — ya tenemos estudios que determinan, una vez un sistema está en una órbita inestable alrededor de un atractor, cómo debemos perturbarlo constantemente, con pequeños “empujoncitos”, de modo que nunca salga de esa órbita. Si empieza a desviarse un poco por la derecha, por ejemplo –lo que quiera que sea que “la derecha” significa en las variables del sistema–, producimos una minúscula modificación hacia la izquierda, de modo que el estado se va autocorrigiendo y nunca se sale de donde queremos que esté.

Es posible, por cierto, que todo esto de la impredecibilidad, la sensibilidad a las condiciones iniciales y demás te recuerde a la mecánica cuántica; ambas se parecen en la necesidad de la aceptación de que no podemos predecir exactamente lo que va a suceder, pero los sistemas caóticos son clásicos: no hace falta dualidad onda-corpúsculo ni principio de incertidumbre para producir caos. Eso sí, dado que en un sistema caótico no tenemos certidumbres sino más bien probabilidades, sí nos estamos valiendo de nuestro conocimiento de la cuántica –irónicamente bastante más antiguo que el del caos– para ser capaces de estudiar eficazmente los sistemas caóticos.

El caso es que gracias –entre otros, claro– a Poincaré, Lorenz y May, nos hicimos más humildes y más versátiles a la hora de observar el Universo. Y pasamos de ignorar a científicos que apuntaban a la existencia del caos a darles honores como, en el caso de Robert May, la Presidencia de la Royal Society. Pero hablando de la Royal Society…



No-determinismo en llamada por valor, en una disciplina de tipos à la lógica lineal


La semana pasada hemos enviado un nuevo paper para revisión con Giulio Manzonetto y Michele Pagani. El título en inglés "Call-by-value non-determinism in a linear logic type discipline" (perdón por mi mala traducción al español). En este paper presentamos un sistema de tipos intersección, basado en lógica lineal, para un cálculo no determinista, donde si M y N son términos del cálculo, la elección no determinista entre ellos se expresa como M+N o M||N, dependiendo el tipo de convergencia que queramos: cada vez que hay una elección no determinista M+N, el sistema puede elegir entre uno o el otro. Con que uno de ambos converja, diremos que el término es convergente. En cambio, una elección no determinista M||N demandará que ambos términos converjan, por lo cual se continuará el cálculo hasta el final con ambas opciones en paralelo. Esto hace que, por ejemplo, si M y N son máquinas que toman un argumento R, la máquina no determinista M||N aplicada al argumento R se expresará mediante la reducción (M||N)R → MR||NR. En cambio, (M+N)R→MR o NR, ya que no nos interesan ambas opciones.

En la literatura estas dos opciones se conocen como may-convergence (+) y must-convergence (||). En este trabajo presentamos un sistema de tipos tal un término es convergente si y sólo si es tipable. A modo de ejemplo, si M es convergente: M+Y, donde Y→Y (o sea, Y no es convergente), tiene tipo en nuestro sistema, ya que el término M+Y puede converger ("may converge").

Más aún, el sistema de tipos cuenta con una medida, la cual nos da una cota de la cantidad de pasos necesarios para la convergencia (la cual es exacta si ciertas condiciones de minimalidad en el tipado se cumplen).

Estos modelos no deterministas se pueden considerar como una versión simplificada de un modelo cuántico, donde sólo interesa estudiar la superposición, sin tener en cuenta las amplitudes.

El borrador del paper estará disponible en mi página (mientras siga siendo sólo un borrador): dmp12.pdf.


Grafeno, el material del futuro


NANOTECNOLOGÍA | Es transparente, flexible y extraordinariamente resistente Grafeno, el material del futuro Una lámina de grafeno sobre un soporte. | Justy García Koch. Teresa Guerrero | Madrid Actualizado domingo 15/04/2012 Es transparente, flexible, extraordinariamente resistente,[...]

Entusiasta del Project Glass de Google implementa su propia versión

Las gafas de realidad de aumentada que Google está probando, conocidas como Project Glass y que el propio Sergey Brin se puso hace poco en un evento, podrían revolucionar la forma que tenemos de relacionarnos con los servicios de disponibles en la red y con nuestro entorno. Gracias a este sistema, podremos combinar la información del contexto que nos rodea con la que hay disponible en la red y, por ejemplo, consultar horarios de transporte público, consultar mapas o incidencias en el transporte, a la vez que solicitamos una videollamada o mandamos anotar una nueva cita en nuestra agenda con un comando de voz. Esta visión de lo que podemos hacer con Project Glass ha fascinado a un desarrollador británico que ha decidido implementar su propia versión de este proyecto de Google.

Project Glass se presentó en con un vídeo que mostraba una prueba de concepto de las distintas cosas que podríamos hacer con estas gafas y los servicios disponibles asociados al sistema. Inspirándose en el vídeo, Will Powell, CEO de una empresa que se dedica a desarrollos software en el ámbito de la realidad aumentada, decidió implementar su propia versión de las gafas de Google utilizando dispositivos disponibles en el mercado.

Armado de unas gafas Vuzix (que emulan una pantalla de cine de gran tamaño y también se pueden usar en el ámbito de la realidad aumentada complementándolas con unas cámaras), un par de cámaras de alta definición (en su caso fabricadas por Microsoft), unos auriculares con microfono incorporado y un software de reconocimiento de voz (Dragon Naturally Speaking de Nuance), Powell implementó su peculiar versión de Project Glass con la que podía enviar comandos de voz (al igual que en el vídeo de presentación). Con unir “las piezas” no fue suficiente, el autor desarrolló una aplicación usando Adobe Air que emula la interfaz de usuario de Project Glass y que, además, se puede controlar por voz para solicitar los datos del tiempo (que se obtienen del servicio ofrecido por Yahoo!).

diy_glass_ar

Si bien el sistema depende de un computador externo, Powell ha desarrollado un interfaz muy similar a la que Google mostró y si tenemos en cuenta que Project Glass se presentó hace apenas una semana, tiene mucho mérito lo que ha hecho este desarrollador.

Imagen: Makezine





Stuxnet lo introdujo un agente doble iraní a través de una memoria USB

Así lo asegura el último informe de ISSSource a través de varios funcionarios de inteligencia indicando que el gusano Stuxnet utilizado para sabotear el programa nuclear de Irán fue introducido por un doble agente que trabajaba para Israel. El agente habría utilizado una memoria USB para infectar las máquinas de las instalaciones nucleares de Natanz.

Una vez infectada la memoria, Stuxnet fue capaz de infiltrarse en la red de Natanz cuando un usuario abría Windows. Según el reporte, se trataría de una operación encubierta de Israel y Estados Unidos para sabotear y transmitir la infección del gusano en los equipos más vulnerables del sistema iraní.

Los datos también indican que el agente doble era probablemente un miembro de un grupo disidente iraní, posiblemente del grupo Mujahedeen-e-Khalq, grupo del que se cree que estaría detrás de los asesinatos de los principales científicos nucleares iraníes a instancias del Mossad.

Y es que Stuxnet se ha conformado como una de las armas cibernéticas más avanzadas de todos los tiempos. Su actividad permitía explotar hasta cuatro vulnerabilidad desconocidas en Windows y se aprovechaba de las debilidades del software Simatic WinCC Step7, el mismo utilizado para controlar la maquinaria en el interior de Natanz. De esta forma interrumpió el programa nuclear mediante el sabotaje en las máquinas para enriquecer uranio.

Un gusano diseñado para propagarse ampliamente y programado para ejecutar su carga maliciosa con una lista muy selectiva de sus metas.