martes, 22 de septiembre de 2009

La información es Física... y viceversa

En la actualidad vivimos rodeados de la "tecnología de la información": computadoras portátiles, teléfonos celulares, calculadoras, reproductores de música y muchas otras cosas más. Pero todos estos artilugios informáticos son objetos físicos y por lo mismo están sujetos a las leyes de la Física y, por lo mismo, todo lo que con ellos podamos hacer no es otra cosa sino procesos físicos. El punto de encuentro entre la "información" y la Física es interesantísimo, mutuamente beneficioso y aún poco explorado. Todo el tiempo vemos surgir nuevas tecnologías basadas en nuevos fenómenos fisicos, por ejemplo los discos duros de estado sólido están basados en la llamada "magnetoresistencia gigante" recientemente descubierta, pero también los conceptos como información y cómputo han tenido una enorme influencia en la Física al punto de que se intentan formular modelos del universo en el que la "información" juega un papel crucial.



Matematizando la información y la computación


El concepto de información no es, de ninguna manera, algo sencillo de precisar. Todos tenemos una idea de qué quiere uno decir con "tener información acerca de algo" pero para poder incorporar el concepto de "información" en la ciencia hace falta escribirlo en su lenguaje natural: las matemáticas. El problema de cuantificar la información contenida en un mensaje no es trivial y depende de muchas cosas como por ejemplo el ruido del canal de comunicación, la información previa que se tenga a la mano, las probabilidades relativas de los distintos mensajes y los métodos de compresión de datos. El primero en dar una descripción matemática satisfactoria de la información fue C. E. Shannon en 1948, con su teoría se pueden analizar y comparar distintas formas de transmitir la información aún cuando hay ruido presente al igual que la efectividad de los métodos de compresión de datos y muchas otras cosas más igual de divertidas.




Otro paso importante en el desarrollo de la computación fue formalizar (¡matemáticas!) el concepto de computadora, esto lo hizo Turing en 1936. Su trabajo consistió en escribir de forma abstracta lo que entendemos por "computadora" y lo que ésta puede hacer, a este abstracción se le llama máquina de Turing. Su trabajo también contribuyó enormemente a que se pudiera desarrollar lo que hoy en día conocemos como "ciencias de la computacion". Teniendo un marco matemático completo sobre el cuál trabajar se pudieron abordar cuestiones, por ejemplo, sobre la "computabilidad" y la "dificultad" de ciertos problemas. (Algunos de estos problemas aún hoy continúan sin resolverse, por ejemplo el problema P=NP)



La información es Física



Hasta este punto, la computación y la información son ideas abstractas sin ninguna relación palpable con la realidad física, es decir, este marco matemático no distingue si mandamos mensajes por medio de pulsos eléctricos, luz o con el humo de una fogata; tampoco cambia nada si sumamos 2 dígitos por medio de transistores, bulbos o pelotas de billar. A este respecto David Deutsch, uno de los pioneros de la computación cuántica, comenta:


The theory of computation has traditionally been studied almost entirely in the abstract, as a topic in pure mathematics. This is to miss the point of it. Computers are physical objects, and computations are physical processes. What computers can or cannot compute is determined by the laws of physics alone, and not by pure mathematics.


La información y el procesamiento de la información son procesos físicos regidos por las leyes de la Física, por lo que entender al nivel más fundamental el poder latente de la computación no puede ser otra cosa sino entender los límites y posibilidades que surgen de las leyes de la Física. Un ejemplo es el de R. Landauer en 1961, a él le interesó el problema del calor generado por las computadoras al operar(pág.17) y de si es posible, al menos en principio, hacer cómputo sin disipar calor. Es un problema nada sencillo de abordar porque busca relacionar el procesamiento de información (concepto abstracto) con la disipación de calor (proceso físico). Sorprendentemente halló una relación muy concreta: por cada "operación lógica irreversible" (i.e. que no se pueda deshacer) hay inevitablemente disipación de calor. Un ejemplo de una operación de este tipo es borrar un bit de información; lo que el Principio de Landauer nos dice es que siempre que borremos un bit vamos a disipar al menos una cierta cantidad de calor en el medio ambiente. El calor que se disipa no es gratis, esa energía viene de algún lado: en las computadoras comunes es energía eléctrica. Lo interesante de este principio es que impone un límite físico a las computadoras. Actualmente las computadoras consumen mucha más energía que el mínimo que aquí se impone y por eso es que se buscan desarrollar nuevas tecnologías con las que se consuma menos energía pero el límite existe y nunca podremos borrar un bit gratis, inevitablemente hay que pagar el precio.


Este límite surge de un área de la Física llamada mecánica estadística, pero hay más ejemplos provenientes de otras áreas: la relatividad especial de Einstein impone un límite a la velocidad con la cual se transmite la información y la mecánica cuántica nos dice cuánta información es posible codificar en un sistema físico dado (límite de Holevo).


La Física es información


La Física no sólo ha sido útil para estudiar la información y su procesamiento sino que se ha visto enormemente beneficiada al hacerlo. Un ejemplo se puede encontrar en el trabajo de Shannon, que ya citamos antes, el cual al buscar una "medida" de la incertidumbre que tenemos al recibir un mensaje se encontró con una fórmula matemática idéntica a la que se usa para describir en mecánica estadística un concepto llamado entropía. Sólo por esta superflua similitud Shannon bautizó a su fórmula entropía de la información sin sospechar que ambas están íntimamente relacionadas. En el contexto de la mecánica estadística la entropía es una cantidad que sirve para calcular energías, presiones, volúmenes, trabajo y una serie de cantidades físicas tangibles pero gracias al trabajo de Shannon a la entropía se le pudo relacionar con la idea de desinformación. A diferencia de los ejemplos anteriores, aquí no es que la Física imponga un límite a las computadoras sino que se halla que el concepto de información ayuda a la descripción física del fenómeno. Se han encontrado ya muchos ejemplos en los cuales la idea de información es extremadamente útil (indispensable tal vez) para entender procesos físicos. A este respecto John A. Wheeler nos comenta


I think of my lifetime in physics as divided into three periods. In the first period, [...], I was in the grip of the idea that everything is particles. [...] I call my second period everything is fields [...] Now I m in the grip of a new vision, that everything is information... the more I see possible fundamental roles for logic and information as the the bedrock of physical theory...



En 1973 Jacob D. Beckenstein publicó un artículo mostrando cómo se puede asociar al área de un agujero negro una cierta entropía. Pero ya dijimos que la entropía está relacionada con la información, es decir, con esto podemos conectar los conceptos tan dispares de agujero negro e información. Pensando en esto mismo fue que Wheeler hizo una representación de un agujero negro como una esfera tapizada de unos y ceros, la idea detrás de todo esto es que, entender la forma en que interactúa un agujero negro con lo demás es lo mismo que entender la información que contiene y cómo la procesa.


Apenas la semana pasada el premio nobel Gerard t' Hooft hizo público un artículo en el que habla sobre un par de nuevas ideas en la complicada teoría de cuerdas proponiendo un nuevo modelo sobre el universo, sin embargo él mismo reconoce que es un modelo incompleto y que una forma de completarlo es incorporando el concepto de información dentro de la teoría. En las conclusiones del último párrafo t' Hooft comenta "[...]this leaves us with the problem of defining what exactly information is, and how it links with the equations of motion. " Las ideas que surgen de este tipo de análisis refuerzan cada vez más las opiniones similares a la de este escritor en un blog del MIT: "It may be no understatement to say that the biggest breakthrough in physics must come in information theory rather than quantum mechanics or relativity."


Andrés G. Saravia
Mérida, Yucatán





Este texto también lo puede encontrar en soft-tzalan y en el el blog de Soluciones Integrales en Computación

martes, 1 de septiembre de 2009

Sordomudos

- ¡Oye! ¿qué decías?
- ¿Qué cosa?
- Está muy fuerte la música ¿verdad?
- ¡No te oigo nada!
- Ajá, bueno, luego me dices
- ¡Salud!
- ¡Salud!

En ese momento fue cuando se me ocurrió: sería genial saber el lenguaje de los sordomudos. Por supuesto eso ayudaría a que nos comunicáramos con aquellos que desafortunadamente no tienen el regalo del sentido del oído pero piensen en lo mucho que nos ayudaría a todos. Para empezar, aquel día mi amigo y yo hubiéramos podido tener, tal vez, una grata conversación a sólo un par de días de que él se fuera a vivir a Bélgica por algunos años.

¿Les ha pasado algo similar? Después de estar fuera de la ciudad de mi infancia por varios meses regreso con ganas de ver a mis amigos de toda la vida para platicar con ellos, ver cómo están, qué proyectos tienen, saber si siguen con la novia que yo les conocí o si ya se repusieron de su último desamor. También llego con ansias de platicarles mis aventuras y vivencias, de cómo es la vida por estas latitudes y qué es lo que he podido aprender. Así que, después de anunciarles animosamente mi llegada, nos ponemos de acuerdo para ir, como es la costumbre, a uno de los bares o antros de moda en donde, con el gusto del reencuentro, podemos gritarnos unos a otros sin escuchar una sola palabra para después sólo sonreírnos y acabar cada quien concentrado en su propia cerveza hasta que llegue la hora de despedirse y congratularnos unos a otros por la estupenda noche que hemos pasado.

¡Qué distinto sería si supiéramos lenguaje de señas! Así no tendríamos que sacrificar nuestras urbanas costumbres nocturnas para poder tener una conversación significativa. La música estridente no sería ningún problema (después de algunas cervezas, sin embargo, puede que tampoco pudiéramos hablar bien en señas, pero bueno, algo es algo). Cuántas veces he estado a unas palmas de muchas de las personas que más aprecio sin poder obtener de ellas ni siquiera una respuesta completa a un "¿cómo estás?". Mucho menos poder decirles "te he extrañado", "espero que te esté yendo bien en tu trabajo", "¿cómo está tu familia?" o "tal día vi algo que me hizo recordarte".

Hago un llamado formal a todos los que lean esto: APRENDAMOS LENGUAJE DE SEÑAS. Estoy seguro que mejoraremos enormemente nuestra comunicación como sociedad. Podremos, no sólo conversar en los lugares de entretenimiento nocturno, sino también en las aceras de las grandes avenidas, dentro del transporte público, con cualquiera que esté caminando con su iPod, a través de las ventanillas del coche o con nuestros compañeros de trabajo sin tener que pasar la enorme molestia de quitarnos nuestros audífonos.

Aunque, a veces, me pregunto si este no será otro ejemplo del ejercicio de nuestra libertad para limitarnos. Tal vez lo que pasa es que, en realidad, no queremos ni oir ni hablar.

En la playa

Un día cualquiera en la playa de Progreso (Yucatán) estaban algunos niños jugando con las gaviotas. La escena, prosaica para la mayoría, a mi me pareció extraordinaria.

(2008)