física y universo 30 un universo de unos y ceros · pdf fileejemplo del ahorcado, el...

4
POR OCTAVI PLANELLS Vivimos en la era de la información, dicen. Cierto es que, ante los avances tecnológicos sin precedentes de las últimas décadas, quién no está informado, es porque no quiere. Nos encontramos hoy en pleno subidón comunicativo y el fenómeno suma y sigue, pero si nos ceñimos a la información como concepto científico, ésta no es algo exclusivo de nuestra era, ni tan sólo de la humanidad o de los seres vivos. La información existe en todos los rincones del universo con algún atisbo de organización desde el mismo momento del Big Bang pero sólo ahora nos hemos dado cuenta de ello y hemos aprendido a medirla. F Í S I C A Y U N I V E R S O La revolución de las tecnologías de la información y la comunicación (TIC) no se puede concebir sin la teoría de la información, publicada en 1949 por Claude Shannon, ingeniero y matemático de los Laboratorios Bell, en Nueva York, y Warren Weaver, también matemático y, por aquel entonces, director de la División de Ciencias Naturales de la Fundación Rockefeller, en PROCESAR INFORMACIÓN NO ES ALGO EXCLUSIVO DE CEREBROS Y ORDENADORES: VIVIMOS EN UNA GRAN COMPUTADORA LLAMADA UNIVERSO QUE ALMACENA BITS A TODAS LAS ESCALAS UN UNIVERSO DE UNOS Y CEROS 30

Upload: phungnhi

Post on 03-Feb-2018

220 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: física y uNivErso 30 uN uNivErso dE uNos y cEros · PDF fileejemplo del ahorcado, el mensaje sería la palabra que queremos desvelar, las letras, los elementos ... el cerebro animal

Por octavi PlaNElls

Vivimos en la era de la información, dicen. Cierto es que, ante los avances tecnológicos sin precedentes de las últimas décadas, quién no está informado, es porque no quiere. Nos encontramos hoy en pleno subidón comunicativo y el fenómeno suma y sigue, pero

si nos ceñimos a la información como concepto científico, ésta no es algo exclusivo de nuestra era, ni tan sólo de la humanidad o de los seres vivos. La información existe en todos los rincones del universo con algún atisbo de organización desde el mismo momento del Big Bang pero sólo ahora nos hemos dado cuenta de ello y hemos aprendido a medirla.

f í s i c a y u N i v E r s o

La revolución de las tecnologías de la información y la comunicación (TIC) no se puede concebir sin la teoría de la información, publicada en 1949 por Claude Shannon, ingeniero y matemático de los Laboratorios Bell, en Nueva York, y Warren Weaver, también matemático y, por aquel entonces, director de la División de Ciencias Naturales de la fundación Rockefeller, en

ProcEsar iNformaciÓN No Es alGo EXclusivo dE cErEbros y ordENadorEs: vivimos EN uNa GraN comPutadora llamada uNivErso quE almacENa bits a todas las Escalas

uN

uNivErso dE uNos y

cEros

30

Page 2: física y uNivErso 30 uN uNivErso dE uNos y cEros · PDF fileejemplo del ahorcado, el mensaje sería la palabra que queremos desvelar, las letras, los elementos ... el cerebro animal

31

u N u N i v E r s o d E u N o s y c E r o s

la misma ciudad. La teoría surge de la necesidad de transmitir datos de un modo eficaz, rápido y seguro, en un momento en el que los avances de disciplinas como la cibernética, la informática o las telecomunicaciones iban a la par. Shannon y Weaver desarrollaron una metodología que permite medir la cantidad de información contenida en cualquier mensaje. La información se convirtió en ese momento en magnitud física y, como tal, gozaría de una unidad fundamental para medirla, el bit, que ofrece dos alternativas contrapuestas: uno-cero, sí-no, verdadero-falso, presencia-ausencia, lleno-vacío, on-off (ver cuadro p. 33).

PERO ¿QUÉ ES LA INfORMACIóN?

La idea de información se basa en analizar cuán probable es un mensaje de entre un cierto número de alternativas. Veamos un ejemplo de cómo se puede medir la información de esta forma. Imaginemos una partida del juego del ahorcado. El jugador menos aventajado es quien canta la primera letra. Esto es debido a que, al comienzo, el término que hay que desvelar se baraja entre un amplio abanico de posibilidades, que incluyen todas las palabras del diccionario con el mismo número de letras que la que se ha de adivinar.

Pero tras cada carácter que se acierta, los jugadores van disponiendo de algo más de información a la que aferrarse; existe una mayor certeza de dar con ese término puesto que el número de opciones posibles va menguando. Así, la información ayuda a reducir la incertidumbre y a tomar decisiones; proporciona conocimientos del presente para actuar en el futuro.

Científicos de diferentes disciplinas, como las neurociencias, la lógica, la lingüística o la biología molecular, han trasladado la teoría a su área de estudio. Una de las claves del éxito del método reside en su

Page 3: física y uNivErso 30 uN uNivErso dE uNos y cEros · PDF fileejemplo del ahorcado, el mensaje sería la palabra que queremos desvelar, las letras, los elementos ... el cerebro animal

32

f í s i c a y u N i v E r s o

simplicidad, puesto que el cálculo de la información se reduce a un problema de probabilidades no muy complicado. La información promedio de un mensaje se determina a partir de la probabilidad de que cada elemento que lo compone, sea elegido de entre un conjunto de alternativas. Siguiendo con el ejemplo del ahorcado, el mensaje sería la palabra que queremos desvelar, las letras, los elementos que componen dicho mensaje, y el conjunto de alternativas posible, el abecedario. Pero lo que ha favorecido el uso de este modelo en otros ámbitos ha sido, sobre todo, que permite estimar los bits de información de un mensaje con independencia de su significado, una libertad semántica con la que se ha dado rienda suelta al concepto de información para extrapolarlo a otros terrenos.

TODO LO QUE CONTIENE ORDEN, CONTIENE INfORMACIóN

Cuantificar los bits que contiene cualquier cosa es factible. Tras su definición científica, la información ha sido interpretada como una medida de la complejidad de los sistemas físicos. Para el biólogo Tom Stonier, autor de La información y la estructura interna del universo (Hacer, 1996), esta magnitud “está intrínsicamente relacionada con la organización de un determinado sistema y se puede describir como la causa eficiente del estado de organización de éste”. Así, algo compuesto de elementos variopintos con relaciones enrevesadas entre ellos guarda más información que un conjunto de cosas monótonas y simples.

Sin embargo, a pesar del ritmo frenético con que avanzan la informática, la computación o las telecomunicaciones, los ingenieros todavía no han logrado hacer que las máquinas gestionen los bits de un modo tan eficiente como lo hace la materia gris. Lloyd señala que “un ordenador se vuelve más rápido en cuanto a capacidad de procesamiento, pero eso no se traduce necesariamente en una mayor sofisticación”. Un animal sencillo como puede ser una babosa marina, equipada con un cerebro de unos pocos miles de neuronas, es capaz de desempeñar todas las funciones complejas propias de su biología: se nutre, se reproduce, se desplaza, se defiende... Ésta es la sofisticación a la que se refiere el experto del MIT. En este sentido, apuesta que todavía faltan miles —¡o millones!— de años para que los ordenadores procesen información de un modo tan sofisticado como lo hacen las neuronas. En cambio, el cerebro animal es el fruto de un proceso evolutivo que ha durado un par de eones, durante los cuales, el sistema nervioso se ha ido depurando, mientras que el cerebro de nuestras máquinas apenas cumple 60 años de mejoras.

LA VIDA ES INfORMACIóN

Y no sólo el sistema nervioso procesa información en la naturaleza; todas las células cuentan también con sus microprocesadores. El ADN almacena información que la maquinaria celular se encarga de procesar e interpretar para fabricar proteínas, los componentes funcionales y

Por ejemplo, en la década de los 60, el ecólogo Ramon Margalef usó el índice de Shannon-Weaver para estudiar la biodiversidad de los ecosistemas. Aquellos más diversos, con numerosas especies representadas equitativamente, son los que registran mayor información. Para el ecólogo “la información se expresa por un mecanismo y almacenar información, significa incrementar la complejidad de este”. Dicho de otro modo, los seres vivos y sus relaciones han ganado y almacenado información a medida que se han ido volviendo más y más complejos a lo largo de los millones de años de evolución.

EL LARGO CAMINO HACIA LO SOfISTICADO

El desarrollo de la computación tras la teoría de la información ha posibilitado a los ordenadores almacenar y procesar más y más bits en menos y menos espacio. Seth Lloyd, investigador del Massachussets Institute of Technology (MIT) señala que “cada año y medio, el tamaño de los componentes informáticos se reduce a la mitad”. El científico asegura que como resultado de este fenómeno, los ordenadores actuales pueden procesar cientos de miles de millones de bits por segundo, cantidad equiparable a la de nuestro cerebro.

LA INfORMACIóN AYUDA A REDUCIR

LA INCERTIDUMBRE Y A TOMAR

DECISIONES

Page 4: física y uNivErso 30 uN uNivErso dE uNos y cEros · PDF fileejemplo del ahorcado, el mensaje sería la palabra que queremos desvelar, las letras, los elementos ... el cerebro animal

33

estructurales de la célula. La vida se fundamenta en el ADN y, por lo tanto, en el procesado de los bits almacenados en dicha molécula. Por tanto, la evolución de los seres vivos encuentra su raíz en el hecho de que la información va cambiando, mutando, con el paso de las generaciones. Asimismo, las células comparten datos con el resto del organismo al cual pertenecen, los procesan y actúan según el tipo de estímulo que reciban del otro lado de su membrana.

El ADN, como cualquier otra molécula, se compone de átomos que guardan una relación y un orden. Es por este motivo por el que contienen información. Pero

es que incluso la historia se repite en los niveles de organización inferiores, puesto que los átomos están formados por piezas aun menores agrupadas también de acuerdo con un orden. En el mundo no vivo, moléculas, átomos y partículas subatómicas también almacenan y procesan información.

En realidad, hace unos 13.700 millones de años, tras aquella gran explosión, el primer rudimento de universo empezó ya a procesar información. La enorme densidad de las partículas y la colosal temperatura a la que éstas estaban sometidas en el momento del Big Bang provocaron un número infinito de colisiones,

cada una de las cuales registraba bits de información en constante crecimiento, al mismo ritmo que la materia se fue creando y el orden se fue imponiendo. El universo donde vivimos no es más que una gran computadora que registra y procesa información. “Billones de billones de billones de billones de billones de billones de billones de billones de bits de información”, apunta Lloyd.

u N u N i v E r s o d E u N o s y c E r o s

El byte empleado en informática contiene 8 bits y contempla 256 estados. Para el almacenamiento, procesado y transmisión de datos en informática, a cada uno de estos estados se le asigna un carácter (una letra, un número, un símbolo).

1 bYTE= 8 bITS = 256 ESTADOS (28)

2 bITS = 4 ESTADOS (22)

3 bITS = 8 ESTADOS (23)

1 bIT = 2 ESTADOS (21)

El bit es la unidad más pequeña con que se puede medir la información. Algo que proporciona un bit de información, como un interruptor, se puede encontrar en dos estados complementarios: encendido o apagado.

Dos interruptores proporcionan dos bits y cuatro estados posibles.

Un tercer bit duplica las alternativas posibles a ocho.

LA INfORMACIóN DE UN bIT

PArA sAbEr MÁs:La información y la estructura interna del universo. Tom Stonier (Hacer, 1996). Descodificando el universo: cómo la nueva ciencia de la información nos explica todo el cosmos, desde nuestro cerebro hasta los agujeros negros. Charles Seife (Ellago Ediciones, 2009).