códigos - libro wikipedia

148
PDF generado usando el kit de herramientas de fuente abierta mwlib. Ver http://code.pediapress.com/ para mayor información. PDF generated at: Sun, 30 Dec 2012 13:09:39 UTC códigos monografico

Upload: enriquearaujoviedo

Post on 06-Aug-2015

138 views

Category:

Documents


3 download

TRANSCRIPT

Page 1: códigos - libro wikipedia

PDF generado usando el kit de herramientas de fuente abierta mwlib. Ver http://code.pediapress.com/ para mayor información.PDF generated at: Sun, 30 Dec 2012 13:09:39 UTC

códigosmonografico

Page 2: códigos - libro wikipedia

ContenidosArtículosintroducción 1

Código 1Codificación 2Codificación (memoria) 2Cognición 14Información 16Teoría de la información 21Entropía (información) 27Información mutua 33Variable aleatoria 36Incertidumbre (metrología) 41Incertidumbre de calibración 42Tolerancia de fabricación 43Precisión 44Exactitud 45Reproducibilidad 45Entropía 46Segundo principio de la termodinámica 51Constante de Boltzmann 59Neguentropía 60Ciclo de Carnot 63Máquina de Carnot 68Energía de Gibbs 69Código morse 71Algoritmo de Huffman 74Deflación (algoritmo) 77Entropía condicional 78Teorema de Bayes 79Cifrado (criptografía) 80Criptoanálisis 84Distancia de unicidad 93Ratio de entropía 99Proceso estocástico 103

Page 3: códigos - libro wikipedia

Distribución de probabilidad 105Aleatoriedad 108Teoría de la computabilidad 113Teoría de la complejidad computacional 115Teoría de la computación 122Ciencias de la computación 124Clase de complejidad 130Problema de decisión 132Problema computacional 133Código genético 134

ReferenciasFuentes y contribuyentes del artículo 142Fuentes de imagen, Licencias y contribuyentes 144

Licencias de artículosLicencia 145

Page 4: códigos - libro wikipedia

1

introducción

CódigoCódigo puede referirse a:• El siguiente término en teoría de la comunicación:

• El código de comunicación que se usa.• El siguiente término en criptografía:

• El código, indica un método de ocultar el significado de los mensajes.•• Los siguientes términos informáticos:

• El código binario, código fundamental en el que se basan los ordenadores, el más simple pues solo consta dedos elementos (0) y (1) que combinados de distintas maneras como impulsos eléctricos ponen las bases para lainformática (véase codificación digital).

• El código fuente, en programación, el texto escrito en un lenguaje de programación que ha de ser compilado ointerpretado para ejecutarse en una computadora.

• El código objeto, en programación, es el código que resulta de la compilación del código fuente• El software de código libre, en programación, es el software cuyo contenido puede ser utilizado libremente.• Un código alfanumérico.

•• El siguiente término matemático:• La teoría de códigos, disciplina teórica que trata los problemas de codificación de la información.

•• Los siguientes términos de derecho:• Un código, en derecho, el conjunto unitario, ordenado y sistematizado de normas: Código Civil, Código Penal

(véase codificación jurídica).• Un código de conducta, término que a su vez tiene varias acepciones.

•• Los siguientes términos de ciencias naturales:• El código genético, en biología es la regla de correspondencia entre la serie de nucleótidos en que se basan los

ácidos nucleicos y las series de aminoácidos (polipéptidos) en que se basan las proteínas.•• Los siguientes libros:

• El código y otras leyes del ciberespacio, un libro escrito por Lawrence Lessig.• El código 2.0, una actualización bajo licencia Creative Commons del libro El código y otras leyes del

ciberespacio escrito por Lawrence Lessig.•• Los siguientes sistemas de codificación:

• Código postal.• Código INEGI.• Código INSEE.• Código morse.• Código de aeropuertos de IATA.• Código de aeropuertos de OACI.

Page 5: códigos - libro wikipedia

Codificación 2

CodificaciónEl término codificación es tanto la acción de codificar, es decir, de transformar un contenido a un código, así comolos sistemas de códigos derivados de aquélla. Puede referirse a:• Codificación de caracteres.• Codificación jurídica.•• Codificación (memoria)

Codificación (memoria)La memoria es la capacidad para codificar, almacenar y recuperar información. Los recuerdos confieren a unorganismo la capacidad de aprender y adaptarse a partir de las experiencias previas, así como establecer relacionessignificativas. La codificación permite convertir los ítems percibidos en constructos que pueden ser almacenados enel cerebro y evocados posteriormente desde la memoria a corto plazo o la memoria a largo plazo. Por su parte, lamemoria de trabajo almacena información con vistas a su uso o manipulación inmediata.

Historia

Hermann Ebbinghaus

Una de las primeras figuras representativas del estudio del proceso decodificación memorística es Hermann Ebbinghaus (1850–1909).Ebbinghaus fue un pionero en el campo de la investigación de lamemoria. Utilizándose a sí mismo como sujeto de estudio, investigó elmodo en que la información se aprende y olvida mediante la repeticiónde listas de sílabas sin sentido.[1] Estos experimentos le llevaron asugerir su célebre curva de aprendizaje.[1] Ebbinghaus encontró que laslistas de elementos significativos que permitían realizar asociacionesentre sí resultaban más fáciles de memorizar y recordar posteriormente.Estos resultados supusieron la base de la psicología experimental de lamemoria y otros procesos mentales que se desarrollaría en los añosvenideros.

Durante los primeros años del siglo XX se realizaron los primerosprogresos en la investigación de la memoria. Ivan Pavlov comenzó susinvestigaciones referentes al condicionamiento clásico. Sus estudiosdemostraron la posibilidad de crear relaciones semánticas entre dos elementos no relacionados. En 1932, Bartlettpropuso la idea del esquema mental. Su modelo proponía que la codificación de nueva información dependía de suconsistencia con el conocimiento adquirido con anterioridad (es decir, aquellas informaciones que encajaban en elsistema de esquemas mentales preexistentes eran más sencillas de asimilar, memorizar y recordar).[2] Este modelotambién sugería que la información que no se encuentra presente en el momento de la codificación podría serañadida a la memoria siempre y cuando estuviera basada en el conocimiento esquemático acerca del mundo.[2] deeste modo, la codificación siempre estaría influida por los conocimientos previos del sujeto.

La Psicología de la Gestalt puso de manifiesto el hecho de que los recuerdos de la información codificada solían serdiferentes de los estímulos que los habían producido. Además, los recuerdos también se veían afectados por elcontexto en el que los estímulos habían sido presentados.Con los avances alcanzados en el ámbito de la tecnología emergió el campo de la neuropsicología, y con él, las teorías acerca de las bases biológicas del proceso de codificación. En el año 1949, Donald Hebb trabajó en el estudio

Page 6: códigos - libro wikipedia

Codificación (memoria) 3

de la relación entre neurociencia y codificación memorística, estableciendo que la codificación tenía lugar a medidaque se establecía nuevas conexiones entre neuronas a través de su activación conjunta repetida.En los años 50 y 60, las teorías del procesamiento de la información realizaron una aproximación al estudio de lamemoria basado en los modelos computacionales, a partir de la idea inicial de que la codificación era el procesomediante el cual la información se introduce en la memoria. En 1956, George Armitage Miller escribió un célebreartículo en el que establecía que la capacidad del almacén de la memoria a corto plazo estaba limitada a 7 ítems +/-2, titulado The Magical Number Seven, Plus or Minus Two. Esta cifra fue posteriormente matizada, cuando losestudios referentes al chunking establecieron que esos siete +/- 2 elementos también podían consistir en «paquetes» oagrupaciones significativas de información, y no solamente a ítems individuales.En 1974, Alan Baddeley y Graham Hitch propusieron su modelo de memoria de trabajo, consistente en un sistemaejecutivo central y dos subsistemas esclavos: la agenda visoespacial y el bucle fonológico. Este sistema sería elencargado de codificar la información en la memoria. En el año 2000, Baddeley añadió el "buffer" episódico.[3] Porsu parte, Endel Tulving en 1983 propuso la idea de la codificación específica, en la que el contexto cobraba de nuevouna gran importancia en el proceso de codificación.

TiposLas codificaciones visual, acústica y semántica son las que tienen lugar con mayor frecuencia, aunque tambiénexisten otros tipos.

Codificación visualLa codificación visual es el proceso de codificación de imágenes e información sensorial de tipo visual. Lainformación sensorial visual se almacena temporalmente en la memoria icónica[3] y en la memoria de trabajo antesde ser codificada de forma permanente en el almacén a largo plazo.[4][5] El modelo de Baddeley de la memoria detrabajo establece que la información visual es almacenada en la agenda visoespacial.[3]

La amígdala es una estructura compleja que desempeña un importante papel en la codificación visual. Recibeinformación visual (así como de otras modalidades sensoriales) y codifica los valores positivos o negativos de losestímulos condicionados.[6]

Codificación acústicaLa codificación acústica o auditiva es el proceso de codificación de sonidos, palabras y todo tipo de informaciónentrante de tipo auditivo para su almacenamiento y posterior recuperación. De acuerdo con Baddeley, elprocesamiento de la información auditiva se ve facilitado por el bucle fonológico, que permite incorporar lainformación recibida al registro de memoria ecoica para ser repetida subvocalmente con el objetivo de facilitar elrecuerdo.[3] Los estudios realizados al respecto indican que los factores semánticos, léxicos y fonológicos interactúancon la memoria verbal de trabajo. El efecto de similitud fonológica se ve atenuado por el grado de concreción de laspalabras. Esto pone de manifiesto que la puesta en marcha de la memoria verbal de trabajo no depende únicamentede las representaciones fonológicas y acústicas, sino que también interviene la representación lingüística.[7] Lo queaún no se ha establecido con precisión es el hecho de si las representaciones lingüísticas se activan en el momentodel recuerdo, o más bien desempeñan un papel más fundamental en el proceso de codificación y preservación.[7]

Page 7: códigos - libro wikipedia

Codificación (memoria) 4

Otras modalidades sensorialesLa codificación táctil es el procesamiento y codificación de las sensaciones a través del tacto. Las neuronas de lacorteza somatosensorial primaria (S1) reaccionan ante la estimulación vibrotáctil mediante su activaciónsincronizada con cada serie de vibraciones.[8] Las sensaciones olfativas y gustativas también pueden ser codificadas.Por lo general, la codificación que tiene lugar en el almacén de memoria a corto plazo se realiza a un nivel acústico,más que a nivel semántico.

Codificación semánticaLa codificación semántica es el procesamiento y la codificación del input sensorial que tiene un significadoparticular o puede aplicarse a un contexto específico. Pueden aplicarse diversas estrategias para facilitar lacodificación, como el chunking o las técnicas mnemotécnicas, lo que en algunos casos posibilita una mayorprofundidad en el procesamiento, lo que repercute en una optimización del proceso de recuperación.Se ha encontrado que las palabras que se aprenden mediante un procesamiento semántico (profundo) se recuerdanmás fácilmente que las palabras procesadas de un modo no semántico (más superficial), según los tiempos dereacción observados.[9] Las áreas de Brodmann 45, 46 y 47 (la corteza prefrontal inferior izquierda) muestra unaactivación significativamente superior bajo condiciones de codificación semántica, en comparación con la activaciónmostrada durante una tarea que implique codificación no semántica, independientemente de la dificultad de la tareade codificación no semántica planteada. Esta misma área, que muestra un incremento en la activación durante lasfases iniciales de codificación semántica, muestra una reducción de su activación si la tarea de codificaciónsemántica se vuelve repetitiva (usando las mismas palabras). Esto sugiere que este descenso en la activaciónprovocado por la repetición es un proceso que tiene lugar específicamente cuando las palabras son reprocesadas deforma semántica, pero no cuando son reprocesadas de forma no semántica.[9]

Potenciación a largo plazoLa codificación es un proceso biológico que comienza con la percepción. El conjunto de sensaciones percibidas seprocesa en el hipocampo, donde se fusionan en una única experiencia individual.[10] El hipocampo es el responsablede analizar estos inputs y tomar la decisión de incorporarlos o no a la memoria a largo plazo. Las diferentes fuentesde información son almacenadas en diversas áreas cerebrales en función de sus características. No obstante, aún nose conoce con exactitud el modo en que estas piezas de información son identificadas y recordadasposteriormente.[10]

En la codificación interviene una combinación de procesos químicos y eléctricos. Los neurotransmisores se liberancuando un pulso eléctrico atraviesa la sinapsis que sirve de conexión entre células nerviosas. Las extensionesdendríticas ramificadas reciben estos impulsos. El fenómeno denominado «potenciación a largo plazo» es el procesopor el que se produce el reforzamiento de una conexión sináptica mediante el incremento del número de señalestransmitidas entre dos neuronas. Estas células también son capaces de organizarse en grupos, especializándose en elprocesamiento de diferentes clases de información. Así, a medida que se producen nuevas experiencias, el cerebro vacreando más conexiones en lo que podría entenderse como un proceso de «recableado». El cerebro se organiza yreorganiza a sí mismo en respuesta a las nuevas experiencias, creando nuevos recuerdos a resultas de la experiencia,la educación o el entrenamiento.[10] En consecuencia, el funcionamiento cerebral es un reflejo del modo en que elcerebro está organizado.[10] Esta capacidad para reorganizarse es una característica especialmente importante paraaquellos casos en los que se producen daños localizados en áreas cerebrales específicas. El fenómeno por el que lasneuronas cerebrales son capaces de reorganizar su modo de conectarse entre sí se denomina plasticidad neuronal. Noexiste un conocimiento exacto de si los estímulos que no llegan a ser recordados son filtrados durante la fasesensorial, o después de que el cerebro haya examinado su significatividad.[10]

Page 8: códigos - libro wikipedia

Codificación (memoria) 5

Actividad cerebralLa tomografía por emisión de positrones (TEP) muestra una activación hipocampal anatómica y funcionalmenteconsistente durante los procesos de codificación y evocación episódicas. La activación de la región hipocampalasociada a la codificación de la memoria episódica tiene lugar en la zona rostral, mientras que la activaciónhipocampal asociada al proceso de recuperación de recuerdos episódicos se localiza en la zona caudal.[11] A esto sele conoce como el «Modelo de Codificación/Recuperación Hipocampal» o modelo HIPER, por sus siglas en inglés(Hippocampal Encoding/Retrieval model).Existe un estudio mediante TEP en el que se midió el flujo sanguíneo cerebral durante la codificación yreconocimiento de caras, en participantes jóvenes y mayores. El grupo de participantes jóvenes mostró unincremento en el flujo sanguíneo en el hipocampo derecho, así como en las cortezas temporal y prefrontal izquierdasdurante la codificación. Durante la fase de reconocimiento, el incremento en el flujo sanguíneo se produjo en lascortezas parietal y prefrontal derechas.[12] El grupo de participantes de más edad no mostraron una activaciónsignificativa de las áreas que sí se revelaron importantes con el grupo de jóvenes durante la fase de codificación,aunque sí mostraron una activación prefrontal derecha durante el reconocimiento.[12] De este modo, puede concluirseque a medida que aumenta la edad, el fracaso en el recuerdo puede ser consecuencia de una codificación estimularinadecuada, como se demuestra con la falta de activación hipocampal y cortical observada en este grupo durante lafase de codificación.[12]

Algunos hallazgos recientes de estudios centrados en pacientes con trastorno de estrés post-traumático muestran quelos transmisores aminoácidos glutamato y GABA, están estrechamente relacionados con los procesos de registro dememoria factual (de hechos), y sugieren que los neurotransmisores norepinefrina y serotonina están involucrados enla codificación de la memoria emocional.[13]

Perspectiva molecularAún no se ha llegado a poder comprender completamente el proceso de codificación, pero algunos avances hanarrojado luz sobre la naturaleza de sus mecanismos. La codificación comienza con una situación novedosa, con laque el cerebro interactúa y extrae conclusiones a partir de los resultados de esta interacción. Es sabido que estasexperiencias de aprendizaje desencadenan una cascada de sucesos moleculares que llevan a la formación derecuerdos.[14] Estos cambios incluyen la modificación de las sinapsis neuronales, la modificación de proteínas, lacreación de nuevas sinapsis, la activación de la expresión génica y nuevas síntesis de proteínas. En cualquier caso, lacodificación puede producirse a diferentes niveles. El primer paso es la formación de la memoria a corto plazo, traslo que se produce el traslado de la información almacenada en este almacén a la memoria a largo plazo, para finalizarcon el proceso de consolidación de estos recuerdos.[15]

Plasticidad sinápticaLa plasticidad sináptica es la capacidad del cerebro para fortalecer, debilitar, destruir y crear sinapsis neuronales, ysupone la base del aprendizaje. Estas diferenciaciones moleculares identifican e indican la fuerza asociativa de cadaconexión neuronal. El efecto de una experiencia de aprendizaje depende de su contenido. Aquellas reacciones que seven favorecidas son reforzadas, y aquellas que se estiman desfavorables, se ven debilitadas. Esto demuestra que lasposibles modificaciones sinápticas pueden operar por separado, con el objetivo de ser capaces de realizar cambioscon el paso del tiempo, en función de la situación concreta del organismo en un momento determinado. A cortoplazo, los cambios sinápticos pueden consistir en el debilitamiento o el fortalecimiento de una conexión mediante lamodificación de las proteínas preexistentes, lo que conduce a una modificación en la fuerza asociativa de la conexiónsináptica. A largo plazo, pueden establecerse nuevas conexiones completas, o bien puede incermentarse o reducirseel número de sinapsis de una conexión preexistente.[15]

Page 9: códigos - libro wikipedia

Codificación (memoria) 6

El proceso de codificaciónUn cambio significativo bioquímico a corto plazo es la modificación covalente de las proteínas preexistentes paramodificar las conexiones sinápticas que ya se encuentran activas. Esto permite que los datos sean transferidos a lamemoria a corto plazo sin que se produzca una consolidación para su almacenaje permanente. A partir de este punto,puede seleccionarse una asociación o un recuerdo específico para trasladarlo a la memoria a largo plazo, o bienpuede ser olvidado mediante la debilitación de las conexiones sinápticas asociadas. El proceso de cambio de lamemoria a corto pazo a la memoria a largo plazo implica tanto a la memoria implícita como a la memoria explícita.Este proceso está regulado por una serie de restricciones inhibitorias, principalmente el balance entre la fosforilacióny la desfosforilación proteínicas.[15] Por último, los cambios a largo plazo son los que posibilitan la consolidación delos recuerdos. Estos cambios incluyen la síntesis de nuevas proteínas, la formación de nuevas conexiones sinápticas,y finalmente, la activación de la expresión génica de acuerdo con la nueva configuración neuronal.[16]

Se ha descubierto que el proceso de codificación está parcialmente mediado por las interneuronas serotoninérgicas,concretamente en lo referente a la sensibilización, de modo que el bloqueo de estas interneuronas imposibilitacompletamente esta sensibilización. No obstante, aún no se han identificado con precisión las implicaciones últimasde estos descubrimientos.Además, se sabe que el proceso de aprendizaje conlleva la participación de diversos transmisores modulatorios en elproceso de la consolidación de recuerdos. Estos transmisores provocan que el núcleo inicie los procesos necesariospara generar el crecimiento neuronal y el recuerdo a largo plazo, marque las sinapsis específicas para la puesta enmarcha de los procesos a largo plazo, y regule la síntesis local de proteínas. También parece influir incluso en losprocesos atencionales requeridos para la formación y la recuperación de los recuerdos.

Aspectos genéticos del proceso de codificaciónLa memoria humana, incluido el proceso de codificación, se considera un rasgo hereditario controlado por más de ungen. De hecho, los estudios realizados con gemelos sugieren que las diferencias genéticas son las responsables del50% de la varianza observada en tareas de memoria.[14] Las proteínas identificadas en estudios con animales hansido asociadas directamente con una cascada de reacciones moleculares que conducen a la formación de recuerdos, yun número considerable de estas proteínas son codificadas por genes que también se expresan en humanos. Dehecho, las variaciones en estos genes parecen estar asociadas a las diferencias de capacidad memorística, y han sidoidentificadas en recientes estudios genéticos realizados con seres humanos.[14]

Procesos complementariosLa idea de que el cerebro se encuentra dividido en dos redes de procesamiento complementarias (tareas positivas ytareas negativas) se ha convertido en los últimos tiempos en un área de interés creciente. La red de tareas positivastrabaja con los procesos orientados hacia el exterior, mientras que la red de tareas negativas trabaja con los procesosorientados hacia el interior. Las investigaciones indican que estas redes de trabajo no son exclusivas, y algunas tareasse solapan en su activación. Un estudio realizado en 2009 muestra que puede existir una codificación adecuada y unaactividad de detección de estímulos novedosos por parte de la red de tareas positivas que se solapan de formasignificativa, lo que sugiere la existencia de una asociación común de los procesos orientados hacia el exterior.[17]

Este estudio también muestra que los errores de codificación y los éxitos en la recuperación comparten unsolapamiento significativo en la red de tareas negativas, lo que indica una asociación común de los procesosorientados hacia el interior.[17] Por último, un bajo nivel de solapamiento entre actividades exitosas de codificación yde evocación, y entre errores de codificación y actividad de detección de novedades (respectivamente) indican laexistencia de modalidades opuestas de procesamiento.[17] En resumen; las redes de tareas positivas y las de tareasnegativas pueden mostrar asociaciones comunes durante el desarrollo de diferentes tareas.

Page 10: códigos - libro wikipedia

Codificación (memoria) 7

Profundidad del procesamientoEl modo en que la información se recuerda se ve influido por los distintos niveles de procesamiento aplicados. Estosniveles pueden ilustrarse mediante la distinción entre repetición de mantenimiento y repetición elaborativa.

Repetición de mantenimiento y repetición elaborativaLa repetición de mantenimiento es una forma de procesamiento superficial que implica focalizar la atención en uncontenido sin pensar en su significado o su asociación con otros contenidos. Por ejemplo, la repetición subvocal deun número de teléfono para mantenerlo en la memoria hasta poder apuntarlo en un papel es una forma de repeticiónde mantenimiento. Por el contrario, la repetición elaborativa o relacional es una forma más profunda deprocesamiento que implica pensar en el significado de los contenidos, así como establecer asociaciones entre elcontenido, las experiencias pasadas y el resto de contenidos relacionados que estén siendo objeto de atención.Utilizando el ejemplo del número de teléfono, podría favorecerse un procesamiento más profundo relacionando esosnúmeros con fechas que sean significativas a nivel personal, como la fecha de cumpleaños de algún pariente o amigo(experiencias pasadas), o hallando algún patrón en el orden de los dígitos que pueda ayudar a recordarlos después.[18]

El nivel de procesamiento más profundo que tiene lugar con la repetición elaborativa la hace más eficaz que lasimple repetición de mantenimiento en la tarea de crear nuevos recuerdos.[] Esto se ha visto demostrado con el hechode la falta de conocimiento mostrada por las personas acerca de los detalles relacionados con los objetos de la vidacotidiana. Por ejemplo, un estudio realizado con participantes norteamericanos consistía en preguntar acerca de laorientación de la cara que aparecía en una de las monedas de su país (de un céntimo de dólar), encontrándose quesolo unas pocas personas eran capaces de recordarlo con cierto grado de certeza. A pesar de tratarse de un detalle quese observa muy a menudo, no se recuerda porque no existe la necesidad de memorizarlo, ya que el color es lacaracterística que mejor distingue a esa moneda del resto.[19] La ineficacia de la repetición de mantenimiento en lacreación de recuerdos también se ha puesto de manifiesto en la comprobación de la falta de recuerdo de la genteacerca de la disposición de los números del 0 al 9 en calculadoras y teléfonos.[20]

La repetición de mantenimiento se ha revelado de gran importancia en el aprendizaje, pero sus efectos sólo puedenser demostrados mediante el uso de métodos indirectos como las tareas de decisión léxica,[21] o de completarpalabras[22] utilizadas en la evaluación del aprendizaje implícito. Por lo general, los aprendizajes realizados medianterepetición de mantenimiento no se ponen de manifiesto cuando la memoria está siendo evaluada de forma directa oexplícita, con preguntas como «¿Es esta la palabra que se le ha mostrado anteriormente?»

Intención de aprenderAlgunos estudios han mostrado que la intención de aprender no tiene efectos directos en la codificación derecuerdos. Por el contrario, la codificación depende del grado de profundidad con que cada ítem es codificado,aspecto que puede verse afectado por la intención de que haya aprendizaje, pero no de forma exclusiva. Esto es, laexistencia de una intención de aprender puede llevar a desarrollar estrategias de aprendizaje más efectivas, y enconsecuencia, a realizar una mejor codificación, pero un aprendizaje adquirido de forma incidental (sin intención deaprender) en el que se procese y aprenda la información de forma efectiva, será codificado con la misma eficacia quesi se hubiera aprendido de forma intencional.[23]

Los efectos de la repetición elaborativa o el procesamiento profundo pueden atribuirse al número de conexionesrealizadas durante el proceso de codificación que incrementan el número de rutas disponibles para la recuperación dela información.[24]

Page 11: códigos - libro wikipedia

Codificación (memoria) 8

Codificación óptimaPuede entenderse que la organización es la clave para lograr una memorización superior. Como se ha desarrollado enla sección anterior sobre los niveles del procesamiento, las conexiones que se establecen entre el ítem a recordar yotros ítems a recordar, las experiencias previas y el contexto, generan nuevas rutas de recuperación para el ítem arecordar, facilitando la evocación. Estas conexiones imponen una organización en el ítem a recordar, haciéndolo másevocable.[25]

MnemotecniasLas estrategias mnemotécnicas son un ejemplo de cómo establecer una organización en un conjunto de ítems ayuda asu memorización y posterior recuerdo. En ausencia de ningún tipo de organización aparente en un grupo de datos,puede imponerse esta organización alcanzándose así los mismos resultados de mejora del recuerdo. Un ejemplo deestrategia mnemónica relacionada con la imposición de una organización es el sistema peg-palabra, consistente enestablecer una asociación entre los ítems a recordar y una lista de elementos fácilmente recordables. Otro ejemplo demecanismo mnemotécnico utilizado habitualmente es recordar la primera letra de cada palabra a recordar y formarun acrónimo. De esta forma, las estrategias mnemotécnicas no solo favorecen la codificación de ítems específicos,sino también su orden.Para conceptos más complejos, la comprensión es la clave del recuerdo. En un estudio realizado por Wisemann yNeisser en 1974, se les presentaba a los participantes una fotografía (la imagen de un dálmata en estilo puntillista, loque dificultaba la visión de la imagen).[26] Se encontró que el recuerdo de la imagen mejoraba cuando losparticipantes ciomprendían el significado de lo que estaban viendo.

ChunkingOtra forma por la que la comprensión del material puede ayudar a su recuerdo es reducir la cantidad de material arecordar mediante un proceso de chunking. Consiste en organizar los elementos en grupos significativos. Estasagrupaciones de elementos son recordados como una unidad, en lugar de como elementos separados. Las palabraspueden considerarse un ejemplo de chunking, en donde en lugar de percibir letras aisladas, percibimos y recordamossu agrupación significativa: la palabra. El uso de esta estrategia incrementa el número de ítems que somos capaces derecordar mediante la formación de paquetes significativos en los que muchos ítems relacionados se almacenan comosi se tratara de una unidad.

Aprendizaje dependiente de estadoPara una codificación óptima, no solo se establecen conexiones entre los ítems y las experiencias pasadas, sinotambién con el estado interno de la persona que codifica y la situación en la que se encuentra inmerso. Lasconexiones que se establecen entre el estado interno o el contexto y los ítems a recordar son dependientes del estado.En un estudio de 1975 realizado por Godden y Baddeley se mostraron los efectos del aprendizaje dependiente delestado. Los participantes eran saltadores de trampolín, a los que se les pidió que memorizaran una información bajodos condiciones diferentes: bajo el agua, y al borde de la piscina. Se encontró que cuando la prueba de recuerdo seefectuaba en las mismas condiciones en las que se había producido el aprendizaje, los resultados eran mejores. Estoes, aquellos participantes que habían memorizado los datos bajo el agua, recordaban con más facilidad cuando seencontraban bajo el agua que cuando se encontraban en tierra. Se había establecido una asociación entre el contextode aprendizaje y el material a recordar, por lo que en el momento del recuerdo, el contexto servía de indicio para larecuperación.[27] También se han encontrado resultados similares con la presentación de determinados olores durantela codificación.[28]

No obstante, a pesar de que el ambiente externo en el momento de la codificación es importante para crear múltiples rutas para el recuerdo posterior, otros estudios han demostrado que la simple creación del mismo estado interno que se tenía en el momento del aprendizaje es suficiente para servir como pista de recuperación.[29] Así, recrear el mismo

Page 12: códigos - libro wikipedia

Codificación (memoria) 9

estado mental que se tenía durante el proceso de codificación puede ayudar al recuerdo del mismo modo que puedeayudar el hecho de encontrarse en el mismo contexto. Este fenómeno, denominado efecto de restablecimiento delcontexto, fue demostrado por Fisher y Craik en 1977, cuando emparejaron las pistas de recuperación con el modo enque la información había sido memorizada.[30]

Especificidad en la codificación

Una figura ambigua, que puede ser percibidacomo una copa o como dos perfiles enfrentados.

El contexto del aprendizaje influye en el modo en que la informaciónse codifica.[31] Por ejemplo, Kanisha, en el año 1979, realizó unestudio en el que mostró a los particpantes una imagen que podríainterpretarse como una copa blanca sobre un fondo negro, o como doscaras negras enfrentadas sobre un fondo blanco.[32] Los participantesfueron primados para ver la copa. Después se les mostró de nuevo laimagen, pero en esa ocasión fueron primados para que vieran las carasnegras sobre el fondo blanco. A pesar de que se trataba de la mismaimagen que antes, cuando se les preguntó si ya la habían visto conanterioridad, la mayoría respondió que no. La explicación a estefenómeno radica en el efecto que tuvo el primado en la primeraocasión en que se les mostró la imagen, que provocó que codificaran laimagen de forma diferente, haciéndola irreconocible. Esto demuestraque los estímulos son comprendidos conjuntamente con el contexto enque se han presentado, así como la regla general de que lo que realmente muestra la existencia de un buenaprendizaje son aquellos tests que evalúan los contenidos aprendidos del mismo modo en que fueron aprendidos.[32]

Además, para garantizar un recuerdo posterior más eficaz, deben considerarse las condiciones futuras en las que sedeberá recordar, y estudiar la información de modo que pueda realizarse una asociación satisfactoria en ese momentofuturo.

Modelos computacionales de codificación memorísticaLos modelos computacionales de codificación memorística han sido desarrollados para lograr alcanzar una mejorcomprensión y simulación de los aspectos del funcionamiento de la memoria humana, en ocasiones aúnimpredecible. Se han desarrollado diversos modelos para distintas tareas memorísticas, que incluyen elreconocimiento de ítems, el recuerdo con indicios, el recuerdo libre y la memoria secuencial, en un intento deexplicar los comportamientos observados experimentalmente.

Reconocimiento de ítemsEn una tarea de reconocimiento de ítems se le pregunta al participante si un ítem determinado ya se le ha presentadocon anterioridad o no. Es importante reseñar que el reconocimiento de un ítem puede incluir su contexto. Esto es,puede preguntarse al participante si un ítem determinado ha sido presentado anteriormente en una lista de estudio.por ejemplo, aunque el participante pueda haber visto la palabra "manzana" en algún momento a lo largo de su vida,si no la ha visto en la lista de estudio, no deberá clasificarla como ya vista. Es decir, la tarea requiere el recuerdodentro del contexto de presentación.El reconocimiento de ítems puede ser implementado utilizando la teoría de las huellas múltiples y el modelo de atribución de similitud.[33] A modo de resumen, cada ítem que se percibe puede representarse como un vector de sus atributos, que se extiende a través de un vector que representa el contexto en el momento de la codificación, y se almacena en una red o matriz de memoria de todos los ítems que se han visto a lo largo de la vida. Cuando se presenta un ítem de prueba, se computa la suma de las similitudes de cada ítem en la matriz (que es inversamente

Page 13: códigos - libro wikipedia

Codificación (memoria) 10

proporcional a la suma de las distancias entre el vector de prueba y cada ítem en la matriz de memoria). Si lasimilitud es superior a un valor de corte determinado, se produciría el reconocimiento del ítem. Los ítems vistos másrecientemente, que tienen un vector contextual similar al vector contextual del momento de la tarea dereconocimiento, serán reconocidos más fácilmente como ya vistos que aquellos que han sido percibidos hace muchotiempo.

Recuerdo con indiciosEn el recuerdo con indicios, se pide al sujeto que recuerde el ítem que ha sido emparejado con un ítem de pruebadeterminado. Por ejemplo, se puede suministrar una lista de pares nombre/cara, y después pedir que se diga elnombre que se ha asociado a una cara determinada.El recuerdo con indicios puede explicarse extendiendo el modelo de similitud de atributos usado en elreconocimiento de ítems. Dado que en el recuerdo con indicios puede darse una respuesta equivocada ante un ítemde prueba, el modelo debe extenderse para poder contemplar esa posibilidad. Esto puede conseguirse añadiendoruido a los vectores de los ítems cuando se almacenan en la matriz de memoria. Además, el recuerdo con indiciospuede ser modelado de un modo probabilístico semejante al de cada uno de los ítems almacenados en la matriz dememoria: cuanta mayor sea la similitud entre el ítem prueba u el ítem a recordar, más sencillo será que tenga lugar elrecuerdo. Como los ítems de la matriz de memoria contienen ruido entre sus valores, este modelo puede explicar losrecuerdos incorrectos, como sería llamar a una persona por un nombre equivocado.

Recuerdo libreEn el recuerdo libre se permite evocar en cualquier orden los ítems que han sido previamente aprendidos. Porejemplo, una tarea de recuerdo libre sería solicitar a una persona que nombrara el mayor número posible de países deEuropa. El recuerdo libre puede modelarse usando el modelo de búsqueda de memoria asociativa, SAM (por sussiglas en inglés, Search of Associative Memory). Este modelo está basado en el modelo de doble almacenamientopropuesto por primera vez por Atkinson y Shiffrin en el año 1968.[34] El modelo SAM se basa en dos componentesprincipales: el almacén a corto plazo (ACP) y el almacén a largo plazo (ALP). Resumiendo su funcionamientopodría decirse que cuando se percibe un ítem, se introduce en el ACP, donde se mantiene junto a otros ítems hastaque se desplaza y se incorpora al ALP. Cuanto más tiempo esté el ítem en el ACP, mayores probabilidades habrá deque sea desplazado por la entrada de un nuevo ítem. Cuando varios ítems coexisten simultáneamente en el ACP, lasconexiones establecidas entre ellos se fortalecen. El modelo SAM asume que los ítems en el ACP siempre estándisponibles para su recuerdo inmediato.El modelo SAM es capaz de explicar tanto el efecto de primacía como el efecto de recencia. Probabilísticamente, losítems que se encuentran al comienzo de una lista tendrán más posibilidades de permanecer en el ACP, y enconsecuencia, tendrán más oportunidades de fortalecer sus lazos con los demás ítems. Así, los primeros ítems de unalista suelen ser recordados en las tareas de recuerdo libre (efecto de primacía). Respecto a los últimos elementos de lalista: dado que los ítems del ACP siempre están disponibles para su recuperación, y que desde su presentación hastael momento de la tarea de recuerdo no han irrumpido en el ACP otros ítems que puedan hacer interferencia, losúltimos ítems de la lista también podrán ser recordados con facilidad (efecto de recencia).

Page 14: códigos - libro wikipedia

Codificación (memoria) 11

Memoria secuencialLa memoria secuencial es la responsable del modo en que recordamos listas de elementos en las que el orden esimportante. Por ejemplo, los números de teléfono son listas ordenadas de números de un solo dígito. Actualmenteexisten dos principales modelos computacionales que pueden aplicarse a la codificación secuencial: el modelo deencadenamiento asociativo y el modelo de codificación posicional.La teoría del encadenamiento asociativo establece que cada ítem de una lista está enlazado a los elementos vecinosinmediatos (anterior y posterior).[35] Según este modelo, los enlaces hacia adelante serían más fuertes que los enlaceshacia atrás, y los enlaces hacia los vecinos más cercanos serían más fuertes que los establecidos con los vecinos másalejados en la lista. Por ejemplo, el encadenamiento asociativo predice satisfactoriamente las tendencias de loserrores de transposición, que tienen lugar más a menudo entre ítems que se encuentran en posiciones cercanas entresí. Un ejemplo de error de transposición podría ser la secuencia «manzana, naranja, plátano» en lugar de «manzana,plátano, naranja».La teoría de la codificación posicional sugiere que cada ítem de una lista está asociado a su posición en esa lista.[36]

Por ejemplo, si la lista está formada por las palabras «manzana, plátano, naranja, mango», la palabra «manzana»estaría asociada con la posición número 1; «plátano» con la posición número 2, etc. Además, cada ítem tambiénestaría asociado, aunque de una forma más débil, con su posición +/- 1; aún más débilmente con la posición +/- 2,etc. Así, la palabra «plátano» no solamente estaría asociada a la posición 2, sino también a las posiciones 1, 3 y 4,aunque con niveles de fuerza asociativa variables. Por ejemplo, la codificación posicional puede ser utilizada paraexplicar los efectos de primacía y de recencia. Ya que los ítems iniciales y finales de una lista tienen un menornúmero de vecinos cercanos que los ítems centrales, se enfrentan a menos competencia para ser correctamenterecordados.Aunque los modelos de encadenamiento asociativo y codificación posicional son capaces de explicar una grancantidad de comportamientos observados en la memoria secuencial, están lejos de ser perfectos. Por ejemplo,ninguno de los dos es capaz de ilustrar apropiadamente los detalles del Efecto Ranschburg, que hace referencia alhecho de que las secuencias de ítems que contienen elementos repetidos son más difíciles de reproducir que aquellassecuencias que no contienen elementos repetidos.[37] El encadenamiento asociativo predice que el recuerdo de listasque contienen ítems repetidos se ve empeorado porque el recuerdo de cualquier elemento repetido podría servircomo pista no solamente para su verdadero sucesor, sino también para el resto de los ítems iguales que se encuentranen otros puntos de la secuencia. No obstante, los datos experimentales han mostrado que la repetición espaciada delos ítems provoca un recuerdo empobrecido de la segunda aparición del ítem repetido.[38] Además, no se produce unefecto constatable en el recuerdo de los ítems que siguen a los ítems repetidos, lo que contradice la predicción de lateoría del encadenamiento asociativo. Por su parte, el modelo de la codificación posicional predice que los ítemsrepetidos no tendrán ningún efecto en el recuerdo, ya que las posiciones de cada ítem de la lista actuarán comoindicios independientes para cada elemento, incluyendo los elementos repetidos. Así, no habría diferencia entre lasimilaridad entre dos ítems cualesquiera, y los ítems repetidos. En cambio, una vez más estas predicciones no sonconsistentes con los datos observados experimentalmente. En resumen, puede decirse que a día de hoy aún no existeun modelo comprensivo definido que explique satisfactoriamente el funcionamiento de la memoria secuencial entodas sus manifestaciones.

Page 15: códigos - libro wikipedia

Codificación (memoria) 12

Notas[1] Ebbinghaus, H. (1885). Memory: A Contribution to Experimental Psychology.[2] Bartlett, F. C. (1932) (en inglés). Remembering: A study in experimental and social psychology. Cambridge, Inglaterra: Cambridge University

Press.[3] Baddeley, A., Eysenck, M.W., y Anderson, M.C. (2009) (en inglés). Memory. Londres: Psychology Press. pp. 27, 44-59.[4] Sperling, G. (febrero 1963). « A model for visual memory tasks (http:/ / aris. ss. uci. edu/ HIPLab/ staff/ sperling/ PDFs/

Sperling_VM_Model_1963. pdf)» (en inglés, PDF). Human Factors 5:  pp. 19-31. PMID 13990068 (http:/ / www. ncbi. nlm. nih. gov/pubmed/ 13990068). . Consultado el 4 de junio de 2011.

[5] Sperling, G. (1967). «Successive approximations to a model for short term memory» (en inglés). Acta Psychologica 27:  pp. 285-292. doi:10.1016/0001-6918(67)90070-4 (http:/ / dx. doi. org/ 10. 1016/ 0001-6918(67)90070-4). PMID 6062221 (http:/ / www. ncbi. nlm. nih. gov/pubmed/ 6062221).

[6] Belova, M.A., Morrison, S.E., Paton, J.J., y Salzman, C.D. (2006). « The primate amygdala represents the positive and negative value ofvisual stimuli during learning (http:/ / www. ncbi. nlm. nih. gov/ pmc/ articles/ PMC2396495/ )» (en inglés). Nature 439 (7078):  pp. 865-870.doi: 10.1038/nature04490 (http:/ / dx. doi. org/ 10. 1038/ nature04490). PMID 16482160 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/16482160). . Consultado el 4 de junio de 2011.

[7] Acheson, D.J., MacDonald, M.C., y Postle, B.R. (2010). « The Interaction of Concreteness and Phonological Similarity in Verbal WorkingMemory (http:/ / psych. wisc. edu/ postlab/ pubs/ AchesonJEPLMC2010. pdf)» (en inglés, PDF). Journal of Experimental Psychology:Learning, Memory and Cognition 36 (1):  pp. 17-36. doi: 10.1037/a0017679 (http:/ / dx. doi. org/ 10. 1037/ a0017679). PMID 20053042(http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 20053042). . Consultado el 4 de junio de 2011.

[8] Crawley, AP., Davis, KD., Mikulis. DJ. y Kwan, CL. (1998). « Function MRI study of thalamic and cortical activation evoked by cutaneousheat, cold, and tactile stimuli (http:/ / jn. physiology. org/ content/ 80/ 3/ 1533. full. pdf)» (en inglés, PDF). Journal of Neurophysiology 80 (3): pp. 1533-46. PMID 9744957 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 9744957). . Consultado el 4 de junio de 2011.

[9] Demb,JB., Desmond, JE., Gabrieli, JD., Glover, GH., Vaidya, CJ., y Wagner, AD. « Semantic encoding and retrieval in the left inferiorprefrontal cortex: a functional MRI study of task difficulty and process specificity (http:/ / www. jneurosci. org/ content/ 15/ 9/ 5870. full.pdf)» (en inglés, PDF). The Journal of Neuroscience 15 (9):  pp. 5870-5878. PMID 7666172 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/7666172). . Consultado el 4 de junio de 2011.

[10] Mohs, Richard C. (8 de mayo de 2007). « How Human Memory Works (http:/ / health. howstuffworks. com/ human-memory. htm)» (eninglés). HowStuffWorks.com. Consultado el 6 de junio de 2011.

[11] Lepage, M., Habib, R. y Tulving. E. (1998). « Hippocampal PET activations of memory encoding and retrival: The HIPER model (http:/ /alicekim. ca/ Hiper. pdf)» (en inglés, PDF). Hippocampus 8 (4):  pp. 313-322. doi:10.1002/(SICI)1098-1063(1998)8:4<313::AID-HIPO1>3.0.CO;2-I (http:/ / dx. doi. org/ 10. 1002/(SICI)1098-1063(1998)8:4<313::AID-HIPO1>3. 0. CO;2-I). PMID 9744418 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 9744418). .Consultado el 6 de junio de 2011.

[12] Grady, CL., Horwitz, B., Haxby, JV., Maisog, JM., McIntosh, AR., Mentis, MJ., Pietrini, P., Schapiro, MB., y Underleider, LG. (julio1995). «Age-related reductions in human recognition memory due to inpaired encoding» (en inglés). Science 269 (5221):  pp. 218-221. doi:10.1126/science.7618082 (http:/ / dx. doi. org/ 10. 1126/ science. 7618082). PMID 7618082 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/7618082).

[13] Birmes, P., Escande, M., Schmitt, L. y Senard, JM. (2002). «Biological Factors of PTSD: neurotransmitters and neuromodulators» (eninglés). Encephale 28 (3):  pp. 241-247. PMID 12091785 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 12091785).

[14] Wagner M., Schuhmacher A., Schwab S., Zobel A. y Maier W. (2008). «The His452Tyr variant of the gene encoding the 5-HT(2a) receptoris specifically associated with consolidation of episodic memory in humans» (en inglés). International Journal of Neuropsychopharmacology11 (8):  pp. 1163-1167. doi: 10.1017/S146114570800905X (http:/ / dx. doi. org/ 10. 1017/ S146114570800905X). PMID 18611292 (http:/ /www. ncbi. nlm. nih. gov/ pubmed/ 18611292).

[15] Kandel, E. (2004). « The Molecular Biology of Memory Storage: A Dialog Between Genes and Synapses (https:/ / wiki. brown. edu/confluence/ download/ attachments/ 11706/ Kandel,+ Science+ 2001. pdf)» (en inglés, PDF). Bioscience Reports 24 (4-5). doi:10.1126/science.1067020 (http:/ / dx. doi. org/ 10. 1126/ science. 1067020). PMID 11691980 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/11691980). . Consultado el 7 de junio de 2011.

[16] Sacktor, T.C. (2008). « PKMz, LTP Maintenance, and the dynamic molecular biology of memory storage (http:/ / www. neuro. iastate. edu/Uploads/ Sacktor_ProgBrainRes_2008. pdf)» (en inglés, PDF). Progress in Brain Research 169 (7):  pp. 2-7. doi:10.1016/S0079-6123(07)00002-7 (http:/ / dx. doi. org/ 10. 1016/ S0079-6123(07)00002-7). ISSN 00796123 (http:/ / worldcat. org/ issn/00796123). PMID 18394466 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 18394466). . Consultado el 7 de junio de 2011.

[17] Cabeza, R., Daselaar, S.M., y Hongkeun, K. (2009). « Overlapping brain activity between episodic memory encoding and retrieval: Roles ofthe task-positive and task-negative networks (http:/ / www. ncbi. nlm. nih. gov/ pmc/ articles/ PMC2764805/ )» (en inglés). Neuroimage 49(1):  pp. 1145-1154. doi: 10.1016/j.neuroimage.2009.07.058 (http:/ / dx. doi. org/ 10. 1016/ j. neuroimage. 2009. 07. 058). PMID 19647800(http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 19647800). . Consultado el 7 de junio de 2011.

[18] Craik, F. I. M., y Watkins, M. J. (1973). « The role of rehearsal in short-term memory (http:/ / people. southwestern. edu/ ~giuliant/LOP_PDF/ CraikRehearsalinSTM1973. pdf)» (en inglés, PDF). Journal of Verbal Learning and Verbal Behavior 12 (6):  pp. 599-607. doi:10.1016/S0022-5371(73)80039-8 (http:/ / dx. doi. org/ 10. 1016/ S0022-5371(73)80039-8). . Consultado el 7 de junio de 2011.

Page 16: códigos - libro wikipedia

Codificación (memoria) 13

[19] Nickerson, R. S. & Adams, M. J. (1979). «Long-term memory for a common object» (en inglés). Cognitive Psychology 11 (3):  pp. 287-307.doi: 10.1016/0010-0285(79)90013-6 (http:/ / dx. doi. org/ 10. 1016/ 0010-0285(79)90013-6).

[20] Rinck, M. (1999). « Memory for everyday objects: Where are the digits on numerical keypads? (http:/ / www18. homepage. villanova. edu/diego. fernandezduque/ Teaching/ CognitivePsychology/ Lectures_and_Labs/ s6LongTermMemory/ MemoryForEverydayObjects/zzMemoryfoButtons. pdf)» (en inglés, PDF). Applied Cognitive Psychology 13 (4):  pp. 329-350. doi:10.1002/(SICI)1099-0720(199908)13:4<329::AID-ACP583>3.0.CO;2-3 (http:/ / dx. doi. org/ 10. 1002/(SICI)1099-0720(199908)13:4<329::AID-ACP583>3. 0. CO;2-3). . Consultado el 7 de junio de 2011.

[21] Oliphant, G. W. (1983). «Repetition and recency effects in word recognition» (en inglés). Australian Journal of Psychology 35 (3): pp. 393-403. doi: 10.1080/00049538308258751 (http:/ / dx. doi. org/ 10. 1080/ 00049538308258751).

[22] Graf, P., Mandler, G., y Haden, P. E. (1982). «Simulating amnesic symptoms in normal subjects» (en inglés). Science 218 (4578): pp. 1243-1244. doi: 10.1126/science.7146909 (http:/ / dx. doi. org/ 10. 1126/ science. 7146909). PMID 7146909 (http:/ / www. ncbi. nlm. nih.gov/ pubmed/ 7146909).

[23] Hyde, Thomas S. y Jenkins, James J. (1973). « Recall for words as a function of semantic, graphic, and syntactic orienting tasks (http:/ /people. southwestern. edu/ ~giuliant/ LOP_PDF/ Hyde1973. pdf)» (en inglés, PDF). Journal of Verbal Learning and Verbal Behavior 12 (5): pp. 471-480. doi: 10.1016/S0022-5371(73)80027-1 (http:/ / dx. doi. org/ 10. 1016/ S0022-5371(73)80027-1). . Consultado el 7 de junio de2011.

[24] Craik, F. I., y Tulving, E. (1975). « Depth of processing and the retention of words in episodic memory (http:/ / www-pmhs. stjohns. k12. fl.us/ teachers/ higginj/ 0CF7DB48-0118C716. 0/ Chapter18_Craik. pdf)» (en inglés, PDF). Journal of Experimental Psychology: General 104(3):  pp. 268-294. doi: 10.1037/0096-3445.104.3.268 (http:/ / dx. doi. org/ 10. 1037/ 0096-3445. 104. 3. 268). . Consultado el 7 de junio de2011.

[25] Katona, G. (1940) (en inglés). Organizing and memorizing. Nueva York: Columbia University Press.[26] Wiseman, S., y Neisser, U. (diciembre 1974). «Perceptual organization as a determinant of visual recognition memory» (en inglés).

American Journal of Psychology 87 (4):  pp. 675-681. doi: 10.2307/1421974 (http:/ / dx. doi. org/ 10. 2307/ 1421974). PMID 4463729 (http:/ /www. ncbi. nlm. nih. gov/ pubmed/ 4463729).

[27] Godden, D. R., y Baddeley, A. D. (1975). « Context-dependent memory in two natural environments: On land and underwater (http:/ / www.niu. edu/ user/ tj0dgw1/ classes/ 411/ GoddenBaddeley1975. pdf)» (en inglés, PDF). British Journal of Psychology 66 (3):  pp. 325-331. doi:10.1111/j.2044-8295.1975.tb01468.x (http:/ / dx. doi. org/ 10. 1111/ j. 2044-8295. 1975. tb01468. x). . Consultado el 7 de junio de 2011.

[28] Cann, A., y Ross, D. A. (1989). «Olfactory stimuli as context cues in human memory» (en inglés). American Journal of Psychology 102 (1): pp. 91-102. doi: 10.2307/1423118 (http:/ / dx. doi. org/ 10. 2307/ 1423118). PMID 2929788 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/2929788).

[29] Smith, S. M. (1979). «Remembering in and out of context» (en inglés). Journal of Experimental Psychology: Human Learning and Memory5 (5):  pp. 460-471. doi: 10.1037/0278-7393.5.5.460 (http:/ / dx. doi. org/ 10. 1037/ 0278-7393. 5. 5. 460).

[30] Fisher, R. P., y Craik, F. I. (1977). «Interaction between encoding and retrieval operations in cued recall» (en inglés). Journal ofExperimental Psychology: Human Learning and Memory 3 (6):  pp. 701-711. doi: 10.1037/0278-7393.3.6.701 (http:/ / dx. doi. org/ 10. 1037/0278-7393. 3. 6. 701).

[31] Tulving, E. (1983). Elements of episodic memory. Oxford, Inglaterra: Oxford University Press.[32] Kanizsa, G. (1979) (en inglés). Organization in vision. Nueva York: Praeger.[33] Hintzman, Douglas L. y Block, Richard A. (1971). «Repetition and memory: Evidence for a multiple-trace hypothesis» (en inglés). Journal

of Experimental Psychology 88 (3):  pp. 297-306. doi: 10.1037/h0030907 (http:/ / dx. doi. org/ 10. 1037/ h0030907).[34] Raaijmakers, J. G. W., Schiffrin, R. M. (1981). «Search of associative memory» (en inglés). Psychological Review 8 (2):  pp. 98-134. doi:

10.1037/0033-295X.88.2.93 (http:/ / dx. doi. org/ 10. 1037/ 0033-295X. 88. 2. 93).[35] N. A. Henson, Richard (1996). « Unchained Memory: Error Patterns Rule out Chaining Models of Immediate Serial Recall (http:/ / www.

mrc-cbu. cam. ac. uk/ people/ rik. henson/ personal/ HensonEtAl_QJEPA_96. pdf)» (en inglés, PDF). The Quarterly Journal of ExperimentalPsychology Section A: Human Experimental Psychology 49 (1):  pp. 80-115. doi: 10.1080/713755612 (http:/ / dx. doi. org/ 10. 1080/713755612). . Consultado el 8 de junio de 2011.

[36] «Coding Position in Short-term Memory» (en inglés). International Journal of Psychology 34 (5-6):  pp. 403-409. 1999. doi:10.1080/002075999399756 (http:/ / dx. doi. org/ 10. 1080/ 002075999399756).

[37] Piéron, Henri (1993). Vocabulario de Psicología (http:/ / books. google. es/ books?id=uxoDZO35AZwC&printsec=frontcover#v=onepage& q& f=false). Madrid, España: Akal. p. 444. ISBN 8446002388. . Consultado el 8 de junio de 2011.

[38] Crowder, R. G. (1968). «Intraserial repetition effects in immediate memory» (en inglés). Journal of Verbal Learning and Verbal Behavior 7(2):  pp. 446-451. doi: 10.1016/S0022-5371(68)80031-3 (http:/ / dx. doi. org/ 10. 1016/ S0022-5371(68)80031-3).

Page 17: códigos - libro wikipedia

Cognición 14

CogniciónEl concepto de cognición (del latín: cognoscere, "conocer") hace referencia a la facultad de procesar información apartir de la percepción, el conocimiento adquirido (experiencia) y características subjetivas que permiten valorar lainformación.Los procesos cognitivos pueden ser naturales o artificiales, conscientes o inconscientes, lo que explica el por qué seha abordado su estudio desde diferentes perspectivas incluyendo la neurología, psicología, sociología, filosofía, lasdiversas disciplinas antropológicas, y las ciencias de la información - tales como la inteligencia artificial, la gestióndel conocimiento y el aprendizaje automático.La cognición está íntimamente relacionada con conceptos abstractos tales como mente, percepción, razonamiento,inteligencia, aprendizaje y muchos otros que describen numerosas capacidades de los seres superiores- aunque estascaracterísticas también las compartirían algunas entidades no biológicas según lo propone la inteligencia artificial.En las primeras etapas de desarrollo del concepto se creía que la cognición era una característica solamente humanapero con el desarrollo de la etología y la inteligencia artificial se discute la validez de tal argumento [cita requerida].En psicología e inteligencia artificial (IA) el concepto se refiere a las funciones, procesos y estados mentales deagentes inteligentes, con un enfoque particular en procesos tales como comprensión, inferencia, toma de decisiones,planificación y aprendizaje. La investigación en el campo aborda capacidades de los agentes/sistemas tales como laabstracción, generalización, concreción/especialización y meta-razonamiento en las cuales se involucran conceptossubjetivos tales como las creencias, conocimiento, estados mentales y preferencias.El concepto de cognición es frecuentemente utilizado para significar el acto de conocer, o conocimiento, y puede serdefinido, en un sentido cultural o social, como el desarrollo emergente de conocimiento dentro de un grupo queculmina con la sinergia del pensamiento y la acción.

El proceso mentalFritjof Capra presenta en el apéndice de su libro, La trama de la vida, los seis criterios fundamentales de GregoryBateson para el proceso mental y los compara con la teoría propuesta por Humberto Maturana:1. Una mente es un agregado de partes o componentes interactuantes.2.2. La interacción entre las partes de la mente es desencadenada por la diferencia.3. El proceso mental requiere energía colateral.4.4. El proceso mental requiere cadenas circulares de determinación.5.5. En el proceso mental, los efectos de la diferencia deben ser vistos como transformaciones de sucesos que los han

precedido.6. La descripción y clasificación de esos procesos de transformación revelan una jerarquía de prototipos lógicos

inmanentes en los fenómenos.Según John Lachman y E.C. Butterfield, el llamado procesamiento de información...

...considera que se realizan pocas operaciones simbólicas, relativamente básicas, tales como codificar,comparar, localizar y/o almacenar. Por consiguiente, en último caso puede dar cuenta de la inteligenciahumana y la capacidad para crear conocimiento, innovaciones y tal vez expectativas respecto al futuro.

[cita requerida]

Considera que es en los dos últimos criterios donde se presenta la diferencia entre los puntos de vista de Bateson yMaturana sobre la cognición.[1]

Page 18: códigos - libro wikipedia

Cognición 15

Procesamiento de la informaciónSegún John Lachman y E.C. Butterfield, el llamado procesamiento de información...

...considera que se realizan pocas operaciones simbólicas, relativamente básicas, tales como codificar,comparar, localizar y/o almacenar. Por consiguiente, en último caso puede dar cuenta de la inteligenciahumana y la capacidad para crear conocimiento, innovaciones y tal vez expectativas respecto al futuro.

[cita requerida]

Este procesamiento consiste en cómo el sujeto internaliza la información recibida por el ambiente. A su vez, en lainternalización de nuevos conocimientos, se activan de manera conjunta las funciones cognitivas para que lainternalización de nuevos conocimientos se realice de una manera satisfactoria.

Campos relacionados•• Antropología social•• Didáctica•• Educación•• Pedagogía•• Etnología•• Terapia Ocupacional•• Etnohistoria•• Lingüística•• Ontología•• Fonoaudiología•• Neuropsicología•• Neurociencia•• Psicología•• Ciencia cognitiva

Referencias[1] Fritjof Capra. La trama de la vida. Barcelona: Anagrama. 1998

Enlaces externos• Procesos Cognitivos. (http:/ / homepage. mac. com/ blinkcentral/ Education6. html) BlinkCentral• Cognición. (http:/ / www. elsevier. com/ wps/ find/ journaldescription. cws_home/ 505626/

description#description) Publicación internacional con artículos teóricos y experimentales sobre el estudio de lamente.

• Procesamiento Cognitivo. (http:/ / www. springerlink. com/ (ka4jxlvaasem5jmccwi3ta3e)/ app/ home/ journal.asp?referrer=parent& backto=linkingpublicationresults,1:110966,1) Quarterly, Springer

• Información sobre cognición musical. (http:/ / www. hum. uva. nl/ mmm/ ) Universidad de Amsterdan• Emotional and Decision Making Lab, Carnegie Mellon, EDM Lab (http:/ / computing. hss. cmu. edu/ lernerlab/

home. php)• Cognition (http:/ / www. calt. insead. edu/ Encyclopedia/ ?cognition) Enciclopedia CALT• Los Límites de la Cognición Humana. (http:/ / news. softpedia. com/ news/

The-Limits-of-Human-Cognition-37388. shtml) Artículo en inglés, que describe la evolución de las capacidadescognitivas de los mamíferos.

Page 19: códigos - libro wikipedia

Información 16

InformaciónEn sentido general, la información es un conjunto organizado de datos procesados, que constituyen un mensaje quecambia el estado de conocimiento del sujeto o sistema que recibe dicho mensaje.Para Gilles Deleuze, la información es un sistema de control, en tanto que es la propagación de consignas quedeberíamos de creer o hacer que creemos. En tal sentido la información es un conjunto organizado de datos capaz decambiar el estado de conocimiento en el sentido de las consignas trasmitidas.Los datos sensoriales una vez percibidos y procesados constituyen una información que cambia el estado deconocimiento, eso permite a los individuos o sistemas que poseen dicho estado nuevo de conocimiento tomardecisiones pertinentes acordes a dicho conocimiento.Desde el punto de vista de la ciencia de la computación, la información es un conocimiento explícito extraído porseres vivos o sistemas expertos como resultado de interacción con el entorno o percepciones sensibles del mismoentorno. En principio la información, a diferencia de los datos o las percepciones sensibles, tienen estructura útil quemodificará las sucesivas interacciones del ente que posee dicha información con su entorno.

Información en la sociedadEn las sociedades humanas y en parte en algunas sociedades animales, la información tiene un impacto en lasrelaciones entre diferentes individuos. En una sociedad la conducta de cada individuo frente a algunos otrosindividuos se puede ver alterada en función de qué información disponible posee el primer individuo. Por esa razónel estudio social de la información se refiere a los aspectos relacionados con la variación de la conducta en posesiónde diferentes informaciones.

Principales características de la informaciónEn general la información tiene una estructura interna y puede ser calificada según varias características:• Significado (semántica): ¿Qué quiere decir? Del significado extraído de una información, cada individuo evalúa

las consecuencias posibles y adecúa sus actitudes y acciones de manera acorde a las consecuencias previsibles quese deducen del significado de la información. Esto se refiere a qué reglas debe seguir el individuo o el sistemaexperto para modificar sus expectativas futuras sobre cada posible alternativa.

• Importancia (relativa al receptor): ¿Trata sobre alguna cuestión importante? La importancia del la informaciónpara un receptor, se referirá a en qué grado cambia la actitud o la conducta de los individuos. En las modernassociedades, los individuos obtienen de los medios de comunicación masiva gran cantidad de información, unagran parte de la misma es poco importante para ellos, porque altera de manera muy poco significativa la conductade los individuos. Esto se refiere a en qué grado cuantitativo deben alterarse las expectativas futuras. A veces sesabe que un hecho hace menos probables algunas cosas y más otras, la importancia tiene que ver con cuantomenos probables serán unas alternativas respecto a las otras.

• Vigencia (en la dimensión espacio-tiempo): ¿Es actual o desfasada? En la práctica la vigencia de una informaciónes difícil de evaluar, ya que en general acceder a una información no permite conocer de inmediato si dichainformación tiene o no vigencia. Esto tiene que ver con la sincronización en el tiempo de los indicios quepermiten revaluar las expectativas con las expectativas en un momento dado.

• Validez (relativa al emisor): ¿El emisor es fiable o puede proporcionar información no válida (falsa)? Esto tieneque ver si los indicios deben ser considerados en la revaluación de expectativas o deben ser ignorados por no serindicios fiables.

• Valor (activo intangible volátil): ¿Cómo de útil resulta para el destinatario?

Page 20: códigos - libro wikipedia

Información 17

Historia de la informaciónLa historia de la información está asociada a su producción, tratamiento y transmisión. Una cronología de esahistoria detallada puede ser:• Siglos V a X - Alta Edad Media. El almacenamiento, acceso y uso limitado de la información se realiza en las

bibliotecas de los monasterios de forma amanuense o manual.• Siglo XII. Los Incas (Perú) usan un sistema de cuerdas para el registro de información numérica llamada Quipu,

usado principalmente para contar ganado.• Siglo XV - Edad Moderna. Con el nacimiento de la imprenta (Gutenberg), los libros comienzan a fabricarse en

serie. Surgen los primeros periódicos.• Siglo XX. 1926. Se inicia la primera retransmisión de televisión que afectará al manejo y tratamiento de la

información con gran impacto en los métodos de comunicación social durante todo el siglo.• Siglo XX. 1940. Jeremy Campbell, definió el término información desde una perspectiva científica, en el contexto

de la era de la comunicación electrónica.• Siglo XX. 1943. El austro-húngaro Nikola Tesla inventa la radio, aunque inicialmente dicho invento se atribuye a

Guglielmo Marconi y la patente no se reconoce a su autor hasta los años 1960 .• Siglo XX. 1947.En diciembre John Bardeen, Walter Houser Brattain y William Bradford Shockley, inventan el

transistor. Serán galardonados por ello con el Premio Nobel de Física en 1956.Acaban de sentar sin saberlo laprimera de las dos bases para una nueva revolución tecnológica y económica, actuando como detonante de unaumento exponencial de la capacidad de integración microeletrónica, de la popularización y la potencia de cálculodel ordenador.[1]

• Siglo XX. 1948. Claude E. Shannon, elabora las bases matemáticas de la Teoría de la Información.[2] Acaba dedar la segunda base de la revolución de las tecnologías de la información y la comunicación: la aplicación delÁlgebra de Boole será el fundamento matemático para industrializar el procesamiento de la información. Nace asíla Ciencia de la Computación o Ingeniería informática. La nueva revolución económica está servida. Lahumanidad entra en la Era Digital usando el transistor y la numeración binaria para simbolizar, transmitir ycompartir la información.[3][4]

• Siglo XX. 1948. Norbert Wiener, elabora la idea de cibernética en su famosa obra * Cibernética o el control ycomunicación en animales y máquinas (Cybernetics or Control and Communication in the Animal and theMachine) (1948) donde se encargó de "mantener el orden" en cualquier sistema natural o artificial deinformación.

• Siglo XX. 1951-1953. James Watson y Francis Crick descubren los principios de los códigos de ADN, queforman un sistema de información a partir de la doble espiral de ADN y la forma en que trabajan los genes.

• Siglo XX. 1969. En el contexto de la guerra fría, el movimiento contracultural de los años 60', nace laembrionaria Internet cuando se establece la primera conexión de computadoras, conocida como ARPANET, entretres universidades en California y una en Utah, Estados Unidos, con el objetivo inicial de facilitar una red decomunicaciones militares a prueba de bomba. Su expansión y popularización, y la democratización delconocimiento que facilita, transformará radicalmente las relaciones económicas, sociales y culturales en unmundo más y más interdependiente.[5]

• Actualmente, ya en el siglo XXI, en un corto período de tiempo, el mundo desarrollado se ha propuesto lograr la globalización del acceso a los enormes volúmenes de información existentes en medios cada vez más complejos, con capacidades exponencialmente crecientes de almacenamiento[6] y en soportes cada vez más reducidos. A pesar de ello todavía existen muchas fuentes de información en formato no digital o inaccesibles digitalmente por diversas causas.[7] En este marco la proliferación de redes de transmisión de datos e información, de bases de datos con acceso en línea, ubicadas en cualquier lugar, localizables mediante Internet, permiten el hallazgo de otras redes y centros de información de diferentes tipos en cualquier momento desde cualquier lugar. Es el resultado de datos gestionados a través de aplicaciones informáticas donde los datos son procesados y transformados en información que posteriormente es manejada como signo integrador y característico de progreso

Page 21: códigos - libro wikipedia

Información 18

económico del siglo XXI.[8]

Usos de la informaciónSe considera que la generación y/o obtención de información persigue estos objetivos:•• Aumentar/mejorar el conocimiento del usuario, o dicho de otra manera reducir la incertidumbre existente sobre un

conjunto de alternativas lógicamente posibles.•• Proporcionar a quien toma decisiones la materia prima fundamental para el desarrollo de soluciones y la elección.•• Proporcionar una serie de reglas de evaluación y reglas de decisión para fines de control.En relación con el tercer punto, la información como vía para llegar al conocimiento, debe ser elaborada para hacerlautilizable o disponible (este proceso empírico se llama Documentación y tiene métodos y herramientas propios), perotambién es imposible que la información por sí sola dote al individuo de más conocimiento, es él quien valora losignificativo de la información, la organiza y la convierte en conocimiento. El dato, por así llamarlo, es en sí un"prefijo" de la información, es decir, es un elemento previo necesario para poder obtener la información.

Información periodísticaUna noticia es el relato o redacción de un texto informativo que se quiere dar a conocer con sus propias reglas deconstrucción (enunciación) que se refiere a un hecho novedoso o atípico -o la relación entre hechos novedosos y/oatípicos-, ocurrido dentro de una comunidad o determinado ámbito específico, que hace que merezca su divulgación.La noticia es un hecho periodístico, equivalente a lo que implica para la historia un acontecimiento. Dentro delámbito de algunos medios de comunicación, es un género periodístico en el que la noticia es un "recorte de larealidad" sobre un hecho de actualidad que merece ser informado por algún tipo de criterio de relevancia social. Elcontenido de una noticia debe responder a la mayoría de las preguntas que se conocen como las "6W-H", de laescuela de periodismo norteamericana:•• ¿A quién le sucedió?•• ¿Qué sucedió?•• ¿Cuándo sucedió?•• ¿Dónde sucedió?•• ¿Por qué sucedió?•• ¿Cómo sucedió?La información es un fenómeno que proporciona significado o sentido a las cosas. En sentido general, la informaciónes un conjunto organizado de datos procesados, que constituyen un mensaje sobre un determinado ente o fenómeno.Los datos se perciben, se integran y generan la información necesaria para producir el conocimiento que es el quefinalmente permite tomar decisiones para realizar las acciones cotidianas que aseguran la existencia. La sabiduríaconsiste en determinar correctamente cuándo, cómo, dónde y con qué objetivo emplear el conocimiento adquirido.La información también indica mediante códigos y conjuntos de datos, los modelos del pensamiento humano. Lainformación por lo tanto, procesa y genera el conocimiento humano. De esta manera, si por ejemplo organizamosdatos sobre un país, tales como: número de habitantes, densidad de población, nombre del presidente, etc. yescribimos por ejemplo, el capítulo de un libro, podemos decir que ese capítulo constituye información sobre esepaís.

Page 22: códigos - libro wikipedia

Información 19

Información y el EstadoEl control y la manipulación es uno de los medios más poderosos de los gobiernos para promover el acatamiento desus políticas. Así, los estados totalitarios y autoritarios buscan el monopolio de la información para promover elacatamiento de las políticas. La información tiene por objetivo dar a conocer los hechos de manera efectiva eimparcial, mientras que la propaganda busca ganar adeptos para lograr un objetivo, sin importarle la veracidad de loshechos. Así la propaganda compite con el derecho como instrumento de poder. [9]

Teoría de la informaciónEl enfoque de la teoría de la información analiza la estructura matemática y estadística de los mensajes, conindependencia de su significado u otros aspectos semánticos. Los aspectos en los que se interesa la teoría de lainformación son las capacidad de transmisión de los canales, la compresión de datos o la detección y corrección deerrores.

Caracterización matemáticaUna forma de caracterizar nuestro estado de conocimiento del mundo, es a través de las probabilidades. Si sabemosque en el futuro pueden suceder n cosas diferentes , cada una con probabilidad ese conjunto deprobabilidades constituyen nuestro conocimiento del mundo, una información debería reducir nuestra incertidumbre,variando las probabilidades a . Si el segundo estado tiene menos incertidumbre es porque algunas cosas sehan hecho más probables frente a otras alternativas que se han hecho menos probables.Una forma de "medir la información" asociada a un mensaje o hecho observado es calcular como algunasprobabilidades han crecido y otras han decrecido. Una medida conveniente de calcular la "concentración" de lacerteza en algunas alternativas es la entropía estadística:[10]

Un ejemplo lingüístico ilustra bien este caso. Supongamos que nos proponen adivinar la segunda letra de una palabradel español. y nos dicen que en la segunda posición podría aparecer cualquier letra del alfabeto. Por tanto laincertidumbre inicial se obtiene calculando la probabilidad de ocurrencia de cada letra y calculando:

Sin embargo, si nos dan como pista que "la primera letra es una Z", entonces en segunda posición sólo puedeaparecer A, O, U (aunque existen un puñado de casos excepcionales de E e I) y por tanto con esa información sereduce mucha la incertidumbre:

La información cuantificada de la pista "la primera letra es una Z" resulta ser:

Las undiades de inforamción resultan ser bits puesto que se han empleado logaritmos de base 2. Si la pista hubierasido "la primera letra es una M", la segunda letra sólo podría ser A, E, I, O, U que es un conjunto más amplio y eneste caso y en este caso, la pista lleva menos información porque reduce menos la incertidumbre, elresultado en este caso es repitiendo los pasos anteriores de unos 2,50 bits.

Page 23: códigos - libro wikipedia

Información 20

Recuperación de la informaciónLa cantidad de información y el conocimiento desarrollado, aparentemente es enorme y tiene una metodología derecuperación, que eventualmente es infinita o total en un número muy amplio de soportes y sitios y el modelosistémico de recuperación debe maximizar la búsqueda para asegurar su captura lo más completa posible dentro delentorno de este sistema complejo. En el caso de búsquedas en Internet y usando dos o más descriptores, losresultados numéricos que dan los motores de búsqueda, que contengan los dos o más términos juntos o muypróximos, ya es una medida de la cantidad de información conseguida y que es en expresión matemática el ln ologaritmo natural de la suma de las interacciones validadas. Valores de 2 o 3 serán óptimos.

Información y físicaEn física existe una íntima conexión entre entropía e información:• En física estadística un macroestado o situación macroscópica, puede corresponder desde el punto de vista

microscópico a varios microestados, es decir, varios microestados diferentes pueden ser percibidos en términosmacroscópicos generales como la misma situación o macroestado general. Algunos macroestados sólo puedencorresponder a un número relativamente pequeño de microestados, otros macroestados por el contrario puedencorresponder a un número más elevado de microestados. La entropía es una magnitud física que mide la cantidadde microestados correspondiente a un macroestado. De alguna manera los macroestados con mayor entropíapueden corresponder a más microestados y por tanto conocido el macroestado existe una mayor incertidumbresobre el microestado real del sistema. Por tanto la entropía mide la falta de conocimiento del microestado, de ahíque la información necesaria para conocer el microestado de un sistema conocido su macroestado coincida con laentropía. Cuando se produce una disminución de la entropía se puede decir que ha aumentado nuestroconocimiento del microestado del sistema, o existe menos incertidumbre sobre dicho microestado.

• En la teoría de la relatividad se presupone que ninguna señal que sea informativa puede viajar más rápidamenteque la luz, si sucediera lo contrario podría violarse el principio de causalidad.

Referencias[1] Manso Coronado, Francisco Javier (2003). Diccionario enciclopédico de estrategia empresarial (http:/ / books. google. es/

books?id=HF5MQbmedA8C& printsec=frontcover& source=gbs_navlinks_s#v=onepage& q=& f=false). ISBN 8479785659. . «"Noshallamos inmersos en una revolución... la tecnología de silicio se invento en 1945,el transistor en 1947,el primer ordenador en1948...".pag257»

[2] Shannon, Claude E (1948). « A Mathematical Theory of Communication (http:/ / www. essrl. wustl. edu/ ~jao/ itrg/ shannon. pdf)». BellSystem Technical Journal 27 (b-1598). ISSN , 379-423. .

[3] Leer, Anne (2001). La visión de los líderes en la era digital (2001). México : Prentice-Hall. ISBN 968-444-440-0.[4] Tubella i Casadevall, Immna (2005). « 2.2. La economía de las TIC y la revolución digital. (http:/ / books. google. es/

books?id=hZDiwVbJVN8C& pg=PA42& dq=la+ revolucion+ digital+ ECONOMIA& lr=& cd=1#v=onepage& q=& f=false)». En UOC.Sociedad del conocimiento. .

[5] « An Internet Pioneer Ponders the Next Revolution (http:/ / partners. nytimes. com/ library/ tech/ 99/ 12/ biztech/ articles/122099outlook-bobb. html?Partner=Snap)». An Internet Pioneer Ponders the Next Revolution. Consultado el 25 de noviembre de 2005.

[6] « The size of the World Wide Web (http:/ / www. worldwidewebsize. com/ )». Consultado el 21 de Febrero de 2010.[7] « El saber perdido en la era digital.Lucha por preservar la memoria colectiva en el ciberespacio (http:/ / www. elpais. com/ articulo/ internet/

saber/ perdido/ era/ digital/ elpeputec/ 20070322elpepunet_1/ Tes)». EL PAÍS (22/2007). Consultado el 21 de Febrero de 2010.[8] Federación de Cajas de Ahorros Vasco-Navarras-. « La revolución digital: Nueva economía e Integración Social (http:/ / www. fcavn. es/

Castellano/ Publicaciones/ Ekonomi_Gerizan/ 9. asp)». EKONOMI GERIZAN VOLUMEN (9). .[9] (en español) República del Perú: Evaluación de la gobernabilidad democrática.. Madrid : Universidad Complutense, Instituto Complutense

de Estudios Internacionales, [2007]. 2007. p. 66. ISBN 8496702057 9788496702059.[10][10] Welsh, 1998

Page 24: códigos - libro wikipedia

Información 21

Bibliografía• Dominic Welsh (1988): Codes and Cryptography, Clarendon Press, Oxford, ISBN 0-19-853287-3.

Enlaces externos

• Wikimedia Commons alberga contenido multimedia sobre InformaciónCommons.• Wikiquote alberga frases célebres de o sobre Información. Wikiquote• Información en La Enciclopedia de Ciencias y Tecnologías en Argentina (http:/ / cyt-ar. com. ar/ cyt-ar/ index.

php/ Información).• información y referencia (http:/ / iyr-13. sisinfo. info/ index. php?title=Página_principal).Recuperación de información.: (http:/ / www. sistemasrecuperaciondeinformacion. blogspot. com. :) InformationRetrieval. Bogotá : ULS, 2010.

Teoría de la informaciónLa teoría de la información también conocida como teoría matemática de la comunicación (Mathematical Theoryof Communication) o teoría matemática de la información, es una propuesta teórica presentada por Claude E.Shannon y Warren Weaver a finales de la década de los 40. Esta teoría está relacionada con las leyes matemáticasque rigen la transmisión y el procesamiento de la información y se ocupa de la medición de la información y de larepresentación de la misma así como también de la capacidad de los sistemas de comunicación para transmitir yprocesar información.[1] La Teoría de la Información es una rama de la teoría matemática y de las ciencias de lacomputación que estudia la información y todo lo relacionado con ella: canales, compresión de datos, criptografía ytemas relacionados.

HistoriaLa teoría de la información surgió a finales de la Segunda Guerra Mundial en los años cuarenta. Fue iniciada porClaude E. Shannon a través de un artículo publicado en el Bell System Technical Journal en 1948, titulado Unateoría matemática de la comunicación (texto completo en inglés [2]). En esta época se buscaba utilizar de maneramás eficiente los canales de comunicación, enviando una cantidad de información por un determinado canal ymidiendo su capacidad; se buscaba la transmisión óptima de los mensajes. Esta teoría es el resultado de trabajoscomenzados en la década 1910 por Andrei A. Markovi, a quien le siguió Ralp V. L. Hartley en 1927, quien fue elprecursor del lenguaje binario. A su vez, Alan Turing en 1936, realizó el esquema de una máquina capaz de tratarinformación con emisión de símbolos, y finalmente Shannon, matemático, ingeniero electrónico y criptógrafoamericano conocido como "el padre de la teoría de la información” junto a Warren Weaver contribuyeron en laculminación y el asentamiento de la Teoría Matemática de la Comunicación de 1949 –que hoy es mundialmenteconocida por todos como la Teoría de la Información-. Weaver consiguió darle un alcance superior al planteamientoinicial, creando un modelo simple y lineal: Fuente/codificador/mensaje canal/descodificador/destino. La necesidadde una base teórica para la tecnología de la comunicación surgió del aumento de la complejidad y de la masificaciónde las vías de comunicación, tales como el teléfono, las redes de teletipo y los sistemas de comunicación por radio.La teoría de la información también abarca todas las restantes formas de transmisión y almacenamiento deinformación, incluyendo la televisión y los impulsos eléctricos que se transmiten en las computadoras y en lagrabación óptica de datos e imágenes. La idea es garantizar que el transporte masivo de datos no sea en modo algunouna merma de la calidad, incluso si los datos se comprimen de alguna manera. Idealmente, los datos se puedenrestaurar a su forma original al llegar a su destino. En algunos casos, sin embargo, el objetivo es permitir que losdatos de alguna forma se convierten para la transmisión en masas, se reciban en el punto de destino, y convertidosfácilmente a su formato original, sin perder ninguna de la información transmitida.[3]

Page 25: códigos - libro wikipedia

Teoría de la información 22

Desarrollo de la teoríaEl modelo propuesto por Shannon es un sistema general de la comunicación que parte de una fuente de informacióndesde la cual, a través de un transmisor, se emite una señal, la cual viaja por un canal, pero a lo largo de su viajepuede ser interferida por algún ruido. La señal sale del canal, llega a un receptor que decodifica la informaciónconvirtiéndola posteriormente en mensaje que pasa a un destinatario. Con el modelo de la teoría de la informaciónse trata de llegar a determinar la forma más económica, rápida y segura de codificar un mensaje, sin que la presenciade algún ruido complique su transmisión. Para esto, el destinatario debe comprender la señal correctamente, elproblema es que aunque exista un mismo código de por medio, esto no significa que el destinatario va captar elsignificado que el emisor le quiso dar al mensaje. La codificación puede referirse tanto a la transformación de voz oimagen en señales eléctricas o electromagnéticas, como al cifrado de mensajes para asegurar su privacidad. Unconcepto fundamental en la teoría de la información es que la cantidad de información contenida en un mensaje esun valor matemático bien definido y medible. El término cantidad no se refiere a la cuantía de datos, sino a laprobabilidad de que un mensaje, dentro de un conjunto de mensajes posibles, sea recibido. En lo que se refiere a lacantidad de información, el valor más alto se le asigna al mensaje que menos probabilidades tiene de ser recibido. Sise sabe con certeza que un mensaje va a ser recibido, su cantidad de información es 0. [4]

FinalidadCon el modelo de la teoría de la información se trata de llegar a determinar la forma más económica, rápida y segurade codificar un mensaje, sin que la presencia de algún ruido complique su transmisión. Para esto, el destinatario debecomprender la señal correctamente, el problema es que aunque exista un mismo código de por medio, esto nosignifica que el destinatario va captar el significado que el emisor le quiso dar al mensaje. Otro aspecto importantedentro de esta teoría es la resistencia a la distorsión que provoca el ruido, la facilidad de codificación ydescodificación, así como la velocidad de transmisión. Es por esto que se dice que el mensaje tiene muchos sentidos,y el destinatario extrae el sentido que debe atribuirle al mensaje, siempre y cuando haya un mismo código en común.La teoría de la información tiene ciertas limitantes como lo es la acepción del concepto del código, el significado quese quiere transmitir no cuenta tanto como el número de alternativas necesario para definir el hecho sin ambigüedad.Si la selección del mensaje se plantea únicamente entre dos alternativas diferentes, la teoría de Shannon postulaarbitrariamente que el valor de la información es uno. Esta unidad de información recibe el nombre de bit. Para queel valor de la información sea un bit, todas las alternativas deben ser igual de probables y estar disponibles. Esimportante saber si la fuente de información tiene el mismo grado de libertad para elegir cualquier posibilidad o si sehalla bajo alguna influencia que la induce a una cierta elección. La cantidad de información crece cuando todas lasalternativas son igual de probables o cuando mayor sea el número de alternativas. Pero en la práctica comunicativareal no todas las alternativas son igualmente probables, lo cual contribuye un tipo de proceso estocástico denominadoMarkoff. el subtipo de Markoff dice que la cadena de símbolos está configurada de manera que cualquier secuenciade esa cadena es representativa de toda la cadena completa.

Teoría aplicada a la tecnologíaLa teoría de la Información se encuentra aún hoy en día en relación con una de las tecnologías en boga, el Internet. Desde el punto de vista social, Internet representa unos significativos beneficios potenciales ya que ofrece oportunidades sin precedentes para dar poder a los individuos y conectarlos con fuentes cada vez más ricas de información digital. Internet fue creado a partir de un proyecto del departamento de defensa de los Estados Unidos llamado DARPANET (Defense Advanced Research Project Network) iniciado en 1969 y cuyo propósito principal era la investigación y desarrollo de protocolos de comunicación para redes de área amplia para ligar redes de transmisión de paquetes de diferentes tipos capaces de resistir las condiciones de operación más difíciles, y continuar funcionando aún con la pérdida de una parte de la red (por ejemplo en caso de guerra). Estas investigaciones dieron como resultado el protocolo TCP/IP, (Transmission Control Protocol/Internet Protocol) un sistema de

Page 26: códigos - libro wikipedia

Teoría de la información 23

comunicaciones muy sólido y robusto bajo el cual se integran todas las redes que conforman lo que se conoceactualmente como Internet. El enorme crecimiento de Internet se debe en parte a que es una red basada en fondosgubernamentales de cada país que forma parte de Internet, lo que proporciona un servicio prácticamente gratuito. Aprincipios de 1994 comenzó a darse un crecimiento explosivo de las compañías con propósitos comerciales enInternet, dando así origen a una nueva etapa en el desarrollo de la red. Descrito a grandes rasgos, TCP/IP mete enpaquetes la información que queremos enviar y la saca de los paquetes para utilizarla cuando la recibimos. A estospaquetes los podemos comparar con sobres de correo; TCP/IP guarda la información, cierra el sobre y en la parteexterior pone la dirección a la cual va dirigida y la dirección de quien la envía. Mediante este sistema, los paquetesviajan a través de la red hasta que llegan al destino deseado; una vez ahí, la computadora de destino quita el sobre yprocesa la información; en caso de ser necesario envía una respuesta a la computadora de origen usando el mismoprocedimiento. Cada máquina que está conectada a Internet tiene una dirección única, esto hace que la informaciónque enviamos no equivoque el destino. Existen dos formas de dar direcciones, con letras o con números. Realmente,las computadoras utilizan las direcciones numéricas para mandar paquetes de información, pero las direcciones conletras fueron implementadas para facilitar su manejo a los seres humanos. Una dirección con letras consta de dos acuatro partes. Una dirección numérica está compuesta por cuatro partes. Cada una de estas partes está dividida porpuntos.

Ejemplo: sedet.com.mx 107.248.185.1 microsoft.com198.105.232.6

Una de las aplicaciones de la teoría de la información son los archivos ZIP, documentos que se comprimen para sutransmisión a través de correo electrónico o como parte de los procedimientos de almacenamiento de datos. Lacompresión de los datos hace posible completar la transmisión en menos tiempo. En el extremo receptor, un softwarese utiliza para la liberación o descompresión del archivo, restaurando los documentos contenidos en el archivo ZIP asu formato original. La teoría de la información también entra en uso con otros tipos de archivos; por ejemplo, losarchivos de audio y video que se reproducen en un reproductor de MP3 se comprimen para una fácil descarga yalmacenamiento en el dispositivo. Cuando se accede a los archivos se amplían para que estén inmediatamentedisponibles para su uso.[5]

Elementos de la Teoría

Esquema de la comunicación ideado por Claude E. Shannon.

Fuente

Una fuente es todo aquello que emitemensajes. Por ejemplo, una fuentepuede ser una computadora y mensajessus archivos, una fuente puede ser undispositivo de transmisión de datos ymensajes los datos enviados, etc. Unafuente es en sí misma un conjuntofinito de mensajes: todos los posiblesmensajes que puede emitir dichafuente. En compresión de datostomaremos como fuente al archivo acomprimir y como mensajes a loscaracteres que conforman dichoarchivo.

Tipo de Fuentes

Page 27: códigos - libro wikipedia

Teoría de la información 24

Por la naturaleza generativa de sus mensajes una fuente puede ser aleatoria o determinística. Por la relación entre losmensajes emitidos una fuente puede ser estructurada o no estructurada (o caótica).Existen varios tipos de fuentes. Para la teoría de la información interesan las fuentes aleatorias y estructuradas. Unafuente es aleatoria cuando no es posible predecir cual es el próximo mensaje a emitir por la misma. Una fuente esestructurada cuando posee un cierto nivel de redundancia, una fuente no estructurada o de información pura esaquella en que todos los mensajes son absolutamente aleatorios sin relación alguna ni sentido aparente, este tipo defuente emite mensajes que no se pueden comprimir, un mensaje para poder ser comprimido debe poseer un ciertonivel de redundancia, la información pura no puede ser comprimida sin que haya una perdida de conocimiento sobreel mensaje.[6]

MensajeUn mensaje es un conjunto de ceros y unos. Un archivo, un paquete de datos que viaja por una red y cualquier cosaque tenga una representación binaria puede considerarse un mensaje. El concepto de mensaje se aplica también aalfabetos de más de dos símbolos, pero debido a que tratamos con información digital nos referiremos casi siempre amensajes binarios.

CódigoUn código es un conjunto de unos y ceros que se usan para representar a un cierto mensaje de acuerdo a reglas oconvenciones preestablecidas. Por ejemplo al mensaje 0010 lo podemos representar con el código 1101 usando paracodificar la función (NOT). La forma en la cual codificamos es arbitraria. Un mensaje puede, en algunos casosrepresentarse con un código de menor longitud que el mensaje original. Supongamos que a cualquier mensaje S locodificamos usando un cierto algoritmo de forma tal que cada S es codificado en L(S) bits, definimos entonces a lainformación contenida en el mensaje S como la cantidad mínima de bits necesarios para codificar un mensaje.

InformaciónLa información contenida en un mensaje es proporcional a la cantidad de bits que se requieren como mínimo pararepresentar al mensaje. El concepto de información puede entenderse más fácilmente si consideramos un ejemplo.Supongamos que estamos leyendo un mensaje y hemos leído "string of ch", la probabilidad de que el mensajecontinúe con "aracters" es muy alta por lo tanto cuando realmente leemos "aracters" del archivo la cantidad deinformación que recibimos es muy baja pues estabamos en condiciones de predecir que era lo que iba a ocurrir. Laocurrencia de mensajes de alta probabilidad de aparición aporta menos información que la ocurrencia de mensajesmenos probables. Si luego de "string of ch" leemos "imichurri" la cantidad de información que recibimos es muchomayor.

Entropía e informaciónLa información es tratada como magnitud física, caracterizando la información de una secuencia de símbolosutilizando la Entropía. Se parte de la idea de que los canales no son ideales, aunque muchas veces se idealicen las nolinealidades, para estudiar diversos métodos de envío de información o la cantidad de información útil que se puedaenviar a través de un canal.La información necesaria para especificar un sistema físico tiene que ver con su entropía. En concreto en ciertasáreas de la física extraer información del estado actual de un sistema requiere reducir su entropía, de tal manera quela entropía del sistema y la cantidad de información extraible están relacionadas por:

Page 28: códigos - libro wikipedia

Teoría de la información 25

Entropía de una fuenteDe acuerdo a la teoría de la información, el nivel de información de una fuente se puede medir según la entropía dela misma. Los estudios sobre la entropía son de suma importancia en la teoría de la información y se debenprincipalmente a C. E. Shannon, existen a su vez un gran número de propiedades respecto de la entropía de variablesaleatorias debidas a A. Kolmogorov. Dada una fuente "F" que emite mensajes, resulta frecuente observar que losmensajes emitidos no resulten equiprobables sino que tienen una cierta probabilidad de ocurrencia dependiendo delmensaje. Para codificar los mensajes de una fuente intentaremos pues utilizar menor cantidad de bits para losmensajes más probables y mayor cantidad de bits para los mensajes menos probables de forma tal que el promediode bits utilizados para codificar los mensajes sea menor a la cantidad de bits promedio de los mensajes originales.Esta es la base de la compresión de datos. A este tipo de fuente se la denomina fuente de orden-0 pues laprobabilidad de ocurrencia de un mensaje no depende de los mensajes anteriores, a las fuentes de orden superior selas puede representar mediante una fuente de orden-0 utilizando técnicas de modelización apropiadas. Definimos a laprobabilidad de ocurrencia de un mensaje en una fuente como la cantidad de apariciones de dicho mensaje divididoel total de mensajes. Supongamos que Pi es la probabilidad de ocurrencia del mensaje-i de una fuente, y supongamosque Li es la longitud del código utilizado para representar a dicho mensaje, la longitud promedio de todos losmensajes codificados de la fuente se puede obtener como:

•• Promedio ponderado de las longitudes de los códigos de acuerdo a sus probabilidades de ocurrencia, al número"H" se lo denomina "Entropía de la fuente" y tiene gran importancia. La entropía de la fuente determina el nivelde compresión que podemos obtener como máximo para un conjunto de datos, si consideramos como fuente a unarchivo y obtenemos las probabilidades de ocurrencia de cada carácter en el archivo podremos calcular la longitudpromedio del archivo comprimido, se demuestra que no es posible comprimir estadísticamente unmensaje/archivo más allá de su entropía. Lo cual implica que considerando únicamente la frecuencia de apariciónde cada carácter la entropía de la fuente nos da el límite teórico de compresión, mediante otras técnicasno-estadísticas puede, tal vez, superarse este límite.

• El objetivo de la compresión de datos es encontrar los Li que minimizan a "H", además los Li se deben determinaren función de los Pi, pues la longitud de los códigos debe depender de la probabilidad de ocurrencia de losmismos (los más ocurrentes queremos codificarlos en menos bits). Se plantea pues:

A partir de aquí y tras intrincados procedimientos matemáticos que fueron demostrados por Shannon oportunamentese llega a que H es mínimo cuando f(Pi) = log2 (1/Pi). Entonces:

La longitud mínima con la cual puede codificarse un mensaje puede calcularse como Li=log2(1/Pi) = -log2(Pi). Estoda una idea de la longitud a emplear en los códigos a usar para los caracteres de un archivo en función de suprobabilidad de ocurrencia. Reemplazando Li podemos escribir a H como:

De aquí se deduce que la entropía de la fuente depende únicamente de la probabilidad de ocurrencia de cada mensajede la misma, por ello la importancia de los compresores estadísticos (aquellos que se basan en la probabilidad deocurrencia de cada carácter). Shannon demostró, oportunamente que no es posible comprimir una fuenteestadísticamente más allá del nivel indicado por su entropía. [7][8]

Page 29: códigos - libro wikipedia

Teoría de la información 26

Otros tópicos de la teoría•• Fuentes de información

•• Teorema de muestreo de Nyquist-Shannon•• Entropía•• Neguentropía•• Información mutua

•• Canales

•• Capacidad•• Compresión de datos

•• Códigos fuente•• Códigos no-singulares•• Códigos unívocamente decodificables

•• Extensión de código• Códigos prefijo (o códigos instantáneos)

•• Control de errores

•• FEC•• ARQ

•• Parada y espera•• Rechazo múltiple•• Rechazo selectivo

•• Técnicas híbridas•• Concatenación de códigos•• Tipo 1•• Tipo 2

•• Detección de errores

•• Bits de redundancia•• Métodos de control de errores

•• Paridad•• Códigos autochequeo y autocorrectores

•• Códigos de bloque•• Distancia Hamming

•• Paridad horizontal y vertical•• Códigos lineales

•• Códigos cíclicos•• CRC16•• CRC32

Page 30: códigos - libro wikipedia

Teoría de la información 27

Referencias[1] Teoría Matemática de la Comunicación (http:/ / tunastc3. tripod. com/ ts10/ )[2] http:/ / www. essrl. wustl. edu/ ~jao/ itrg/ shannon. pdf[3] Teoría Matemática de la Comunicación (http:/ / tunastc3. tripod. com/ ts10/ )[4] Teoría de la Información (http:/ / www. entradagratis. com/ Enciclopedia-de-Comunicacion/ 3068/ Teoria-de-la-Informacion-pag. 1. htm)[5] Teoría Matemático-informacional (http:/ / www. monografias. com/ trabajos59/ teoria-matematico-informacional/

teoria-matematico-informacional. shtml)[6] Teoría de la Información | Textos Científicos (http:/ / www. textoscientificos. com/ informacion/ teoria)[7] Teoría de la Información (http:/ / www. textoscientificos. com/ informacion/ teoria)[8] Teoría Matemática de la Información (http:/ / cienciasempresariales. info/ teoria-matematica-de-la-informacion/ )

Entropía (información)

Escultura dedicada a la Entropía en los jardines centrales de la Universidadde Monterrey, México

En el ámbito de la teoría de la información laentropía, también llamada entropía de lainformación y entropía de Shannon (en honor aClaude E. Shannon), mide la incertidumbre deuna fuente de información.

La Entropía también se puede considerar como lacantidad de información promedio que contienenlos símbolos usados. Los símbolos con menorprobabilidad son los que aportan mayorinformación; por ejemplo, si se considera comosistema de símbolos a las palabras en un texto,palabras frecuentes como "que", "el", "a" aportanpoca información. Mientras que palabras menosfrecuentes como "corren", "niño", "perro" aportanmás información. Si de un texto dado borramosun "que", seguramente no afectará a lacomprensión y se sobreentenderá, no siendo así siborramos la palabra "niño" del mismo textooriginal. Cuando todos los símbolos sonigualmente probables (distribución deprobabilidad plana), todos aportan informaciónrelevante y la entropía es máxima.El concepto de entropía es usado entermodinámica, mecánica estadística y teoría de lainformación. En todos los casos la entropía seconcibe como una "medida del desorden" o la "peculiaridad de ciertas combinaciones". La Entropía puede serconsiderada como una medida de la incertidumbre y de la información necesarias para, en cualquier proceso, poderacotar, reducir o eliminar la incertidumbre. Resulta que el concepto de información y el de entropía estánampliamente relacionados entre sí, aunque se necesitaron años de desarrollo de la mecánica estadística y de la teoríade la información antes de que esto fuera percibido.

Page 31: códigos - libro wikipedia

Entropía (información) 28

Relación con la entropía termodinámicaLa entropía de la teoría de la información está estrechamente relacionada con la entropía termodinámica. En latermodinámica se estudia un sistema de partículas cuyos estados X (usualmente posición y velocidad) tienen unacierta distribución de probabilidad, pudiendo ocupar varios microestados posibles (equivalentes a los símbolos en lateoría de la información). La entropía termodinámica es igual a la entropía de la teoría de la información de esadistribución (medida usando el logaritmo neperiano) multiplicada por la constante de Boltzmann k, la cual permitepasar de nats (unidad semejante al bit) a J/K. Cuando todos los microestados son igualmente probables, la entropíatermodinámica toma la forma k log(N). En un sistema aislado, la interacción entre las partículas tiende a aumentar sudispersión, afectando sus posiciones y sus velocidades, lo que causa que la entropía de la distribución aumente con eltiempo hasta llegar a un cierto máximo (cuando el mismo sistema es lo más homogéneo y desorganizado posible); loque es denominado segunda ley de la termodinámica. La diferencia entre la cantidad de entropía que tiene un sistemay el máximo que puede llegar a tener se denomina neguentropía, y representa la cantidad de organización interna quetiene el sistema. A partir de esta última se puede definir la energía libre de Gibbs, la que indica la energía que puedeliberar el sistema al aumentar la entropía hasta su máximo y puede ser transformada en trabajo (energía mecánicaútil) usando una máquina ideal de Carnot. Cuando un sistema recibe un flujo de calor, las velocidades de laspartículas aumentan, lo que dispersa la distribución y hace aumentar la entropía. Así, el flujo de calor produce unflujo de entropía en la misma dirección.

Concepto intuitivo

Entropía de la información en un ensayo deBernoulli X (experimento aleatorio en que Xpuede tomar los valores 0 o 1). La entropía

depende de la probabilidad P(X=1) de que Xtome el valor 1. Cuando P(X=1)=0.5, todos los

resultados posibles son igualmente probables, porlo que el resultado es poco predecible y la

entropía es máxima.

El concepto básico de entropía en teoría de la información tiene muchoque ver con la incertidumbre que existe en cualquier experimento oseñal aleatoria. Es también la cantidad de "ruido" o "desorden" quecontiene o libera un sistema. De esta forma, podremos hablar de lacantidad de información que lleva una señal.

Como ejemplo, consideremos algún texto escrito en español,codificado como una cadena de letras, espacios y signos de puntuación(nuestra señal será una cadena de caracteres). Ya que, estadísticamente,algunos caracteres no son muy comunes (por ejemplo, 'w'), mientrasotros sí lo son (como la 'a'), la cadena de caracteres no será tan"aleatoria" como podría llegar a ser. Obviamente, no podemos predecircon exactitud cuál será el siguiente carácter en la cadena, y eso la haríaaparentemente aleatoria. Pero es la entropía la encargada de medirprecisamente esa aleatoriedad, y fue presentada por Shannon en suartículo de 1948, A Mathematical Theory of Communication [1] ("Unateoría matemática de la comunicación", en inglés).

Shannon ofrece una definición de entropía que satisface las siguientesafirmaciones:• La medida de información debe ser proporcional (continua). Es decir, el cambio pequeño en una de las

probabilidades de aparición de uno de los elementos de la señal debe cambiar poco la entropía.•• Si todos los elementos de la señal son equiprobables a la hora de aparecer, entonces la entropía será máxima.Ejemplos de máxima entropía: Suponiendo que estamos a la espera de un texto, por ejemplo un cable con unmensaje. En dicho cable solo se reciben las letras en minúscula de la a hasta la z, entonces si el mensaje que nosllega es "qalmnbphijcdgketrsfuvxyzwño" el cual posee una longitud de 27 caracteres, se puede decir que estemensaje llega a nosotros con la máxima entropía (o desorden posible); ya que es poco probable que se puedapronosticar la entrada de caracteres, pues estos no se repiten ni están ordenados en una forma predecible.

Page 32: códigos - libro wikipedia

Entropía (información) 29

Definición formalSupongamos que un fenómeno (variable aleatoria) tiene un grado de indeterminación inicial igual a k (k estadosposibles) y supongamos todos los estados equiprobables, entonces la probabilidad p de que se dé una de esascombinaciones será 1/k. Podemos representar entonces la expresión como:

Si ahora cada uno de los k estados tiene una probabilidad , entonces la entropía vendrá dada por la sumaponderada de la cantidad de información:[2]

Por lo tanto, la entropía de un mensaje X, denotado por H(X), es el valor medio ponderado de la cantidad deinformación de los diversos estados del mensaje:

que representa una medida de la incertidumbre media acerca de una variable aleatoria y por tanto de la cantidad deinformación.• Nota: Obsérvese que se usa el logaritmo en base 2 porque se considera que la información se va a representar

mediante código binario (se quiere representar con bits). Si para representar la información de la variable aleatoriase usaran valores en una base entonces sería conveniente considerar logaritmos en base .

Ejemplos•• La entropía de un mensaje M de longitud 1 carácter que utiliza el conjunto de caracteres ASCII, suponiendo una

equiprobabilidad en los 256 caracteres ASCII, será:

• Supongamos que el número de estados de un mensaje es igual a 3, M1, M2 y M3 donde la probabilidad de M1 es50%, la de M2 25% y la de M3 25%. Por tanto la entropía de la información es:

Información MútuaLa entropía puede verse como caso especial de la información mutua. La información mutua de dos variablesaleatorias, denotado por I(X;Y), es una cantidad que mide la dependencia mutua de las dos variables, es decir, midela reducción de la incertidumbre (entropía) de una variable aleatoria, X, debido al conocimiento del valor de otravariable aleatoria Y.[3] De la definición podemos concluir que si X e Y son iguales, entonces I(X;X)=H(X).

PropiedadesLa entropía tiene las siguiente propiedades:

1. La entropía es no negativa. Esto es evidente ya que al ser una probabilidad entonces . Por tantopodemos decir que y por tanto

2. Es decir, la entropía H está acotada superiormente (cuando es máxima) y no supone pérdida deinformación.

3. Dado un proceso con posibles resultados {A1,..,An} con probabilidades relativas p1,...,pn, la funciónes máxima en el caso de que . El resultado es intuitivo ya que

tenemos la mayor incertidumbre del mensaje, cuando los valores posibles de la variable son equiprobables4. Dado un proceso con posibles resultados {A1,..,An} con probabilidades relativas p1,...,pn, la función

es nula en el caso de que para todo i, excepto para una clase, tal que: . De

Page 33: códigos - libro wikipedia

Entropía (información) 30

forma intuitiva podemos pensar que cuando uno o más estados tienen una probabilidad alta, disminuyesignificativamente la entropía porque, como es lógico, existe una menor incertidumbre respecto al mensaje que serecibirá.

Codificador óptimoUn codificador óptimo es aquel que utiliza el mínimo número de bits para codificar un mensaje. Un codificadoróptimo usará códigos cortos para codificar mensajes frecuentes y dejará los códigos de mayor longitud para aquellosmensajes que sean menos frecuentes. De esta forma se optimiza el rendimiento del canal o zona de almacenamientoy el sistema es eficiente en términos del número de bits para representar el mensaje.Por ejemplo, el código Morse se aprovecha de este principio para optimizar el número de caracteres a transmitir apartir del estudio de las letras más frecuentes del alfabeto inglés. El código Morse no es un codificador óptimo perosí asigna a las letras más frecuente código más cortos. Otro ejemplo sería el algoritmo de Huffman de codificaciónque sirve para compactar información.[4] Este método se basa en el codificador óptimo. Para ello lo primero quehace es recorrer toda la información para encontrar la frecuencia de los caracteres y luego a partir de estainformación busca el codificador óptimo por medio de árboles binarios. Algunas técnicas de compresión como LZWo deflación no usan probabilidades de los símbolos aislados, sino que usan las probabilidades conjuntas de pequeñassecuencias de símbolos para codificar el mensaje, por lo que pueden lograr un nivel de compresión mayor.Podemos construir un codificador óptimo basándonos en la entropía de una variable aleatoria de información X. Enefecto, la entropía nos da el número medio de bits (si usamos logaritmos de base 2) necesarios para codificar elmensaje a través de un codificador óptimo y por tanto nos determina el límite máximo al que se puede comprimirun mensaje usando un enfoque símbolo a símbolo sin ninguna pérdida de información (demostrado analíticamentepor Shannon), el límite de compresión (en bits) es igual a la entropía multiplicada por el largo del mensaje.Reescribiendo la ecuación de cálculo de la entropía podemos decir:

por tanto la información (usando base 2 y por tanto en bits) que aporta un determinado valor (símbolo), , de unavariable aleatoria discreta se define como:

Esta expresión representa el número necesario de bits para codificar el mensaje x en el codificador óptimo y portanto la entropía también se puede considerar como una medida de la información promedio contenida en cadasímbolo del mensaje.

EjemploSupongamos que el número de estados de un mensaje es igual a 3 M1, M2 y M3 donde la probabilidad de M1 es 50%,la de M2 25% y la de M3 25%.

Para M1 tenemos que Para M2 tenemos que Para M3 tenemos que

Por tanto en el codificador óptimo para transmitir M1 hará falta un bit y para M2 y M3 será necesario contar con dosbits. Por ejemplo podríamos codificar M1 con "0", M2 con "10" y M2 con "11". Usando este convenio para codificarel mensaje M1M2M1M1M3M1M2M3 usaríamos "010001101011" y por tanto 12 bits. El valor de la entropía sería:

Por tanto el codificador óptimo necesita de media 1,5 bits para codificar cualquier valor de X.

Page 34: códigos - libro wikipedia

Entropía (información) 31

Entropía condicionalVéase también artículo dedicado: Entropía condicional

Supongamos que en vez de tener una única variable aleatoria X, existe otra variable Y dependientes entre sí, es decirel conocimiento de una (por ejemplo Y) entrega información sobre la otra (por ejemplo X). Desde el punto de vistade la entropía de la información podemos decir que la información de Y disminuirá la incertidumbre de X. Por tantopodemos decir que la entropía de X será condicional a Y. y por tanto:

Como por el teorema de Bayes tenemos que p(x,y)=p(y)p(x|y) donde p(x|y) es la probabilidad de que se dé un estadode X conocida Y, podemos decir:

Aplicación en criptoanálisisEl concepto de entropía condicional es muy interesante en el campo del criptoanálisis. Proporciona una herramientapara evaluar el grado de seguridad de los sistemas. Por ejemplo para un sistema de cifrado hay dos entropíascondicionales interesantes:[5] Supongamos• Un mensaje M1 es sometido a un proceso de cifrado usando la clave K1 obteniendo E(K1,M1)=C1.• representan la probabilidad condicional de la clave K dado el criptograma recibido C. A veces también

se denota por • representan la probabilidad condicional del mensaje M dado el criptograma recibido C. A veces

también se denota por Entonces:• Podemos calcular la entropía del conocimiento de la clave una vez conocido el texto cifrado, y por tanto medir la

equivocación del mensaje (en inglés message equivocation), , también denotada por ,mediante la fórmula:

La primera igualdad es por la definición de la entropía condicional y la segunda por aplicación del teorema deBayes.

Observar que si significa que se podrá romper el cifrado pues ya no hay incertidumbre. Estaanulación nos introduce en el concepto de distancia de unicidad.

• Podemos calcular la entropía del conocimiento del mensaje una vez conocido el texto cifrado, y por tanto medir laequivocación de la clave (en inglés key equivocation), , también denotada por , mediantela fórmula:

La primera igualdad es por la definición de la entropía condicional y la segunda por aplicación del teorema deBayes.

Page 35: códigos - libro wikipedia

Entropía (información) 32

Ejemplo

Supongamos X una variable X con cuatro estados: todos equiprobables y por tanto .Existe además otra variable Y con tres estados; con probabilidades y

. Se conocen además las siguientes dependecias:Si entonces los posibles valores de x son Si entonces los posibles valores de x son Si entonces los posibles valores de x son

Aplicando las fórmulas tenemos:

En este caso el conocimiento de la dependencia de X respecto Y reduce la entropía de X de 2 a 1,5.

Entropía de un proceso estocástico[6]Un proceso estocástico es una secuencia indexada de variables aleatorias. En general, puede haberdependencias entre las variables aleatorias. Para estudiar la probabilidad de cierto conjunto de valores se sueleadoptar el siguiente convenio:

Sea un proceso estocástico de n variables aleatorias, y sea el conjunto de la posiblescombinaciones de valores de . Se define la entropía del proceso estocástico, también llamadaentropía del n-grama y denotado por , como:

Ratio de entropíaVéase también artículo dedicado: Ratio de entropía

[7]La ratio de entropía de una secuencia de n variables aleatorias (proceso estocástico) caracteriza la tasa decrecimiento de la entropía de la secuencia con el crecimiento de n.

La ratio de entropía de un proceso estocástico viene definida por la ecuación:

siempre que dicho límite exista.

Page 36: códigos - libro wikipedia

Entropía (información) 33

Referencias[1] http:/ / cm. bell-labs. com/ cm/ ms/ what/ shannonday/ paper. html[2][2] Cuevas Agustín, Gonzalo, "Teoría de la información, codificación y lenguajes", Ed. SEPA (Sociedad para Estudios Pedagógicos Argentinos),

Serie Informática 1986[3][3] Dan C. Marinescu, Gabriela M. Marinescu, "Classical and Quantum Information",Academic Press 2012[4][4] Huffman, D., "A method for the Construction of Minimun-Redundancy Codes", Proc. IRE, Vol 40 1952[5][5] "Applied cryptology, cryptographic protocols and computer security models", Richard A. DeMillo et all. American Mathematical Societyn

1983[6] Thomas M. Cover, Joy A. Thomas,"Elements of Information Theory", John Wiley & Sons. Second Edition 2006[7] Thomas M. Cover, Joy A. Thomas,"Elements of Information Theory", John Wiley & Sons. Second Edition 2006

Bibliografía•• Jorge Ramió Aguirre, Aplicaciones criptográficas. Libro guía de la asignatura de Seguridad Informática. Escuela

Universitaria de Informática. Universidad Politécnica de Madrid. Enero 1998.

Enlaces externos• Una Teoría Matemática de la Comunicación (http:/ / cm. bell-labs. com/ cm/ ms/ what/ shannonday/ paper. html)

(en inglés)• Calculadora de la entropía de Shannon (http:/ / www. shannonentropy. netmark. pl) (en inglés)

Información mutuaEn teoría de la probabilidad, y en teoría de la información, la información mutua o transinformación de dosvariables aleatorias es una cantidad que mide la dependencia mutua de las dos variables, es decir, mide la reducciónde la incertidumbre (entropía) de una variable aleatoria, X, debido al conocimiento del valor de otra variablealeatoria Y.[1]

DefiniciónConsideremos dos variables aleatorias X e Y con posibles valores xi, i=1,2,...,n, yj, j=1,2,...,m respectivamente.Podemos usar la notación y

Podemos definir la información mutua entre y como:[2]

La unidad del concepto está determinado por la base del logaritmo usado. Se suelen usar logaritmos base dos, portanto, la unidad de medida más común es el bit.

De la propia definición podemos concluir que ya que:

Page 37: códigos - libro wikipedia

Información mutua 34

Información mutua mediaLa información mutua media mide la información mutua media que se produce entre los distintos valores de dosvariables aleatorias. Para ello proporcionamos un peso a los valores de en base a la probabilidad deocurrencia. Por tanto, la información mutua media de dos variables aleatorias discretas X e Y puede definirsecomo:[3]

En el caso continuo, reemplazamos la suma con una integral doble definida:

Como en el caso de , la unidad del concepto está determinado por la base del logaritmo usado Se sueleusar el logaritmo con base dos y por tanto la unidad más común es el bit.

Concepto intuitivoIntuitivamente, la información mutua media mide la información que X e Y comparten: mide en cuánto elconocimiento de una variable reduce nuestra incertidumbre sobre la otra. Por ejemplo, si X e Y son independientes,entonces conocer X no da información sobre Y y viceversa, por lo que su información mutua es cero. En el otroextremo, si X e Y son idénticas entonces toda información proporcionada por X es compartida por Y: saber Xdetermina el valor de Y y viceversa. Por ello, la información mutua media es igual a la información contenida en Y (oX) por sí sola, también llamada la entropía de Y (o X: claramente si X e Y son idénticas tienen idéntica entropía).La información mutua media cuantifica la dependencia entre la distribución conjunta de X e Y y la que tendrían si X eY fuesen independientes. La información mutua media es una medida de dependencia en el siguiente sentido: I(X; Y)= 0 si y sólo si X e Y son variables aleatorias independientes. Esto es fácil de ver en una dirección: si X e Y sonindependientes, entonces p(x,y) = p(x) p(y), y por tanto:

Page 38: códigos - libro wikipedia

Información mutua 35

PropiedadesLa información mutua media cumple las siguientes propiedades:[4][5]

1. min(H(X),H(Y)) ≥ I(X;Y) ≥ 0 cumpliéndose la igualdad a 0 cuando X e Y son independientes.2. I(X;Y) = I(Y;X).

Relación con entropía

Relación entre entropías e información mutua media[6]

El valor de la información mutua previa se puedeobtener a partir del concepto de entropía. usando lasdefiniciones matemáticas de las [entropía(información)entropías H(X), H(X,Y) y H(X|Y)

obtenemos

De lo anterior y de la propiedad de las entropías

obtenemos

Por tanto,

lo que indica que la entropía es un tipo especial de información mutua media

Referencias[1][1] Dan C. Marinescu, Gabriela M. Marinescu, "Classical and Quantum Information",Academic Press 2012[2][2] Ranajan M. Bose,"Information Theory, Coding And Cryptography". Tata McGraw Hill 2008[3][3] Ranajan M. Bose,"Information Theory, Coding And Cryptography". Tata McGraw Hill 2008[4][4] Ranajan M. Bose,"Information Theory, Coding And Cryptography". Tata McGraw Hill 2008[5][5] R.M.Gray,"Entropy and Information Theory", Springer 2011.Second Edition[6][6] Ranajan M. Bose,"Information Theory, Coding And Cryptography". Tata McGraw Hill 2008

Page 39: códigos - libro wikipedia

Variable aleatoria 36

Variable aleatoriaEn probabilidad y estadística, una variable aleatoria o variable estocástica es una variable estadística cuyosvalores se obtienen de mediciones en algún tipo de experimento aleatorio. Formalmente, una variable aleatoria esuna función, que asigna eventos (p.e., los posibles resultados de tirar un dado dos veces: (1, 1), (1, 2), etc.) anúmeros reales (p.e., su suma).Los valores posibles de una variable aleatoria pueden representar los posibles resultados de un experimento aún norealizado, o los posibles valores de una cantidad cuyo valor actualmente existente es incierto (p.e., como resultado demedición incompleta o imprecisa). Intuitivamente, una variable aleatoria puede tomarse como una cantidad cuyovalor no es fijo pero puede tomar diferentes valores; una distribución de probabilidad se usa para describir laprobabilidad de que se den los diferentes valores.Las variables aleatorias suelen tomar valores reales, pero se pueden considerar valores aleatorios como valoreslógicos, funciones... El término elemento aleatorio se utiliza para englobar todo ese tipo de conceptos relacionados.Un concepto relacionado es el de proceso estocástico, un conjunto de variables aleatorias ordenadas (habitualmentepor orden o tiempo).

Definición de variable aleatoria

Concepto intuitivoInformalmente una variable aleatoria puede concebirse como un valor numérico que está afectado por el azar. Dadauna variable aleatoria no es posible conocer con certeza el valor que tomará esta al ser medida o determinada, aunquesí se conoce que existe una distribución de probabilidad asociada al conjunto de valores posibles. Por ejemplo, enuna epidemia de cólera, se sabe que una persona cualquiera puede enfermar o no (suceso), pero no se sabe cual delos dos sucesos va a ocurrir. Solamente se puede decir que existe una probabilidad de que la persona enferme.Para trabajar de manera sólida con variables aleatorias en general es necesario considerar un gran número deexperimentos aleatorios, para su tratamiento estadístico, cuantificar los resultados de modo que se asigne un númeroreal a cada uno de los resultados posibles del experimento. De este modo se establece una relación funcional entreelementos del espacio muestral asociado al experimento y números reales.

Definición formalUna variable aleatoria (v.a.) X es una función real definida en el espacio muestral, Ω, asociado a un experimentoaleatorio.[1][2]

La definición formal anterior involucra conceptos matemáticos sofisticados procedentes de la teoría de la medida,concretamente la noción de espacio de probabilidad.[3][4]

Dado un espacio de probabilidad y un espacio medible , una aplicación es unavariable aleatoria si es una aplicación -medible.En la mayoría de los casos se toma como espacio medible de llegada el formado por los números reales junto con laσ-álgebra de Borel (el generado por la topología usual de ), quedando pues la definición de esta manera:

Dado un espacio de probabilidad una variable aleatoria real es cualquier función -medibledonde es la σ-álgebra boreliana.

Page 40: códigos - libro wikipedia

Variable aleatoria 37

Rango de una variable aleatoriaSe llama rango de una variable aleatoria X y lo denotaremos RX, a la imagen o rango de la función , es decir, alconjunto de los valores reales que ésta puede tomar, según la aplicación X. Dicho de otro modo, el rango de una v.a.es el recorrido de la función por la que ésta queda definida:

EjemploSupongamos que se lanzan dos monedas al aire. El espacio muestral, esto es, el conjunto de resultados elementalesposibles asociado al experimento, es

,donde (c representa "sale cara" y x, "sale cruz").Podemos asignar entonces a cada suceso elemental del experimento el número de caras obtenidas. De este modo sedefiniría la variable aleatoria X como la función

dada por

El recorrido o rango de esta función, RX, es el conjunto

Caracterización de variables aleatorias

Tipos de variables aleatoriasPara comprender de una manera más amplia y rigurosa los tipos de variables, es necesario conocer la definición deconjunto discreto. Un conjunto es discreto si está formado por un número finito de elementos, o si sus elementos sepueden enumerar en secuencia de modo que haya un primer elemento, un segundo elemento, un tercer elemento, yasí sucesivamente.[5]

• Variable aleatoria discreta: una v.a. es discreta si su recorrido es un conjunto discreto. La variable del ejemploanterior es discreta. Sus probabilidades se recogen en la función de cuantía (véanse las distribuciones de variablediscreta).

• Variable aleatoria continua: una v.a. es continua si su recorrido no es un conjunto numerable. Intuitivamenteesto significa que el conjunto de posibles valores de la variable abarca todo un intervalo de números reales. Porejemplo, la variable que asigna la estatura a una persona extraída de una determinada población es una variablecontinua ya que, teóricamente, todo valor entre, pongamos por caso, 0 y 2,50 m, es posible.[6] (véanse lasdistribuciones de variable continua)

• Variable aleatoria independiente: Supongamos que "X" e "Y" son variables aleatorias discretas. Si los eventosX = x / Y = y son variables aleatorias independientes. En tal caso: P(X = x, Y = y) = P( X = x) P ( Y = y).

De manera equivalente: f(x,y) = f1(x).f2(y).Inversamente, si para todo "x" e "y" la función de probabilidad conjunta f(x,y) no puede expresarse sólo comoel producto de una función de "x" por una función de "y" (denominadas funciones de probabilidad marginal de"X" e "Y" ), entonces "X" e "Y" son dependientes.

Page 41: códigos - libro wikipedia

Variable aleatoria 38

Si "X" e "Y" son variables aleatorias continuas, decimos que son variables aleatorias independientes si loseventos "X ≤ x", e "Y ≤ y" y son eventos independientes para todo "x" e "y" .De manera equivalente: F(x,y) = F1(x).F2(y), donde F1(x) y F2(y) son las funciones de distribución (marginal)de "X" e "Y" respectivamente.Inversamente, "X" e "Y" son variables aleatorias dependientes si para todo "x" e "y" su función dedistribución conjunta F(x,y) no puede expresarse como el producto de las funciones de distribución marginalesde "X" e "Y".Para variables aleatorias independientes continuas, también es cierto que la función de densidad conjuntaf(x,y)es el producto de las funciones densidad de probabilidad marginales de "X", f1(x), y de "Y", f2(y).

Distribución de probabilidad de una v.a.La distribución de probabilidad de una v.a. X, también llamada función de distribución de X es la función

, que asigna a cada evento definido sobre una probabilidad dada por la siguiente expresión:

y de manera que se cumplan las siguientes tres condiciones:

1. y 2. Es continua por la derecha.3. Es monótona no decreciente.La distribución de probabilidad de una v.a. describe teóricamente la forma en que varían los resultados de unexperimento aleatorio. Intuitivamente se trataría de una lista de los resultados posibles de un experimento con lasprobabilidades que se esperarían ver asociadas con cada resultado.

Función de densidad de una v.a. continuaLa función de densidad de probabilidad (FDP) o, simplemente, función de densidad, representada comúnmentecomo f(x), se utiliza con el propósito de conocer cómo se distribuyen las probabilidades de un suceso o evento, enrelación al resultado del suceso.La FDP es la derivada (ordinaria o en el sentido de las distribuciones) de la función de distribución de probabilidadF(x), o de manera inversa, la función de distribución es la integral de la función de densidad:

La función de densidad de una v.a. determina la concentración de probabilidad alrededor de los valores de unavariable aleatoria continua.

Funciones de variables aleatoriasSea una variable aleatoria sobre y una función medible de Borel , entonces serátambién una variable aleatoria sobre , dado que la composición de funciones medibles también es medible a noser que sea una función medible de Lebesgue. El mismo procedimiento que permite ir de un espacio deprobabilidad a puede ser utilizado para obtener la distribución de . La función deprobabilidad acumulada de es

Si la función g es invertible, es decir g-1 existe, y es monótona creciente, entonces la anterior relación puede serextendida para obtener

Page 42: códigos - libro wikipedia

Variable aleatoria 39

y, trabajando de nuevo bajo las mismas hipótesis de invertibilidad de g y asumiendo además diferenciabilidad,podemos hallar la relación entre las funciones de densidad de probabilidad al diferenciar ambos términos respecto dey, obteniendo

.

Si g no es invertible pero cada y tiene un número finito de raíces, entonces la relación previa con la función dedensidad de probabilidad puede generalizarse como

donde xi = gi-1(y). Las fórmulas de densidad no requieren que g sea creciente.

EjemploSea X una variable aleatoria real continua y sea Y = X2.

Si y < 0, entonces P(X2 = y) = 0, por lo tanto

Si y = 0, entonces

por lo tanto

Parámetros de una v.a.La función de densidad o la distribución de probabilidad de una v.a. contiene exhaustivamente toda la informaciónsobre la variable. Sin embargo resulta conveniente resumir sus características principales con unos cuantos valoresnuméricos. Estos son, fundamentalmente la esperanza y la varianza.

EsperanzaLa esperanza matemática (o simplemente esperanza) o valor esperado de una v.a. es la suma del producto de laprobabilidad de cada suceso por el valor de dicho suceso.Si todos los sucesos son de igual probabilidad la esperanza es la media aritmética.Para una variable aleatoria discreta con valores posibles y sus probabilidades representadas por lafunción de probabilidad la esperanza se calcula como:

Para una variable aleatoria continua la esperanza se calcula mediante la integral de todos los valores y la función dedensidad :

o

La esperanza también se suele simbolizar con

Page 43: códigos - libro wikipedia

Variable aleatoria 40

El concepto de esperanza se asocia comúnmente en los juegos de azar al de beneficio medio o beneficio esperado alargo plazo.

Varianza

La varianza es una medida de dispersión de una variable aleatoria respecto a su esperanza . Se definecomo la esperanza de la transformación :

o bien

Referencias[1] http:/ / www. hrc. es/ bioest/ estadis_21. html Definición de variable aleatoria. Esta definición no es en absoluto rigurosa, ya que no define

una variable aleatoria, sino cualquier función real. Es de remarcar que en la referencia no se dice en ningún momento que eso sea unadefinición. Sin embargo, en la mayoría de las aplicaciones prácticas, es suficiente.

[2] La definición rigurosa de variable aleatoria exige dotar a de estructura de espacio medible e imponer a X la condición de ser funciónmedible (véase la definición formal de variable aleatoria, en este mismo artículo).

[3] http:/ / planetmath. org/ encyclopedia/ DiscreteRandomVariable. html[4] http:/ / mathworld. wolfram. com/ RandomVariable. html[5] Véase conjunto finito para una definición más rigurosa[6][6] En experimentos reales la continuidad de una variable es rarísima, ya que la escasa precisión de los instrumentos de medida obliga a un

conjunto discreto de valores posibles.

Bibliografía• Peña Sánchez de Rivera, Daniel (2008). Fundamentos de Estadística (1ª edición). Alianza Editorial. pp. 688. ISBN

9788420683805.• Ropero Moriones, Eva (2009). Manual de estadística empresarial (1ª edición). Delta Publicaciones. pp. 200. ISBN

9788492453214.

Enlaces externos• Wikimedia Commons alberga contenido multimedia sobre Variable aleatoriaCommons.

Page 44: códigos - libro wikipedia

Incertidumbre (metrología) 41

Incertidumbre (metrología)Incertidumbre, en metrología, es una cota superior del valor de la corrección residual de la medida.También puede expresarse como el valor de la semi-amplitud de un intervalo alrededor del valor resultante de lamedida, que se entiende como el valor convencionalmente verdadero. El carácter convencional, y no real de talvalor, es consecuencia de que el intervalo se entiende como una estimación adecuada de la zona de valores entre losque se encuentra el valor verdadero del mensurando, y que en términos tanto teóricos como prácticos es imposible dehallar con seguridad o absoluta certeza: teóricamente porque se necesitaría una sucesión infinita de correcciones, yen términos prácticos por no ser útil continuar con las correcciones una vez que la incertidumbre se ha reducido losuficiente como para no afectar técnicamente al objeto al que va a servir la medida.El Vocabulario Internacional de Metrología (VIM) define la incertidumbre de medida como un parámetro, asociadoal resultado de una medición, que caracteriza la dispersión de los valores que razonablemente podrían seratribuidos al mensurando.[1]

Existen muchas formas de expresar la incertidumbre de medida o conceptos derivados o asociados: incertidumbretípica, incertidumbre expandida, incertidumbre de calibración -calibración-, incertidumbre máxima, incertidumbre deuso, etc.[2]

la incertidumbre también puede ser como una duda de algo no entendido o no explicado la cual puede llevarse a caboun grupo de preguntas y repuestas por resolver y darle una muy buena explicación. Como concepto metrológico, esdel mismo ámbito, pero diferente a los de tolerancia y precisión.Para la determinación del valor de las magnitudes fundamentales (obtenido experimentalmente) en unidades del SI,se aplica la incertidumbre típica, revisada periódicamente.[3]

Notas[1] Incertidumbre, Tolerancia y Precisión (http:/ / www. cartesia. org/ article. php?sid=187)[2] Sensibilidad Incertidumbre (http:/ / www. mitecnologico. com/ im/ Main/ SensibilidadIncertidumbre)[3] Real Decreto 2032/2009, de 30 de diciembre, por el que se establecen las unidades legales de medida. (http:/ / www. boe. es/ boe/ dias/ 2010/

01/ 21/ pdfs/ BOE-A-2010-927. pdf) BOE Núm. 18, jueves 21 de enero de 2010. Sec. I pgs. 5607-5618

Page 45: códigos - libro wikipedia

Incertidumbre de calibración 42

Incertidumbre de calibraciónEl término incertidumbre de calibración, normalmente se refiere a la fuente de incertidumbre procedente delInstrumento de medición o bien del patrón de medida.[1]

Cálculo de incertidumbre de calibración de un instrumentoPara indicar el cálculo de la incertidumbre de un instrumento de medida a través de su calibración, se debenconsiderar los siguientes supuestos previos:1.1. La fuente principal de incertidumbre es la debida al instrumento de medida. Existen fuentes de incertidumbre

aleatorias, tipo A. Se identifican dos tipos de fuentes:• Tipo A: Aquellas que pueden estimarse a partir de cálculos estadísticos obtenidos de las muestras recogidas en

el proceso de medida.• Tipo B: Aquellas que únicamente están basadas en la experiencia o en otras informaciones.

2.2. La única componente de incertidumbre tipo B es la debida al patrón, porque se considera que en las condicionesque se efectúan las medidas en los laboratorios, las otras incertidumbres tipo B son de orden inferior a las de tipoA. En caso contrario se sumarían las varianzas.

3.3. El instrumento se emplea para medir en condicionas análogas a las que se calibra.El proceso a seguir para la calibración en un punto de la escala de medida consiste en:1. Medir nc veces el patrón de valor e incertidumbre conocidos.2. Calcular los estimadores estadísticos xc y sxc

2.3.3. Corregir la desviación sistemática al nominal.4.4. Calcular el valor de la incertidumbre de dicha corrección.

Referencias[1] Sevilla Hurtado, Lorenzo; Martín Sánchez, María Jesús (2008). Metrología Dimensional. Servicio de Publicaciones e Intercambio Científico

de la Universidad de Málaga. ISBN 978-84-9747-081-0.

Page 46: códigos - libro wikipedia

Tolerancia de fabricación 43

Tolerancia de fabricaciónLa tolerancia es una definición propia de la metrología industrial, que se aplica a la fabricación de piezas en serie.Dada una magnitud significativa y cuantificable propia de un producto industrial (sea alguna de sus dimensiones,resistencia, peso o cualquier otra), el margen de tolerancia es el intervalo de valores en el que debe encontrarsedicha magnitud para que se acepte como válida, lo que determina la aceptación o el rechazo de los componentesfabricados, según sus valores queden dentro o fuera de ese intervalo.El propósito de los intervalos de tolerancia es el de admitir un margen para las imperfecciones en la manufactura decomponente, ya que se considera imposible la precisión absoluta desde el punto de vista técnico, o bien no serecomienda por motivos de eficiencia: es una buena práctica de ingeniería el especificar el mayor valor posible detolerancia mientras el componente en cuestión mantenga su funcionalidad, dado que cuanto menor sea el margen detolerancia, la pieza será más difícil de producir y por lo tanto más costosa.La tolerancia puede ser especificada por un rango explícito de valores permitidos,una máxima desviación de un valornominal, o por un factor o porcentaje de un valor nominal. Por ejemplo, si la longitud aceptable de un barra de aceroestá en el intervalo 1 m ± 0,01 m, la tolerancia es de 0,01 m (longitud absoluta) o 1% (porcentaje). La toleranciapuede ser simétrica, como en 40 ± 0,1, o asimétrica como 40 + 0,2 / -0,1.La tolerancia es diferente del factor de seguridad, pero un adecuado factor de seguridad tendrá en cuenta toleranciasrelevantes además de otras posibles variaciones.

Tolerancia en un componente eléctricoSe podría necesitar una resistencia con un valor nominal de 100 Ω (ohms), pero también tener una tolerancia de 1%.Esto significa que cualquier resistor que se encuentre dentro del rango de 99 Ω a 101 Ω es aceptable. Podría no serrazonable especificar una resistencia con un valor exacto de 100 Ω en algunos casos, porque la resistencia exactapuede variar con la temperatura, corriente y otros factores más allá del control del diseñador.

Tolerancia mecánica en un componenteLa tolerancia es similar de una manera opuesta al ajuste en ingeniería mecánica, el cual es la holgura o lainterferencia entre dos partes. Por ejemplo, para un eje con un diámetro nominal de 10 milímetros se ensamblara enun agujero se tendrá que especificar el eje con un rango de tolerancia entre los 10,04 y 10,076 milímetros. Esto daríauna holgura que se encontraría entre los 0,04 milímetros (eje mayor con agujero menor)y los 0,112 milímetros (ejemenor con agujero mayor). En este caso el rango de tolerancia tanto para el eje y el hoyo se escoge que sea el mismo(0,036 milímetros), pero esto no es necesariamente el caso general.En mecánica, la tolerancia de fabricación se puede definir como los valores máximo y mínimo que debe medir uneje u orificio para que en el momento de su encaje el eje y el orificio puedan ajustarse sin problemas. Si se supera elvalor máximo o el mínimo, entonces resultará imposible encajar el eje dentro del orificio, por lo que se dirá que elmecánico se ha pasado del valor de tolerancia.

Unidades y precisiónLas unidades de medida empleadas son determinantes a la práctica; por lo general, entre mayor cantidad de lugaresdecimales mayor la precisión, pero las unidades deben preferiblemente ser escogidas siguiendo los protocolos yestándares de industria. Por ejemplo, la medida angular puede ser indicada en forma decimal o en precisión de grado,minuto y segundo; mas estas dos formas no son las únicas formas de definir un ángulo. No se deben combinarunidades de medida en los valores delimitantes.

Page 47: códigos - libro wikipedia

Tolerancia de fabricación 44

EstiloLa nomenclatura de las tolerancias puede ser de un estilo conocido y preferido:• Limites. Cuando las tolerancias denotan los límites se escribe el mayor límite subrayada, y el límite menor en la

parte inferior, o bajo la línea.•• Básico. Un rectángulo encierra la dimensión teóricamente perfecta.•• Simétrica. La tolerancia es equitativa hacia la delimitación mayor que la menor.•• Unilateral. Ambos valores delimitantes son hacia el lado mayor y viceversa.

Enlaces externos• Teoría y Ejercicios solucionados de Dibujo Técnico [1]

Referencias[1] http:/ / www. tododibujo. com

PrecisiónEn ingeniería, ciencia, industria y estadística, se denomina precisión a la capacidad de un instrumento de dar elmismo resultado en mediciones diferentes realizadas en las mismas condiciones. Esta cualidad debe evaluarse acorto plazo. No debe confundirse con exactitud ni con reproducibilidad.La precisión refleja la proximidad de distintas medidas entre si, y es función exclusiva de los errores accidentales.[1]

Es un parámetro relevante, especialmente en la investigación de fenómenos físicos, ámbito en el cual los resultadosse expresan como un número más una indicación del error máximo estimado para la magnitud. Es decir, se indicauna zona dentro de la cual está comprendido el verdadero valor de la magnitud.[2]

En informática, se denomina asimismo precisión al número de bits usados para representar un valor. En general, enun sistema computacional la precisión está dada por el valor del dígito menos significativo de una palabra digital querepresenta un número con una escala y en un tipo de dato definido. Visto desde otra perspectiva, equivale a ladiferencia entre dos valores sucesivos representables en el tipo de dato y escala del número.

Busquesé también•• Precisión y exactitud•• Fabricación y tolerancia•• Resolución digital•• Error de medición•• Desviación estándar

Referencias[1] Mongay Fernández, Carlos (2011) (en español). Quimiometría (Universidad de Valencia. Servicio de Publicaciones edición). 1. pp. 27. ISBN

978-84-370-8644-6.[2] Cromer, Alan H.; Fernández Ferrer, Julián (2010) (en español). Física en la ciencia y en la industria (3 edición). Editorial Reverté, S.A..

pp. 15. ISBN 978-84-291-4156-6.

Page 48: códigos - libro wikipedia

Exactitud 45

ExactitudEn ingeniería, ciencia, industria y estadística, se denomina exactitud a la capacidad de un instrumento de acercarseal valor de la magnitud real.La exactitud depende de los errores sistemáticos que intervienen en la medición, denotando la proximidad de unamedida al verdadero valor y, en consecuencia, la validez de la medida.[1][2]

Suponiendo varias mediciones, no estamos midiendo el error de cada una, sino la distancia a la que se encuentra lamedida real de la media de las mediciones (cuán calibrado está el aparato de medición).Esta cualidad también se encuentra en instrumentos generadores de magnitudes físicas, siendo en este caso lacapacidad del instrumento de acercarse a la magnitud física real.Exactitud es la cercanía del valor experimental obtenido, con el valor exacto de dicha medida. El valor exacto de unamagnitud física es un concepto utópico, ya que es imposible conocerlo sin incertidumbre alguna.Por ejemplo, si leemos la velocidad del velocímetro de un auto, esta tiene una precisión de 3 cifras significativas yuna exactitud de 5 km/h.

Referencias[1] Mongay Fernández, Carlos (2011) (en español). Quimiometría (Universidad de Valencia. Servicio de Publicaciones edición). 1. pp. 27. ISBN

978-84-370-8644-6.[2] Cromer, Alan H.; Fernández Ferrer, Julián (2010) (en español). Física en la ciencia y en la industria (3 edición). Editorial Reverté, S.A..

pp. 16. ISBN 978-84-291-4156-6.

ReproducibilidadLa reproducibilidad es uno de los principios esenciales del método científico, y se refiere a la capacidad que tengauna prueba o experimento de ser reproducido o replicado. El término está estrechamente relacionado con el conceptode testabilidad, y, dependiendo del campo científico en particular, puede requerir que la prueba o experimento seafalsable.Los resultados de un experimento llevado a cabo por un investigador o grupo de investigación particular sonevaluados generalmente por otros investigadores independientes reproduciendo el experimento original. Repiten elmismo experimento por sí mismos, basándose en la descripción del experimento original, y comprueban si suexperimento arroja similares resultados a los comunicados por el grupo original. Se dice que los valores resultantesson conmensurables si se obtienen (en distintos procesos experimentales) de acuerdo con los mismos procedimientosexperimentales descritos y reproducibles.

Reproducibilidad en metrologíaDe forma particular, en ingeniería, ciencia, industria y estadística, se denomina reproducibilidad a la capacidad deun instrumento de dar el mismo resultado en mediciones diferentes realizadas en las mismas condiciones a lo largode periodos dilatados de tiempo. Esta cualidad debe evaluarse a largo plazo. Ésta es la gran diferencia con precisiónque debe, en cambio, ser evaluada a corto plazo.

Page 49: códigos - libro wikipedia

Entropía 46

Entropía

Escultura dedicada a la Entropía en los jardines centrales de la Universidadde Monterrey, México

En termodinámica, la entropía (simbolizadacomo S) es una magnitud física que, mediantecálculo, permite determinar la parte de la energíaque no puede utilizarse para producir trabajo. Esuna función de estado de carácter extensivo y suvalor, en un sistema aislado, crece en eltranscurso de un proceso que se dé de formanatural. La entropía describe lo irreversible de lossistemas termodinámicos. La palabra entropíaprocede del griego (ἐντροπία) y significaevolución o transformación. Fue Rudolf Clausiusquien le dio nombre y la desarrolló durante ladécada de 1850;[1][2] y Ludwig Boltzmann, quienencontró la manera de expresar matemáticamenteeste concepto, desde el punto de vista de laprobabilidad.[3]

Evidencias

Cuando se plantea la pregunta: "¿Por qué ocurrenlos sucesos en la Naturaleza de una maneradeterminada y no de otra manera?", se busca unarespuesta que indique cuál es el sentido de lossucesos. Por ejemplo, si se ponen en contacto dostrozos de metal con distinta temperatura, seanticipa que finalmente el trozo caliente se enfriará, y el trozo frío se calentará, finalizando en equilibrio térmico. Elproceso inverso, el calentamiento del trozo caliente y el enfriamiento del trozo frío es muy improbable que sepresente, a pesar de conservar la energía. El universo tiende a distribuir la energía uniformemente; es decir, amaximizar la entropía.

La función termodinámica entropía es central para la segunda Ley de la Termodinámica. La entropía puedeinterpretarse como una medida de la distribución aleatoria de un sistema. Se dice que un sistema altamentedistribuido al azar tiene alta entropía. Un sistema en una condición improbable tendrá una tendencia natural areorganizarse a una condición más probable (similar a una distribución al azar), reorganización que dará comoresultado un aumento de la entropía. La entropía alcanzará un máximo cuando el sistema se acerque al equilibrio, yentonces se alcanzará la configuración de mayor probabilidad.Una magnitud es una propiedad si, y sólo sí, su cambio de valor entre dos estados es independiente del proceso. Estaproposicion puede ser fundamental a la hora de definir la variacion de entropía.La variación de entropía, nos muestra la variación del orden molecular ocurrido en una reacción química. Si elincremento de entropía es positivo, los productos presentan un mayor desorden molecular (mayor entropía) que losreactivos. En cambio, cuando el incremento es negativo, los productos son más ordenados. Hay una relación entre laentropía y la espontaneidad de una reacción química, que viene dada por la energía de Gibbs.

Page 50: códigos - libro wikipedia

Entropía 47

EcuacionesEsta idea de desorden termodinámico fue plasmada mediante una función ideada por Rudolf Clausius a partir de unproceso cíclico reversible. En todo proceso reversible la integral curvilínea de sólo depende de los estados

inicial y final, con independencia del camino seguido (δQ es la cantidad de calor absorbida en el proceso en cuestióny T es la temperatura absoluta). Por tanto, ha de existir una función del estado del sistema, S=f(P,V,T), denominadaentropía, cuya variación en un proceso reversible entre los estados 1 y 2 es:

Téngase en cuenta que, como el calor no es una función de estado, se usa δQ, en lugar de dQ.La entropía física, en su forma clásica, está definida por la ecuación siguiente:

o, más simplemente, cuando no se produce variación de temperatura (proceso isotérmico):

donde S es la entropía, la cantidad de calor intercambiado entre el sistema y el entorno y T la temperaturaabsoluta en kelvin.Unidades: S=[KCal/K]Los números 1 y 2 se refieren a los estados iniciales y finales de un sistema termodinámico.

SignificadoEl significado de esta ecuación es el siguiente:

Cuando un sistema termodinámico pasa, en un proceso reversible e isotérmico, del estado 1 al estado 2, el cambio en su entropía es igual a lacantidad de calor intercambiado entre el sistema y el medio dividido por su temperatura absoluta.

De acuerdo con la ecuación, si el calor se transfiere al sistema, también lo hará la entropía, en la misma dirección.Cuando la temperatura es más alta, el flujo de calor que entra produce un aumento de entropía menor. Y viceversa.Las unidades de la entropía, en el Sistema Internacional, son el J/K (o Clausius), definido como la variación deentropía que experimenta un sistema cuando absorbe el calor de 1 Julio (unidad) a la temperatura de 1 Kelvin.Cuando el sistema evoluciona irreversiblemente, la ecuación de Clausius se convierte en una inecuación:

Siendo el sumatorio de las i fuentes de calor de las que recibe o transfiere calor el sistema y la temperatura de lasfuentes. No obstante, sumando un término positivo al segundo miembro, podemos transformar de nuevo la expresiónen una ecuación:

Al término , siempre positivo, se le denomina producción de entropía, y es nulo cuando el proceso es reversiblesalvo irreversibilidades fruto de transferencias de calor con fuentes externas al sistema. En el caso de darse unproceso reversible y adiabático, según la ecuación, dS=0, es decir, el valor de la entropía es constante y ademásconstituye un proceso isoentrópico.

Page 51: códigos - libro wikipedia

Entropía 48

Cero absolutoSólo se pueden calcular variaciones de entropía. Para calcular la entropía de un sistema, es necesario fijar la entropíadel mismo en un estado determinado. La tercera ley de la termodinámica fija un estado estándar: para sistemasquímicamente puros, sin defectos estructurales en la red cristalina, de densidad finita, la entropía es nula en el ceroabsoluto (0 K).

Esta magnitud permite definir la segunda ley de la termodinámica, de la cual se deduce que un proceso tiende a darsede forma espontánea en un cierto sentido solamente. Por ejemplo: un vaso de agua no empieza a hervir por unextremo y a congelarse por el otro de forma espontánea, aún cuando siga cumpliéndose la condición de conservaciónde la energía del sistema (la primera ley de la termodinámica).

Entropía y reversibilidadLa entropía global del sistema es la entropía del sistema considerado más la entropía de los alrededores. También sepuede decir que la variación de entropía del universo, para un proceso dado, es igual a su variación en el sistema másla de los alrededores:

Si se trata de un proceso reversible, ΔS (universo) es cero pues el calor que el sistema absorbe o desprende es igualal trabajo realizado. Pero esto es una situación ideal, ya que para que esto ocurra los procesos han de serextraordinariamente lentos, y esta circunstancia no se da en la naturaleza. Por ejemplo, en la expansión isotérmica(proceso isotérmico) de un gas, considerando el proceso como reversible, todo el calor absorbido del medio setransforma en trabajo y Q= -W. Pero en la práctica real el trabajo es menor, ya que hay pérdidas por rozamientos, porlo tanto, los procesos son irreversibles.Para llevar al sistema, de nuevo, a su estado original hay que aplicarle un trabajo mayor que el producido por el gas,lo que da como resultado una transferencia de calor hacia el entorno, con un aumento de la entropía global.Como los procesos reales son siempre irreversibles, siempre aumentará la entropía. Así como "la energía no puedecrearse ni destruirse", la entropía puede crearse pero no destruirse. Podemos decir entonces que "como elUniverso es un sistema aislado, su entropía crece constantemente con el tiempo". Esto marca un sentido a laevolución del mundo físico, que llamamos principio de evolución.Cuando la entropía sea máxima en el Universo, esto es, exista un equilibrio entre todas las temperaturas y presiones,llegará la muerte térmica del Universo (enunciado por Clausius).En el caso de sistemas cuyas dimensiones sean comparables a las dimensiones de las moléculas, la diferencia entrecalor y trabajo desaparece, y por tanto, los parámetros termodinámicos como la entropía, temperatura, etc. no tienensignificado. Esto conduce a la afirmación de que el segundo principio de la termodinámica no es aplicable a talesmicrosistemas, porque realmente no son sistemas termodinámicos. Se cree que existe también un límite superior deaplicación del segundo principio, de tal modo que no se puede afirmar su cumplimiento en sistemas infinitos como elUniverso, lo que pone en controversia la afirmación de Clausius sobre la muerte térmica del Universo.

Historia de la entropíaEl concepto de entropía desarrollado en respuesta a la observación de que una cierta cantidad de energía liberada defuncionales reacciones de combustión siempre se pierde debido a la disipación o la fricción y por lo tanto no setransforma en trabajo útil. Los primeros motores de calor como Thomas Savery (1698), el Newcomen motor (1712)y el Cugnot de vapor de tres ruedas (1769) eran ineficientes, la conversión de menos de dos por ciento de la energíade entrada en producción de trabajo útil; una gran cantidad de energía útil se disipa o se pierde en lo que parecía unestado de aleatoriedad inconmensurable. Durante los próximos dos siglos los físicos investigaron este enigma de laenergía perdida, el resultado fue el concepto de entropía.

Page 52: códigos - libro wikipedia

Entropía 49

En la década de 1850, Rudolf Clausius estableció el concepto de sistema termodinámico y postula la tesis de que encualquier proceso irreversible una pequeña cantidad de energía térmica δQ se disipa gradualmente a través de lafrontera del sistema. Clausius siguió desarrollando sus ideas de la energía perdida, y acuñó el término "entropía".Durante el próximo medio siglo se llevó a cabo un mayor desarrollo, y más recientemente el concepto de entropía haencontrado aplicación en el campo análogo de pérdida de datos en los sistemas de transmisión de información.

Interpretación estadística de la entropíaEn los años 1890 - 1900 el físico austríaco Ludwig Boltzmann y otros desarrollaron las ideas de lo que hoy seconoce como mecánica estadística, teoría profundamente influenciada por el concepto de entropía. Una de las teoríastermodinámicas estadísticas (la teoría de Maxwell-Boltzmann) establece la siguiente relación entre la entropía y laprobabilidad termodinámica:

Donde S es la entropía, k la constante de Boltzmann y Ω el número de microestados posibles para el sistema (ln es lafunción logaritmo neperiano). La ecuación anterior es válida porque se asume que todos los microestados tienen lamisma probabilidad de aparecer.La célebre ecuación se encuentra grabada sobre la lápida de la tumba de Ludwig Boltzmann en el Zentralfriedhof (elcementerio central) de Viena. Boltzmann se suicidó en 1906, profundamente deprimido por la poca aceptación desus teorías en el mundo académico de la época.[4]

El significado de la ecuación es el siguiente:

La cantidad de entropía de un sistema es proporcional al logaritmo natural del número de microestados posibles.

Uno de los aspectos más importantes que describe esta ecuación es la posibilidad de dar una definición absoluta alconcepto de la entropía. En la descripción clásica de la termodinámica, carece de sentido hablar del valor de laentropía de un sistema, pues sólo los cambios en la misma son relevantes. En cambio, la teoría estadística permitedefinir la entropía absoluta de un sistema.La entropía es una magnitud física básica que dio lugar a diversas interpretaciones, y al parecer, a veces en conflicto.Ha sido, sucesivamente, asimilados a los diferentes conceptos tales como el desorden y la información. La entropíamide tanto la falta de información como la información. Estas dos concepciones son complementarias. Laentropía también mide la libertad, y esto nos permite una interpretación coherente de las fórmulas de entropía y delos hechos experimentales. No obstante, asociar la entropía y el desorden implica definir el orden como laausencia de libertad.[5] El desorden o la agitación guardan relación con la temperatura.

Entropía y desordenCuando la energía es degradada, dijo Boltzmann, se debe a que los átomos asumen un estado másdesordenado. Y la entropía es un parámetro del desorden: ésa es la concepción profunda que se desprende dela nueva interpretación de Boltzmann. Por extraño que parezca, se puede crear una medida para el desorden; esla probabilidad de un estado particular, definido aquí como el número de formas en que se puede armar a partirde sus átomosJacob Bronowski. El ascenso del hombre. Bogotá, Fondo Educativo Interamericano, 1979, p. 347, capítulo 10

"Un mundo dentro del mundo".Coloquialmente, suele considerarse que la entropía es el desorden de un sistema, es decir, su grado de homogeneidad. Un ejemplo doméstico sería el de lanzar un vaso de cristal al suelo: tenderá a romperse y a esparcirse, mientras que jamás conseguiremos que, lanzando trozos de cristal, se construya un vaso por sí solo. Otro ejemplo doméstico: tenemos dos envases de un litro de capacidad que contienen, respectivamente, pintura blanca y pintura negra; con una cucharita, tomamos pintura blanca, la vertemos en el recipiente de pintura negra y

Page 53: códigos - libro wikipedia

Entropía 50

mezclamos; luego tomamos con la misma cucharita pintura negra, la vertemos en el recipiente de pintura blanca ymezclamos; repetimos el proceso hasta que tenemos dos litros de pintura gris, que no podremos reconvertir en unlitro de pintura blanca y otro de pintura negra; la entropia del conjunto ha ido en aumento hasta llegar a un máximocuando los colores de ambos recipientes son sensiblemente iguales (sistema homogéneo).No obstante, considerar que la entropía es el desorden de un sistema sin tener en cuenta la naturaleza del mismo esuna falacia. Y es que hay sistemas en los que la entropía no es directamente proporcional al desorden, sino al orden.

Entropía como creadora de ordenA pesar de la identificación entre la entropía y el desorden, hay muchas transiciones de fase en la que emerge unafase ordenada y al mismo tiempo, la entropía aumenta. En este artículo se muestra que esta paradoja se resuelvehaciendo una interpretación literal de la famosa ecuación de Boltzmann S = k log W. Podemos verlo en lasegregación de una mezcla tipo coloide, por ejemplo cuando el agua y aceite tienden a separarse. También en lacristalización de esferas duras: cuando agitamos naranjas en un cesto, éstas se ordenan de forma espontánea. Deestos casos se deduce el concepto de fuerza entrópica o interacción, muy útil en la ciencia de polímeros o cienciacoloidal.[6]

Relación de la entropía con la teoría de la informaciónRecientes estudios han podido establecer una relación entre la entropía física y la entropía de la teoría de lainformación gracias a la revisión de la física de los agujeros negros. Según la nueva teoría de Jacob D. Bekenstein elbit de información sería equivalente a una superficie de valor 1/4 del área de Planck. De hecho, en presencia deagujeros negros la segunda ley de la termodinámica sólo puede cumplirse si se introduce la entropía generalizada osuma de la entropía convencional (Sconv) más un factor dependiente del área total (A) de agujeros negros existente enel universo, del siguiente modo:

Donde, k es la constante de Boltzmann, c es la velocidad de la luz, G es la constante de la gravitación y es laconstante de Planck racionalizada.Los agujeros negros almacenarían la entropía de los objetos que engulle en la superficie del horizonte de sucesos.Stephen Hawking ha tenido que ceder ante las evidencias de la nueva teoría y ha propuesto un mecanismo nuevopara la conservación de la entropía en los agujeros negros.Simplemente, al realizar un trabajo, se ocupa muy poca energía; la entropía se encarga de medir la energía que no esusada y queda reservada en un cuerpo.

La entropía como flecha del tiempoFlecha del tiempo.Apartado por desarrollar.

Referencias[1] Clausius, R. (1850). « Über die bewegende Kraft der Wärme (http:/ / gallica. bnf. fr/ ark:/ 12148/ bpt6k15164w/ f384. table)». Annalen der

Physik und Chemie 79:  pp. 368-397, 500-524. . Consultado el 23 de septiembre de 2009.[2] Clausius, R. (1865). « Ueber verschiedene für die Anwendung bequeme Formen der Hauptgleichungen der mechanischen Wärmetheorie

(http:/ / gallica. bnf. fr/ ark:/ 12148/ bpt6k152107/ f369. table)». Annalen der Physik und Chemie 125:  pp. 351-400. . Consultado el 23 deseptiembre de 2009.

[3] Bronowski, J. (1979). El ascenso del hombre. Alejandro Ludlow Wiechers/BBC, trad. Bogotá: Fondo Educativo Interamericano.[4] Véase el capítulo 10, "Un mundo dentro del mundo", de El ascenso del hombre, de Jacob Bronowski. En (http:/ / www. youtube. com/

watch?v=C2p9By0qXms) pueden verse, en inglés, los últimos minutos de ese capítulo.[5] Jean-Bernard Brissaud. The meanings of entropy. Entropy 2005, 7.1, 68-96 (http:/ / www. mdpi. org/ entropy/ htm/ e7010068. htm)

Page 54: códigos - libro wikipedia

Entropía 51

[6] Cuesta, José A.: La entropía como creadora de orden. Revista Española de Física, 2006, vol. 20, n. 4, p. 13-19 (http:/ / e-archivo. uc3m. es/handle/ 10016/ 7209)

Enlaces externos• Entropía económica (http:/ / laentropiaeconomica. blogspot. com/ 2010/ 03/ la-entropia-economica. html)• Documentos de termodinámica (http:/ / webserver. dmt. upm. es/ ~isidoro/ bk3/ index. html)• Entendiendo la entropía (http:/ / inquietudes. wordpress. com/ 2008/ 01/ 27/ entendiendo-la-entropia/ )

Segundo principio de la termodinámicaEl segundo principio de la termodinámica o segunda ley de la termodinámica,[1] expresa que:

La cantidad de entropía del universo tiende a incrementarse en el tiempo.[2]

Es una de las leyes más importantes de la física; aún pudiéndose formular de muchas maneras todas llevan a laexplicación del concepto de irreversibilidad y al de entropía. Este último concepto, cuando es tratado por otras ramasde la física, sobre todo por la mecánica estadística y la teoría de la información, queda ligado al grado de desorden dela materia y la energía de un sistema. La termodinámica, por su parte, no ofrece una explicación física de la entropía,que queda asociada a la cantidad de energía no utilizable de un sistema. Sin embargo, esta interpretación meramentefenomenológica de la entropía es totalmente consistente con sus interpretaciones estadísticas. Así, tendrá másentropía el agua en estado gaseoso con sus moléculas dispersas y alejadas unas de las otras que la misma en estadolíquido con sus moléculas más juntas y más ordenadas.El segundo principio de la termodinámica dictamina que si bien la materia y la energía no se pueden crear ni destruir,sí que se transforman, y establece el sentido en el que se produce dicha transformación. Sin embargo, el punto capitaldel segundo principio es que, como ocurre con toda la teoría termodinámica, se refiere única y exclusivamente aestados de equilibrio. Toda definición, corolario o concepto que de él se extraiga sólo podrá aplicarse a estados deequilibrio, por lo que, formalmente, parámetros tales como la temperatura o la propia entropía quedarán definidosúnicamente para estados de equilibrio. Así, según el segundo principio, cuando se tiene un sistema que pasa de unestado de equilibrio A a otro B, la cantidad de entropía en el estado de equilibrio B será la máxima posible, einevitablemente mayor a la del estado de equilibrio A. Evidentemente, el sistema sólo hará trabajo cuando esté en eltránsito del estado de equilibrio A al B y no cuando se encuentre en uno de estos estados. Sin embargo, si el sistemaera cerrado, su energía y cantidad de materia no han podido variar; si la entropía debe de maximizarse en cadatransición de un estado de equilibrio a otro, y el desorden interno del sistema debe aumentar, se ve claramente unlímite natural: cada vez costará más extraer la misma cantidad de trabajo, pues según la mecánica estadística eldesorden equivalente debe aumentar exponencialmente.Aplicado este concepto a un fenómeno de la naturaleza como por ejemplo la vida de las estrellas, las mismas, alconvertir el hidrógeno, su combustible principal, en helio generan luz y calor. Al fusionar los núcleos de hidrógenoen su interior la estrella libera la energía suficiente para producirlos a esa intensidad; sin embargo, cuando intentafusionar los núcleos de Helio no consigue liberar la misma cantidad de energía que obtenía cuando fusionaba losnúcleos de hidrógeno. Cada vez que la estrella fusiona los núcleos de un elemento obtiene otro que le es más inútilpara obtener energía y por ende la estrella muere, y en ese orden de ideas la materia que deja atrás ya no servirá paragenerar otra estrella. Es así como el segundo principio de la termodinámica se ha utilizado para explicar el fin deluniverso.

Page 55: códigos - libro wikipedia

Segundo principio de la termodinámica 52

Definición axiomáticaLa definición formal del segundo principio de la termodinámica establece que:

En un estado de equilibrio, los valores que toman los parámetros característicos de un sistema termodinámicocerrado son tales que maximizan el valor de una cierta magnitud que está en función de dichos parámetros,llamada entropía.

[3]

La entropía de un sistema es una magnitud física abstracta que la mecánica estadística identifica con el grado dedesorden molecular interno de un sistema físico. La termodinámica clásica, en cambio, la define como la relaciónentre el calor transmitido y la temperatura a la que se transmite. La termodinámica axiomática, en cambio, define a laentropía como una cierta función –a priori, de forma desconocida–, que depende de los llamados "parámetroscaracterísticos" del sistema, y que sólo puede definirse para los estados de equilibrio del sistema.Dichos parámetros característicos se establecen a partir de un postulado derivado del primer principio de latermodinámica, llamado a veces el principio de estado. Según éste, el estado de equilibrio de un sistema quedatotalmente definido por medio de la energía interna del sistema, su volumen y su composición molar. Cualquier otroparámetro termodinámico, como podrían serlo la temperatura o la presión, se define como una función de dichosparámetros. Así, la entropía será también una función de dichos parámetros.El segundo principio de la termodinámica establece que dicha entropía sólo puede definirse para estados deequilibrio termodinámico, y que de entre todos los estados de equilibrio posibles –que vendrán definido por losparámetros característicos–, sólo se puede dar el que, de entre todos ellos, maximiza la entropía.Las consecuencias de este enunciado son sutiles: al considerar un sistema cerrado tendente al equilibrio, los estadosde equilibrio posibles incluyen todos aquellos que sean compatibles con los límites o contornos del sistema. Entreellos se encuentra, evidentemente, el estado de equilibrio de partida. Si el sistema varía su estado de equilibrio desdeel de partida a otro, ello es debido a que la entropía del nuevo estado es mayor que la del estado inicial; si el sistemacambia de estado de equilibrio, su entropía sólo puede aumentar. Por tanto, la entropía de un sistema aisladotermodinámicamente sólo puede incrementarse. Suponiendo que el universo partió de un estado de equilibrio, que entodo instante de tiempo el universo no se aleja demasiado del equilibrio termodinámico y que el universo es unsistema aislado, el segundo principio de la termodinámica puede formularse de la siguiente manera;

La cantidad de entropía del universo tiende a incrementarse con el tiempo.Sin embargo, la termodinámica axiomática no reconoce al tiempo como una variable termodinámica. Formalmente,la entropía sólo puede definirse para estados en equilibrio. En el proceso que va de un estado de equilibrio a otro nohay estados de equilibrio, por lo que la entropía en dichos estados de no-equilibrio no puede definirse sin incurrir eninconsistencias formales dentro de la propia termodinámica. Así, la entropía no puede ser una función del tiempo,por lo que hablar de variaciones de la misma en el tiempo es formalmente incorrecto.Cuando se hace, es debido a que se ha presupuesto que en el proceso de un estado de equilibrio a otro se ha pasadopor infinitos estados intermedios de equilibrio, procedimiento que permite introducir al tiempo como parámetro. Entanto en cuanto el estado de equilibrio final sea aquél de máxima entropía posible, no se habrá incurrido en unainconsistencia frontal por cuanto dichos estados de equilibrio intermedios no han afectado al único real (el final).La formulación clásica defiende que el cambio en la entropía S es siempre mayor o igual — exclusivo para procesosreversibles — que la transferencia de calor Q producida, dividido por la temperatura de equilibrio T del sistema:[4]

Page 56: códigos - libro wikipedia

Segundo principio de la termodinámica 53

Descripción general

Suponiendo estados iniciales y finales deequilibrio, el principio establece que los sistemasfísicos saltan de un estado con cierto orden a un

estado menos ordenado, aumentando su entropía.El proceso inverso es imposible de forma

espontánea.

El enunciado axiomático del segundo principio pone inmediatamentede manifiesto su principal característica: se trata de una de las pocasleyes ontológicas de la Física, en tanto que distingue, de manerageneral, aquellos procesos y estados físicos que son posible de aquellosque no lo son; esto es, el segundo principio permite determinar laposibilidad de un proceso o estado. De hecho, en un sentido históricoel segundo principio surgió, en plena Revolución Industrial en elcontexto de las máquinas térmicas como una explicación empírica depor qué éstas se comportaban de una manera determinada y no de otra.En efecto, aunque parezca trivial, siempre se observaba, por ejemplo,que para calentar una caldera era necesario emplear combustibleardiendo a mayor temperatura que la de la caldera; sin embargo, jamásse observaba que la caldera se calentara tomando energía de suentorno, el cual a su vez se enfriaría. De hecho, podría razonarse que,en virtud del primer principio de la termodinámica, nada impide que,espontáneamente, sea posible extraer calor de un cuerpo frío, por ejemplo a 200K, para transmitírselo a otro caliente,por ejemplo a 1000K: basta con que se cumpla el balance energético correspondiente, a consecuencia del cual elcuerpo frío se enfriaría aún más, y el caliente se calentaría más aún. Sin embargo, todo esto es contrario a todaexperiencia; y aunque parezca común y hasta trivial, tenía un extraordinario impacto en las máquinas empleadas enla Revolución Industrial: por ejemplo, de no haber sido así, las máquinas podrían funcionar sin necesitarcombustible, pues la energía necesaria podría transferirse de manera espontánea del resto del ambiente. Sin embargo,las máquinas térmicas parecían obedecer una determinada ley, que se materializó en el segundo principio: paraproducir trabajo mecánico, era necesario aportar energía adicional (el combustible), que a su vez era siempre mayorque la cantidad de trabajo extraído. El concepto de máquina térmica aparece así íntimamente ligado al enunciadoinicial del segundo principio.

Una máquina térmica es aquella que provee de trabajo eficaz gracias a la diferencia de temperaturas entre doscuerpos. Dado que cualquier máquina termodinámica requiere una diferencia de temperatura, se deriva pues queningún trabajo útil puede extraerse de un sistema aislado en equilibrio térmico, esto es, se requerirá de laalimentación de energía del exterior. Ese principio empírico, extraído de la observación continua de cómo funcionael universo, constituye uno de los primeros enunciados del Segundo Principio de la Termodinámica: es imposibletodo proceso cíclico cuyo único resultado sea la absorción de energía en forma de calor procedente de un focotérmico (o reservorio o depósito térmico), y la conversión de toda ésta energía en forma de calor en energía enforma de trabajo.

Enunciados clásicosLa segunda ley de la termodinámica ha sido expresada de muchas maneras diferentes. Sucintamente, latermodinámica clásica la ha expresado así:

«Es imposible un proceso cuyo único resultado sea la transferencia de energía en forma de calor de un cuerpode menor temperatura a otro de mayor temperatura».

Enunciado de Clausius.«Es imposible todo proceso cíclico cuyo único resultado sea la absorción de energía en forma de calorprocedente de un foco térmico (o reservorio o depósito térmico), y la conversión de toda ésta energía en formade calor en energía en forma de trabajo».

Enunciado de Kelvin-Planck.

Page 57: códigos - libro wikipedia

Segundo principio de la termodinámica 54

«Para todo sistema potencialmente cíclico es imposible una única transferencia de calor tal que dicho procesosea recíproco y eventualmente reversible.».

Enunciado de John De Saint.Algunos corolarios del principio, a veces empleados como enunciados alternativos, serían:

«Ningún proceso cíclico es tal que el sistema en el que ocurre y su entorno puedan volver a la vez almismo estado del que partieron».«En un sistema aislado, ningún proceso puede ocurrir si a él se asocia una disminución de la entropía total delsistema.»

Corolario del principio, debido a Clausius.Visualmente, el segundo principio se puede expresar imaginando una caldera de un barco de vapor. Ésta no podríaproducir trabajo si no fuese porque el vapor se encuentra a temperaturas y presión elevadas comparados con el medioque la rodea.Matemáticamente, se expresa así:

donde S es la entropía y el símbolo de igualdad sólo existe cuando la entropía se encuentra en su valor máximo (enequilibrio).

Entropía en mecánica estadísticaLa Termodinámica no ofrece ninguna interpretación física de lo que es la entropía: simplemente la define como unafunción matemática que toma su máximo valor para cada estado de equilibrio. La habitual identificación de entropíacon desorden molecular proviene de una muy simplificada interpretación de los resultados de la mecánicaestadística; en concreto, del llamado formalismo microcanónico de la mecánica estadística. Es importante recalcarque la termodinámica y la mecánica estadística, aunque relacionadas, son ramas separadas de la física.

Interpretación microcanónica de la entropía con base en el segundo principio de la termodinámica

La ecuación fundamental de un sistema cerrado termodinámico en equilibrio puede expresarse como

Donde S representa la entropía del sistema –desde un punto de vista termodinámico–, U la energía interna delsistema, y N1, N2, etc el número de moles de cada componente del sistema. Todas estas magnitudes sonmacroscópicas, en el sentido de que son expresadas y pueden ser medidas y calculadas sin entrar a considerar lanaturaleza microscópica (esto es, de los átomos, moléculas, etc), que componen el sistema termodinámico.Intuitivamente, puede parecer razonable suponer que si el sistema está en equilibrio, entonces sus componentes másfundamentales, sus átomos y moléculas, también lo estén. Sin embargo, un resultado fundamental de la mecánicacuántica afirma que si el sistema es macroscópico, entonces pueden existir multitud de estados cuánticos discretospara sus átomos y moléculas que, globalmente, sean compatibles con los valores de U, V y N1,N2,... del sistemamacroscópico. En principio, no obstante, aunque exista esa potencial capacidad de los componentes microscópicosdel sistema para pasar de un estado cuántico a otro, como el sistema es cerrado y está en equilibrio podría razonarseque tales transiciones no se van a dar.Ahora bien, en realidad no existe un sistema aislado perfecto. Por ejemplo, aunque seamos capaces de aislartérmicamente al sistema de manera absoluta, no podremos evitar los efectos gravitatorios que el resto del universoseguirá ejerciendo sobre la materia que hayamos encerrado dentro; tampoco podrá aislarse perfectamente de todoslos campos electromagnéticos que lo rodeen, por muy débiles que puedan resultar. En definitiva, el sistema podráestar cerrado a efectos macroscópicos, pero la acción de todo tipo de campos de fuerza (sean de gravedad,eléctricas,...) y la propia interacción del sistema con las paredes que lo encierren harán que, al menos desde un punto

Page 58: códigos - libro wikipedia

Segundo principio de la termodinámica 55

de vista microscópico, el sistema no esté en equilibrio: los átomos y moléculas estarán sometidos a continuastransiciones de un estado cuántico a otro cuyas causas son, a todos los efectos, meramente azarosas, de tantas y tanindefinidas que pueden ser.La mecánica estadística considera que un sistema macroscópico realiza transiciones enormemente rápidas ytotalmente aleatorias entre los distintos estados cuánticos que sean posibles, de manera que las medidasmacroscópicas de parámetros tales como la temperatura, la energía, incluso el volumen,... son en realidad la mediade las miríadas de estados cuánticos o microscópicos. Y como dichas transiciones están producidas por procesosesencialmente aleatorios, se acepta como principio que un sistema macroscópico visita todos los estadosmicroscópicos permisibles con igual probabilidad. A dichos estados microscópicos permisibles se les llamamicroestados.Para cada estado macroscópico de equilibrio, el número de microestados permitidos es uno determinado por las leyesde la física. Por ejemplo, si un sistema macroscópico tiene por energía 1000 julios, es absurdo suponer que unmicroestado de dicho sistema pueda tener más de 1000 julios de energía.Si se considera un estado de equilibrio macroscópico, según el segundo principio de la termodinámica éste vendrátotalmente definido por los valores de las variables termodinámicas U, V , N1, N2, etc. para los que la entropía Stoma su máximo valor entre todos los posibles. Supongamos que tenemos un sistema termodinámico en equilibrioque viene definido por una limitación fundamental: no se permite que el sistema tenga un volumen mayor que unoconcreto, y la cantidad de materia del sistema es la que se haya dado al comienzo. Por ejemplo, gas en una bombonade gas: no puede tener un volumen mayor que el de la bombona, ni puede haber más cantidad de gas que la que se hacolocado dentro. Atendiendo a esa limitación de volumen y masa, el sistema adquirirá los valores de U tales quemaximicen la entropía, y entonces habrá alcanzado el equilibrio macroscópico. Asociado a ese estado macroscópicode equilibrio, tenemos el de los microestados: las moléculas del sistema podrán presentar transiciones aleatoriasentre distintos microestados dentro de los límites impuestos por el propio sistema. No podrán, por ejemplo,desplazarse más allá de las barreras del sistema, ni podrán vibrar con una energía mayor que la energía total delsistema macroscópico, etc. Esto es, asociado al equilibrio macroscópcio se tiene un número limitado, aunqueposiblemente inmenso, de microestados que los constituyentes microscópicos del sistema pueden visitar con igualprobabilidad.Si retiramos ahora una restricción al sistema macroscópico, como por ejemplo permitir que el volumen sea ahoramayor que antes, pasarán dos cosas:•• Desde el punto de vista de la termodinámica, esto es, desde el punto de vista macroscópico, las variables del

sistema evolucionarán hacia un estado de entropía mayor: el volumen V es ahora mayor que antes, y aunque lacantidad de materia es la misma, ésta ahora puede ocupar más volumen. Así, la energía interna del sistema Uvariará de manera que, en el nuevo estado de equilibrio, la entropía S tome el máximo valor posible. Dicho valores necesariamente mayor que el del estado de equilibrio previo. En efecto, podemos concebir la situación en laque, aunque puede, el sistema se mantiene en su volumen anterior, con la misma energía interna y misma materia.En ese caso, la entropía no habrá cambiado. Y ese caso es compatible con los límites del sistema. Sin embargo,sabemos que la naturaleza no opera así: el sistema tenderá a ocupar todo el volumen (aunque sea un sólido, encuyo caso la presión de vapor del sólido cambiará, o se evaporará más sólido, etc), y el equilibrio se desplazará.La función entropía es aquella función matemática que toma su valor máximo en ese nuevo equilibrio, y deberáser por tanto mayor que en el estado de equilibrio anterior.

•• Desde el punto de vista microscópico, ocurre que ahora el número de microestados que son compatibles con loslímites del sistema ha aumentado. En efecto, seguiremos teniendo los mismos de antes, pero a estos se les sumanotros nuevos. Por ejemplo, ahora un átomo podrá moverse no ya dentro del volumen anterior, sino también dentrode todo el nuevo volumen.

Así, a la vez que la entropía aumenta se produce un incremento del número de microestados posibles. Esto sugiereque la entropía puede identificarse con el número de microestados consistentes con las limitaciones macroscópicas

Page 59: códigos - libro wikipedia

Segundo principio de la termodinámica 56

impuestas sobre el sistema. Siendo los microestados producto del azar, y siendo la probabilidad de que cada uno deellos se dé la misma, es natural identificar por tanto entropía con desorden microscópico.Existe un único problema: según la termodinámica, la entropía es aditiva. Esto es, la entropía de dos sistemas igualeses el doble que la entropía individual de cada uno de ellos. Sin embargo, el número de microestados posibles esmultiplicativo. Esto es, el número de microestados de dos sistemas es el producto del número de microestados decada uno de ellos. Por ejemplo, el número de "microestados" de dos dados, si el de cada uno de ellos es 6 (cada caradel dado es un microestado posible), es 6x6=36 microestados (tener un "1" en el primero, un "3" en el segundo; un"2" en el primero, un "5" en el segundo, etc). Para interpretar la entropía necesitaremos conseguir que el número demicroestados cumpla una regla aditiva.La única solución a esto es identificar la entropía con el logaritmo del número de microestados posibles. Llamando Ωal número de microestados y S a la entropía, podremos escribir que:

Donde kB es la constante de Boltzmann, y aparece sencillamente para determinar la escala de la entropía, que sueledarse como energía por grado de temperatura (J/K) , aunque según esta interpretación podría carecer de unidades.

Interpretación canónica

La interpretación microcanónica de la entropía concibe un sistema termodinámico aislado, esto es, un sistematermodinámico que no intercambia ni materia ni energía ni volumen con el exterior: la composición del sistema,dada por N1,N2, ... , su energía interna U y su volumen V no cambian en ella. El sistema por antonomasia quecumple dichas condiciones es el propio universo. Sin embargo, en muchas ocasiones se contemplan sistemas que síintercambian energía, masa o volumen con su entorno.Para esos casos, es necesario extender las interpretaciones estadísticas de la entropía, si bien globalmente es lainterpretación microcanónica la que perdura. En efecto, si consideramos un sistema que por ejemplo intercambiamateria con su entorno, podemos concebir un sistema mayor que incluya al sistema inicial y a su entorno de maneraque el sistema global se amolde a la interpretación microcanónica; en el límite, dicho sistema será el propio universo.Y es precisamente la entropía del sistema microcanónico la que queda sujeta al segundo principio de latermodinámica, esto es, aquella que debe aumentar al variarse el equilibrio global del sistema.Evidentemente, podría entonces pensarse que cualquier sistema, sean cuales sean las condiciones de intercambio consu entorno, puede ser tratado concibiendo el sistema global que quede sujeto a la interpretación microcanónica. Enefecto, en principio su estado de equilibrio debería poder obtenerse sin más que considerar el número total demicroestados del sistema global. Esto, sin embargo, puede ser muy costoso por no decir prácticamente imposible deestimar en la mayor parte de las circunstancias: los cálculos combinatorios sobre el número de formas en que laenergía disponible en un sistema puede distribuirse suele quedar más allá de todo conocimiento matemático. Y espara solventar esas deficiencias que surgen el resto de interpretaciones de la entropía.La interpretación canónica, a veces llamada formalismo canónico o de Helmholtz, considera un sistematermodinámico capaz de intercambiar energía con un reservorio térmico o termostato. Según esto, al disponer de unafuente infinita de energía, todo estado energético, desde el de menor energía hasta el de mayor, será concebible parael sistema. Sin embargo, en oposición al sistema microcanónico, la probabilidad de cada uno de esos estados no serála misma: el sistema no estará la misma fracción de tiempo en cada uno de esos estados. El punto central delformalismo canónico es determinar la distribución de probabilidad de los microestados. Y dicho problema seresuelve teniendo en cuenta que el sistema global formado por el termostato y el sistema en cuestión es un sistemacerrado, esto es, cumple el formalismo microcanónico de que la probabilidad de cada microestado global es lamisma.Si la energía total del sistema global es Etot, y la de un microestado del sistema local es Ej, al estar el sistema local en un estado de energía Ej el termostato quedará reducido inevitablemente a uno de energía Etot - Ej. La probabilidad de que el sistema global esté en un microestado tal que el termostato tenga energía Etot - Ej y el sistema local Ej será

Page 60: códigos - libro wikipedia

Segundo principio de la termodinámica 57

entonces:

Siguiendo la definición de la entropía según Boltzmann, dicha ecuación puede escribirse como:

La energía interna U será el valor medio de la energía del sistema local, por lo que, como la entropía es aditiva,puede escribirse que:

Si se desarrolla en serie tendremos que:

.

De este modo, la probabilidad puede expresarse como:

Y como es la energía libre de Helmholtz, podemos expresar dicha probabilidad como:

,

donde .

La probabilidad total de estar en alguno de dichos estados es la unidad, por lo que:

, de donde se define

.Z es las la llamada función de partición canónica, generalmente definida como:

Si para un sistema de partículas en equilibrio térmico se conoce la función de partición Z, se puede calcular laentropía mediante:

Donde kB es la constante de Boltzmann, T la temperatura y las probabilidades Pj.Esta es la interpretación de la entropía, llamada interpretación canónica o entropía de Helmholtz.

Page 61: códigos - libro wikipedia

Segundo principio de la termodinámica 58

Entropía de Von Neumann en mecánica cuánticaEn el siglo XIX el concepto de entropía fue aplicado a sistemas formados por muchas partículas que se comportanclásicamente, a principios del siglo XX Von Neumann generalizó el concepto de entropía para sistemas de partículascuánticas, definiendo para un estados mezcla caracterizado por una matriz densidad ρ la entropía cuántica de VonNeumann como la magnitud escalar:

Entropía generalizada en Relatividad generalEl intento de extender el análisis termodinámico convencional al universo entero, llevó a examinar a principios delos 70 el comportamiento termodinámico de estructuras como los agujeros negros. El resultado preliminar de dichoanálisis reveló algo muy interesante, que la segunda ley tal como había sido formulada convencionalmente parasistemas clásicos y cuánticos podría ser violada en presencia de agujeros negros. Sin embargo, los trabajos de JacobD. Bekenstein sobre teoría de la información y agujeros negros sugirieron que la segunda ley seguiría siendo válidasi se introducía una entropía generalizada (Sgen) que sumara a la entropía convencional (Sconv), la entropíaatribuible a los agujeros negros que depende del área total (A) de agujeros negros en el universo. Concretamente estaentropía generalizada debe definirse como:

Donde, k es la constante de Boltzmann, c es la velocidad de la luz, G es la constante de gravitación universal y esla constante de Planck racionalizada.

Notas[1] En español (como en francés), a diferencia del inglés — por ejemplo, First law of thermodynamics—, se usa la palabra «principio» para

designar leyes naturales que no pueden demostrarse explícitamente, sin embargo se pueden medir y cuantificar observando los resultados queproducen.

[2] Esta definición plantea un problema difícil de solventar; la entropía clásica sólo se define formalmente para estados de equilibrio, siendocomplicado extender el concepto de equilibrio al universo completo en cualquier instante.

[3] H. Callen (1985) Thermodynamics and an Introduction to Thermostatistics, Wiley, NY.[4][4] A. Bejan, (2006). 'Advanced Engineering Thermodynamics', Wiley. ISBN 0471677639

Page 62: códigos - libro wikipedia

Constante de Boltzmann 59

Constante de BoltzmannLa constante de Boltzmann (k o kB) es la constante física que relaciona temperatura absoluta y energía. Se llama asípor el físico austriaco Ludwig Boltzmann, quien hizo importantes contribuciones a la teoría de la mecánicaestadística, en la que esta constante desempeña un papel fundamental. Su valor es (en SI):

Valores[1]

de k Unidades

1,3806488(13)×10−23 J K−1

8,6173324(78)×10-5 eV K−1

1,3806488(13) ×10-16 erg K−1

Constante de Stefan-BoltzmannLa constante de Stefan-Boltzmann dentro de la radiación térmica como mecanismo básico de la transmisión decalor es:

Referencias[1] P.J. Mohr, B.N. Taylor, and D.B. Newell (2011), "The 2010 CODATA Recommended Values of the Fundamental Physical Constants" (Web

Version 6.0). This database was developed by J. Baker, M. Douma, and S. Kotochigova. Available: http:/ / physics. nist. gov/ constants[Thursday, 02-Jun-2011 21:00:12 EDT]. National Institute of Standards and Technology, Gaithersburg, MD 20899.

Otras lecturas• J. Bronowski (1979). El ascenso del hombre (cap. 10, "Un mundo dentro del mundo"). Bogotá: Fondo Educativo

Interamericano. No. 853 (Alejandro Ludlow Wiechers/BBC, trad.).

Enlaces externos• Los últimos minutos del capítulo 10, "Un mundo dentro del mundo", (http:/ / www. youtube. com/

watch?v=C2p9By0qXms) de El ascenso del hombre, de Jacob Bronowski, donde el autor rinde homenaje aLudwig Boltzmann. (en inglés)

Page 63: códigos - libro wikipedia

Neguentropía 60

NeguentropíaLa neguentropía o negantropía, también llamada entropía negativa o sintropía, de un sistema vivo, es la entropíaque el sistema exporta para mantener su entropía baja; se encuentra en la intersección de la entropía y la vida.La neguentropía se puede definir como la tendencia natural de que un sistema se modifique según su estructura y seplasme en los niveles que poseen los subsistemas dentro del mismo. Por ejemplo: las plantas y su fruto, ya quedependen los dos para lograr el método de neguentropía.

Concepto de entropía negativaEl concepto de “entropía negativa” fue introducido por Erwin Schrödinger (físico teórico, y uno de los padres de lamecánica cuántica) en su libro de ciencia popular what is life?, publicado en 1943. Más tarde, Léon Brillouin cambiola palabra a neguentropía, para expresarla en una forma mucho más “positiva”, diciendo que un sistema vivo importaneguentropía y la almacena. En 1974, Albert SzentGyörgyi (Nobel de Fisiología Médica en 1937) propuso cambiarel término de neguentropia a sintropia, aunque este último ya había sido usado por el matemático Luigi Fantappiè,quien lo usó con el fin de construir una teoría unificando la física y la biología. Buckminster Fuller, ingeniero,arquitecto y diseñador del siglo XX, trato de hacer popular este término, pero la palabra neguentropía siemprepermaneció como la común.En el año 2009, Mahulikar & Herwig redefinieron la neguentropía de un sub-sistema ordenado dinámicamente comoel déficit de entropía relacionado al caos que rodea el sub-sistema ordenado. De esta forma, las unidades de laneguentropía son [J/kg-K] cuando se define con base en la entropía por unidad de masa, mientras que cuando sedefine con base en la entropía por unidad de energía las unidades son [K-1]. Esta definición ha habilitado:1.1. Representaciones termodinámicas a escala invariante de la existencia de un orden dinámico,2.2. pensamiento de principios físicos exclusivamente para la existencia de un orden dinámico y evolución, y3. la interpretación matemática de la neguentropía de Schrödinger.

ContrastesAsí como la entropía establece que la energía y cualquiera de sus formas de manifestarse (ya sea en forma demateria, de plasma o radiación) tiende a buscar un estado de equilibrio inexpresivo continuo, la neguentropía definela energía como una serie de causas y efectos armónicamente acomodadas en las que la suma total de los efectosarmónicos dan como resultado un acople de mayor magnitud que el original, siendo una forma de resonancia que dacomo resultado paquetes de energía perfectamente utilizables por cualquier sistema perceptor de sus efectos.

Teoría de la informaciónEn la teoría de la información y la estadística, la neguentropía se usa como medida de distancia de normalidad. Sise considera una señal con una cierta distribución, y la señal es gausiana, esta tendrá una distribución normal. Laneguentropía es siempre positiva, invariante a cambios de coordenadas lineales, y se desvanece si y solo si la señal esgausiana.La neguentropía se define por:

Donde S(Φχ) es el diferencial de entropía de la densidad gausiana con la misma media y varianza, mientras que pχ yS(pχ) es la entropía diferencial de pχ:

Page 64: códigos - libro wikipedia

Neguentropía 61

La neguentropía se usa es estadística y procesamiento de señales. Está relacionada a la entropía de redes, que esusada en análisis de componentes independientes. La neguentropía puede ser entendida intuitivamente como lainformación que puede ser guardada cuando se representa pχ de forma eficiente: si pχ fuera una variable aleatoria(con distribución gausiana) con misma media y varianza, se necesitaría una máxima longitud de datos para serrepresentada, incluso en su forma más eficiente. Como pχ no es tan aleatorio, algo se sabe de antemano. pχ contienemenos información desconocida, y necesita menos longitud de datos para ser representado de forma más eficiente.

Correlación entre neguentropía estadística y energía libre de Gibbs

Gráfica de energía libre de Gibbs (Willard Gibbs en 1873), la cual muestraun plano perpendicular al eje de v (volumen) y pasando por el punto A, querepresenta el estado inicial del cuerpo. MN es la sección de la superficie dela energía disipada. Qε y Qη son secciones de los planos η = 0 y ε = 0, y por

tanto paralelos a los ejes de ε (energía interna) y η (entropía)respectivamente. AD y AE son la energía y entropía del cuerpo en su estado

inicial. En AB y AC, su energía disponible (energía libre de Gibbs) y sucapacidad de entropía (la cantidad por la cual la entropía del cuerpo puede

aumentar sin cambiar la energía del cuerpo o aumentar su volumen)respectivamente.

Existe una magnitud física estrechamentevinculada a la energía libre (entalpia libre), conuna unidad de entropía isomórfica a laneguentropía, conocida en estadística y en teoríade la información. En 1873 Willard Gibbs creó undiagrama ilustrando el concepto de energía librecorrespondiente a entalpia libre. En el diagramase puede ver la cantidad llamada capacidad de laentropía. Dicha cantidad es la entropía que sepuede incrementar sin cambiar la energía internao aumentar el volumen. En otras palabras, se tratade una diferencia entre el máximo posible, encondiciones de asumir, la entropía y la entropíareal. Esto corresponde exactamente a la definiciónde neguentropía adoptada por la estadística y lateoría de la información. Una cantidad físicasimilar fue presentada en 1869 por Massieu parael proceso isotérmico, y luego por Max Planckpara el proceso isotérmico-isobárico. Másadelante, el potencial termodinámico deMassieu-Planck, conocido también como entropíalibre, ha mostrado jugar un rol importante en laformulación entrópica de la mecánica estadística,con aplicaciones en biología molecular y enprocesos termodinámicos no equilibrados.

Donde:- (“Capacidad para entropía” de

Gibbs)

– Potencial de Massieu- Función de particion- Constante de Boltzman

Teoría de la organizaciónEn 1988, basándose en la definición de entropía estadística de Shannon, Mario Ludovico dio una definición formal al término sintropia, como una medida del grado de organización interna de cualquier sistema formado por

Page 65: códigos - libro wikipedia

Neguentropía 62

componentes que interactúan entre si. De acuerdo a esta definición, la sintropía es una cantidad complementaria a laentropía. La suma de dos cantidades define un valor constante, específicas del sistema en el que ese valor constanteidentifica el potencial de transformación. Usando estas definiciones, la teoría desarrolla ecuaciones aptas paradescribir y simular cualquier posible forma de evolución del sistema, ya sea hacia niveles mayores o menores de“organización interna” (por ejemplo la sintropia), o hacia el colapso del sistema.La organización como sistema (abierto) esta constituido por los elementos básicos de este (entradas, medio, salidas yretroalimentación) y es en las entradas donde la información juega un papel clave como medio regulador, medioneguentrópico, ya que a través de ella se puede disminuir la cantidad de incertidumbre (entropía). Se puedeconsiderar a la información como elemento generador de orden y como herramienta fundamental para la toma dedecisiones en la organización o en cualquier sistema en el que se presenten situaciones de elección con múltiplesalternativas.En la gestión de riesgos, neguentropía es la fuerza que tiene por objeto lograr un comportamiento organizacionaleficaz y conducir a un estado estacionario predecible.

Referencias

Bibliografía•• Luz Amanda Camacho: Teoría general de sistemas.•• Johansen O.: Las comunicaciones y la conducta organizacional.•• Juan Vergara: Gestión por Procesos ITM.

Enlaces externos• La neguentropía como desmitificadora de la ciencia y consolidadora de la vida material (http:/ / www. nodo50.

org/ tortuga/ article. php3?id_article=3894)

Page 66: códigos - libro wikipedia

Ciclo de Carnot 63

Ciclo de Carnot

Esquema de una máquina de Carnot. La máquina absorbe calor desdela fuente caliente T1 y cede calor a la fría T2 produciendo trabajo.

El ciclo de Carnot se produce cuando un equipo quetrabaja absorbiendo una cantidad de calor Q1 de lafuente de alta temperatura y cede un calor Q2 a la debaja temperatura produciendo un trabajo sobre elexterior. El rendimiento viene definido, como en todociclo, por

y, como se verá adelante, es mayor que cualquiermáquina que funcione cíclicamente entre las mismasfuentes de temperatura. Una máquina térmica querealiza este ciclo se denomina máquina de Carnot.

Como todos los procesos que tienen lugar en el cicloideal son reversibles, el ciclo puede invertirse.Entonces la máquina absorbe calor de la fuente fría ycede calor a la fuente caliente, teniendo que suministrartrabajo a la máquina. Si el objetivo de esta máquina esextraer calor de la fuente fría se denomina máquinafrigorífica, y si es extraer calor de la fuente caliente, bomba de calor.

El ciclo de Carnot

Diagrama del ciclo de Carnot en función de la presión y el volumen.

El ciclo de Carnot consta de cuatro etapas:dos procesos isotermos (a temperaturaconstante) y dos adiabáticos (aisladostérmicamente). Las aplicaciones del Primerprincipio de la termodinámica están escritosacorde con el Criterio de signostermodinámico.

Expansión isoterma: (proceso 1 → 2 en eldiagrama) Se parte de una situación en queel gas se encuentra al mínimo volumen delciclo y a temperatura T1 de la fuentecaliente. En este estado se transfiere calor alcilindro desde la fuente de temperatura T1,haciendo que el gas se expanda. Alexpandirse, el gas tiende a enfriarse, peroabsorbe calor de T1 y mantiene sutemperatura constante. Al tratarse de un gasideal, al no cambiar la temperatura tampoco lo hace su energía interna, y despreciando

Page 67: códigos - libro wikipedia

Ciclo de Carnot 64

Diagrama del ciclo de Carnot en función de la temperatura y la entropía.

los cambios en la energía potencial y lacinética, a partir de la 1ª ley de latermodinámica vemos que todo el calortransferido es convertido en trabajo:

Desde el punto de vista de la entropía, éstaaumenta en este proceso: por definición, unavariación de entropía viene dada por elcociente entre el calor transferido y latemperatura de la fuente en un proceso

reversible: . Como el

proceso es efectivamente reversible, la

entropía aumentará

Expansión adiabática: (2 → 3) Laexpansión isoterma termina en un punto tal que el resto de la expansión pueda realizarse sin intercambio de calor. Apartir de aquí el sistema se aísla térmicamente, con lo que no hay transferencia de calor con el exterior. Estaexpansión adiabática hace que el gas se enfríe hasta alcanzar exactamente la temperatura T2 en el momento en que elgas alcanza su volumen máximo. Al enfriarse disminuye su energía interna, con lo que utilizando un razonamientoanálogo al anterior proceso:

Esta vez, al no haber transferencia de calor, la entropía se mantiene constante: Compresión isoterma: (3 → 4) Se pone en contacto con el sistema la fuente de calor de temperatura T2 y el gascomienza a comprimirse, pero no aumenta su temperatura porque va cediendo calor a la fuente fría. Al no cambiar latemperatura tampoco lo hace la energía interna, y la cesión de calor implica que hay que hacer un trabajo sobre elsistema:

Al ser el calor negativo, la entropía disminuye:

Compresión adiabática: (4 → 1) Aislado térmicamente, el sistema evoluciona comprimiéndose y aumentando sutemperatura hasta el estado inicial. La energía interna aumenta y el calor es nulo, habiendo que comunicar un trabajoal sistema:

Al ser un proceso adiabático, no hay transferencia de calor, por lo tanto la entropía no varía:

Page 68: códigos - libro wikipedia

Ciclo de Carnot 65

Trabajo del cicloPor convención de signos, un signo negativo significa lo contrario. Es decir, un trabajo negativo significa que eltrabajo es realizado sobre el sistema.Con este convenio de signos el trabajo obtenido deberá ser, por lo tanto, negativo. Tal como está definido, ydespreciando los cambios en energía mecánica, a partir de la primera ley:

Como dU (diferencial de la energía interna) es una diferencial exacta, el valor de U es el mismo al inicio y al finaldel ciclo, y es independiente del camino, por lo tanto la integral de dU vale cero, con lo que queda

Por lo tanto, en el ciclo el sistema ha realizado un trabajo sobre el exterior.

Teoremas de Carnot1. No puede existir una máquina térmica que funcionando entre dos fuentes térmicas dadas tenga mayorrendimiento que una de Carnot que funcione entre esas mismas fuentes térmicas.

Para demostrarlo supondremos que no se cumple el teorema, y se verá que el no cumplimiento transgrede lasegunda ley de la termodinámica. Tenemos pues dos máquinas, una llamada X y otra, de Carnot, R, operandoentre las mismas fuentes térmicas y absorbiendo el mismo calor de la caliente. Como suponemos que

, y por definición

, donde y denotan el trabajo producido

y el calor cedido a la fuente fría respectivamente, y los subíndices la máquina a la que se refieren.Como R es reversible, se le puede hacer funcionar como máquina frigorífica. Como , la máquinaX puede suministrar a R el trabajo que necesita para funcionar como máquina frigorífica, y X produciráun trabajo neto . Al funcionar en sentido inverso, R está absorbiendo calor de la fuentefría y está cediendo calor a la caliente.El sistema formado por las dos máquinas funciona cíclicamente realizando un trabajo eintercambiando un calor con una única fuente térmica, lo cual va en contra del segundoprincipio de la termodinámica. Por lo tanto:

2. Dos máquinas reversibles operando entre las mismas fuentes térmicas tienen el mismo rendimiento.

Igual que antes, suponemos que no se cumple el teorema y veremos que se violará el segundo principio. SeanR1 y R2 dos máquinas reversibles, operando entre las mismas fuentes térmicas y absorbiendo el mismo calorde la caliente, con distintos rendimientos. Si es R1 la de menor rendimiento, entonces .

Invirtiendo R1, la máquina R2 puede suministrale el trabajo para que trabaje como máquina frigorífica, yR2 producirá un trabajo .El sistema formado por las dos máquinas funciona cíclicamente realizando un trabajo eintercambiando un calor con una única fuente térmica, lo cual va en contra de la segunda ley.Por lo tanto:

Page 69: códigos - libro wikipedia

Ciclo de Carnot 66

RendimientoA partir del segundo teorema de Carnot se puede decir que, como dos máquinas reversibles tienen el mismorendimiento, éste será independiente de la sustancia de trabajo de las máquinas, las propiedades o la forma en la quese realice el ciclo. Tan solo dependerá de las temperaturas de las fuentes entre las que trabaje. Si tenemos unamáquina que trabaja entre fuentes a temperatura T1 y T2, el rendimiento será una función de las dos como variables:

Por lo tanto, el cociente entre los calores transferidos es función de las temperaturas de las fuentes. Nótese que como,por la segunda ley de la termodinámica, el rendimiento nunca pude ser igual a la unidad, la función f está siempredefinida.Consideremos ahora tres máquinas que trabajan entre fuentes a temperaturas tales que . La primeramáquina trabaja entre las fuentes 1 y 2, la segunda entre 1 y 3, y la tercera entre 3 y 2, de modo que desde cadafuente se intercambia el mismo calor con las máquinas que actúan sobre ella. Es decir, tanto la primera máquinacomo la segunda absorben un calor Q1, la segunda y la tercera ceden y absorben Q2 respectivamente y la primera y latercera ceden Q3. De la ecuación anterior podemos poner, aplicada a cada máquina:

Aplicando relaciones matemáticas:

Como el primer miembro es función solamente de T1 y T2, también lo será el segundo miembro, independientementede T3. Para que eso se cumpla f debe ser de la forma

De las distintas funciones que satisfacen esa condición, la más sencilla es la propuesta por Kelvin, ,con lo que el cociente entre calores queda

y trasladando este cociente a la definición de rendimiento:

Otra forma de llegar a este resultado es por medio de la entropía, definida como . De ahí se puede

sacar los calores transferidos en los procesos 1 → 2 y 3 → 4:

Como puede observarse, el calor transferido con la primera fuente es positivo y con la segunda negativo, por elconvenio de signos adoptado.Teniendo en cuenta que para calcular el rendimiento de un ciclo se utilizan los valores absolutos de los trabajos ycalores,

Page 70: códigos - libro wikipedia

Ciclo de Carnot 67

tenemos finalmente el resultado deseado:

Ciclo realTodos los procesos reales tienen alguna irreversibilidad, ya sea mecánica por rozamiento, térmica o de otro tipo. Sinembargo, las irreversibilidades se pueden reducir, pudiéndose considerar reversible un proceso cuasiestático y sinefectos disipativos. Los efectos disipativos se reducen minimizando el rozamiento entre las distintas partes delsistema y los gradientes de temperatura; el proceso es cuasiestático si la desviación del equilibrio termodinámico es alo sumo infinitesimal, esto es, si el tiempo característico del proceso es mucho mayor que el tiempo de relajación (eltiempo que transcurre entre que se altera el equilibrio hasta que se recupera). Por ejemplo, si la velocidad con la quese desplaza un émbolo es pequeña comparada con la del sonido del gas, se puede considerar que las propiedades sonuniformes espacialmente, ya que el tiempo de relajación mecánico es del orden de V1/3/a (donde V es el volumen delcilindro y a la velocidad del sonido), tiempo de propagación de las ondas de presión, mucho más pequeño que eltiempo característico del proceso, V1/3/w (donde w es la velocidad del émbolo), y se pueden despreciar lasirreversibilidades.Si se hace que los procesos adiabáticos del ciclo sean lentos para minimizar las irreversibilidades se hace imposiblefrenar la transferencia de calor. Como las paredes reales del sistema no pueden ser completamente adiabáticas, elaislamiento térmico es imposible, sobre todo si el tiempo característico del proceso es largo. Además, en losprocesos isotermos del ciclo existen irreversibilidades inherentes a la transferencia de calor. Por lo tanto, esimposible conseguir un ciclo real libre de irreversibilidades, y por el primer teorema de Carnot la eficiencia serámenor que un ciclo ideal.

Bibliografía• Jesús Biel Gayé: Formalismos y Métodos de la Termodinámica, Vol. 1. Editorial Reverté. ISBN 84-291-4343-2

Enlaces externos• Wikimedia Commons alberga contenido multimedia sobre Ciclo de CarnotCommons.• Ciclo de Carnot con applet Java [1]

• El ciclo de Carnot y el Teorema de Clausius (pdf) [2]

Referencias[1] http:/ / www. sc. ehu. es/ sbweb/ fisica/ estadistica/ carnot/ carnot. htm[2] http:/ / personales. ya. com/ casanchi/ fis/ ciclo001. pdf

Page 71: códigos - libro wikipedia

Máquina de Carnot 68

Máquina de Carnot

Máquina Carnot "original", diagrama de 1824.

La máquina de Carnot es una máquina ideal que utiliza calor pararealizar un trabajo. En ella hay un gas sobre el que se ejerce un procesocíclico de expansión y contracción entre dos temperaturas. El ciclotermodinámico utilizado se denomina ciclo de Carnot y fue estudiado porSadi Carnot alrededor de 1820. Una máquina de Carnot es elprocedimiento más eficaz para producir un trabajo a partir de dos focosde temperatura.

Puede construirse a partir de un cilindro sobre el que discurre un pistónunido a una biela que convierte el movimiento lineal del pistón enmovimiento circular. El cilindro contiene una cierta cantidad de un gasideal y la máquina funciona intercambiando calor entre dos fuentes detemperaturas constantes T1 < T2. Las transferencias de calor entre lasfuentes y el gas se hace isotérmicamante, es decir, manteniendo latemperatura constante. Esta parte del proceso es, por lo tanto, reversible.El ciclo se completa con una expansión y una compresión adiabáticas, esdecir, sin intercambio de calor, por lo que esta parte del ciclo es tambiénreversible.

Funcionamiento de la Máquina de Carnot

• (1) Expansión isotérmica. Se parte de una situación en que el gasocupa el volumen mínimo Vmin a la temperatura T2 y a presión alta. Eneste estado se transfiere calor al cilindro desde la fuente detemperatura T2, haciendo que el gas se expanda. Al expandirse, el gastiende a enfriarse, pero absorbe calor de T2 y mantiene su temperatura constante. El volumen del gas aumentaproduciendo un trabajo sobre el pistón. Dado que la temperatura permanece constante durante esta parte del ciclo,el gas no cambia su energía interna y todo el calor absorbido de T2 se convierte en trabajo

• (2) Expansión adiabática. La expansión isotérmica termina en un punto tal que el resto de la expansión pueda

realizarse sin intercambio de calor. Esta expansión adiabática hace que el gas se enfríe hasta alcanzar exactamentela temperatura T1 en el momento en que el pistón alcanza el punto máximo de su carrera y el gas alcanza suvolumen máximo Vmax. Durante esta etapa todo el trabajo realizado por el gas proviene de su energía interna:

• (3) Compresión isotérmica. Se pone en contacto con el cilindro la fuente de calor de temperatura T1 y el gas

comienza a comprimirse, pero no aumenta su temperatura porque va cediendo calor a la fuente fría. Durante estaparte del ciclo se hace trabajo sobre el gas pero, como la temperatura permanece constante, la energía interna nocambia y el trabajo es absorbido en forma de calor por la fuente T1:

• (4) Compresión adiabática. La fuente T1 se retira en el momento adecuado para que durante el resto de la

compresión el gas eleve su temperatura hasta alcanzar exactamente el valor T2 al mismo tiempo que el volumendel gas alcanza su valor mínimo Vmin. Durante esta etapa no hay intercambio de calor y el trabajo realizado sobreel gas se convierte en energía interna:

Page 72: códigos - libro wikipedia

Máquina de Carnot 69

Trabajo realizadoPor la Primera Ley de la Termodinámica, en cada ciclo la máquina realiza un trabajo mecánico dW igual al calor dQtransferido de T2 a T1, lo cual se puede comprobar usando las igualdades obtenidas en cada ciclo:

donde la segunda igualdad se obtiene de 1) y 3). Por otro lado, el estado del gas al terminar un ciclo es el mismo queal comenzarlo, por lo que el cambio de su energía interna debe ser cero:

De esta igualdad y de 1), 2), 3) y 4) se deduce que dW2 + dW4 = 0. Por lo tanto

El rendimiento de una máquina de Carnot (el cociente entre el calor absorbido y el trabajo desempeñado) es máximoy, siendo la temperatura del foco frío y la del foco caliente, puede calcularse como:

Energía de GibbsEn termodinámica, la energía libre de Gibbs ( energía libre o entalpía libre) es un potencial termodinámico, esdecir, una función de estado extensiva con unidades de energía, que da la condición de equilibrio y de espontaneidadpara una reacción química (a presión y temperatura constantes).La segunda ley de la termodinámica postula que una reacción química espontánea hace que la entropía del universoaumente, ΔSuniverso > 0, así mismo ΔSuniverso esta en función de ΔSsistema y ΔSalrededores. Por lo general sólo importalo que ocurre en el sistema en estudio y; por otro lado el cálculo de ΔSalrededores puede ser complicado.Por esta razón fue necesaria otra función termodinámica, la energía libre de Gibbs, que sirva para calcular si unareacción ocurre de forma espontánea tomando en cuenta solo las variables del sistema.

Cálculo de la energía libreLos cambios en la energía libre

Contenido de calor; T es la temperatura y S es la entropía del sistema. Fue desarrollada en los años 1870 por elfísico-matemático estadounidense Williard Gibbs.

Cambios de energía libre estándar

La energía libre de reacción, se denota, , es el cambio de energía en una reacción a condicionesestándares. En esta reacción los reactivos en su estado estándar se convierten en productos en su estado estándar.Dada la siguiente ecuación química:

La energía libre se calcula como

Donde A y B son los reactivos en estado estándar y; C y D son los productos en su estado estándar. Además a, b, c yd son sus respectivos coeficientes estequiométricos.en general:

Page 73: códigos - libro wikipedia

Energía de Gibbs 70

donde m y n son la multiplicación de los coeficientes estequiométricos.Así como en el cálculo de la entalpía, en la energía libre estándar de formación para cualquier elemento en su formaestable (1 atm y 25ºC) es 0La variación de energía libre de Gibbs para un proceso a temperatura constante viene dada por:

La temperatura puede ser un factor determinante a la hora de hacer que un proceso sea espontáneo o no lo sea.

Significado de • La condición de equilibrio es • La condición de espontaneidad es • El proceso no es espontáneo cuando: (esta última condición nos dice que la reacción no se producirá).La energía de Gibbs molar parcial, es lo que se conoce con el nombre de potencial químico, que es lo que se manejaen cálculos termodinámicos en equilibrio, ya que el equilibrio químico entre dos sistemas implica la igualdad depotenciales químicos y su uso facilita los cálculos.

Demostración matemáticaPartimos de:

como:

Reemplazando:

Multiplicando por T:

Es decir:

UnidadesAl ser una magnitud extensiva, es decir, que depende de la cantidad de sistema, normalmente se va a referir enunidades de energía por unidad de cantidad de materia. En el Sistema Internacional de Unidades se utiliza el J/mol,aunque también se puede utilizar kcal/mol.

Enlaces externos• Más información sobre el equilibrio químico [1]

Referencias[1] http:/ / www. netcom. es/ pilar_mu/ equilibrio. htm

Page 74: códigos - libro wikipedia

Código morse 71

Código morse

Código Morse, publicación de 1922.

El código morse o también conocido como alfabeto morsees un sistema de representación de letras y números medianteseñales emitidas de forma intermitente.

Historia

Fue desarrollado por Alfred Vail mientras colaboraba en1834 con Samuel Morse en la invención del telégrafoeléctrico. Vail creó un método según el cual cada letra onúmero era transmitido de forma individual con un códigoconsistente en rayas y puntos, es decir, señales telegráficasque se diferencian en el tiempo de duración de la señalactiva. La duración del punto es la mínima posible. Una rayatiene una duración de aproximadamente tres veces la delpunto. Entre cada par de símbolos de una misma letra existeuna ausencia de señal con duración aproximada a la de unpunto. Entre las letras de una misma palabra, la ausencia esde aproximadamente tres puntos. Para la separación depalabras transmitidas el tiempo es de aproximadamente tresveces el de la raya. Morse reconoció la idoneidad de estesistema y lo patentó junto con el telégrafo eléctrico. Fueconocido como «American Morse Code» y fue utilizado en laprimera transmisión por telégrafo.

En sus comienzos, el alfabeto Morse se empleó en las líneastelegráficas mediante los tendidos de cable que se fueron instalando. Más tarde, se utilizó también en lastransmisiones por radio, sobre todo en el mar y en el aire, hasta que surgieron las emisoras y los receptores deradiodifusión mediante voz.

En la actualidad, el alfabeto Morse tiene aplicación casi exclusiva en el ámbito de los radioaficionados, y aunque fueexigido frecuentemente su conocimiento para la obtención de la licencia de radioperador aficionado hasta el año2005, posteriormente, los organismos que conceden esa licencia en todos los países están invitados a dispensar delexamen de telegrafía a los candidatos.También se utiliza en la aviación instrumental para sintonizar las estaciones VOR, ILS y NDB. En las cartas denavegación está indicada la frecuencia junto con una señal Morse que sirve, mediante radio, para confirmar que hasido sintonizada correctamente.

Page 75: códigos - libro wikipedia

Código morse 72

Alfabeto Morse

"SOS", la señal estándar de emergencia, encódigo morse.

Pulsa en los enlaces para oír el sonido.

Signo Código Signo Código Signo Código

A · — N — · 0 — — — — —

B — · · · Ñ — — · — — 1 · — — — —

C — · — · O — — — 2 · · — — —

CH — — — — P · — — · 3 · · · — —

D — · · Q — — · — 4 · · · · —

E · R · — · 5 · · · · ·

F · · — · S · · · 6 — · · · ·

G — — · T — 7 — — · · ·

H · · · · U · · — 8 — — — · ·

I · · V · · · — 9 — — — — ·

J · — — — W · — — . · — · — · —

K — · — X — · · — , — — · · — —

L · — · · Y — · — — ? · · — — · ·

M — — Z — — · · " · — · · — · ! — · — · — —

convenciones: — : raya (señal larga) · : punto (señal corta)Si se comete un error al transmitir el mensaje en morse, la señal "error" son seis ecos "E" en grupos de dos (../../..)

....--.....---..-...-..

Regla nemotécnica o mnemotécnicaEl código Morse es difícil de aprender por lo que, para facilitar su aprendizaje, se suele utilizar una reglamnemotécnica, la cual permite aprendérselo mediante un código consistente en asignar a cada letra una palabra clavedeterminada, que comienza con la letra que se quiere recordar. Luego basta con sustituir cada vocal de la palabraclave por un punto o una raya según la siguiente regla:•• La inicial de la palabra clave es la letra correspondiente.•• El número de vocales que contiene la palabra clave indica la longitud de la codificación en morse de dicha letra.• Si la vocal es una O se sustituye por una raya (-)• Si se trata de cualquier otra vocal se sustituye por un punto (·)•• Al sustituir sólo se tendrá en cuenta los puntos y rayas obtenidos hasta la totalidad de la longitud en morse.

Page 76: códigos - libro wikipedia

Código morse 73

Signo Palabra Código Signo Palabra Código

A Asno / Árbol · — N Nota / Noche — ·

B Bonaparte / Bogavante / Bobadilla — · · · Ñ Ñoñopatoso — — · — —

C Coca-Cola / Corazones — · — · O Oporto / Otoño / Ozono — — —

D Docena — · · P Pisotones / Pilotonic / Pelotones · — — ·

E El / Es · Q Cokoriko / Cocoliso / Cocodrilo — — · —

F Farandola / Fanacoa / Fumarola · · — · R Ramona / Revolver · — ·

G Góndola — — · S Sardina / Sedante · · ·

H Himalaya / Habitante · · · · T Tos —

I Iris / Isla · · U Único · · —

J Jabonoso · — — — V Ventilador · · · —

K Kolyno / Koinor — · — W Wadopos / Wagon-Post · — —

L Limonada / Limosina · — · · X Xochimilco / Xolifico — · · —

M Mozo / Mono / Moto — — Y Yonitoco / Yotesoplo / Yosimojo / Yoduroso — · — —

Z Zocoyula — — · ·

NOTA: Aunque lo más acertado es utilizar el alfabeto código internacional.-

Regla mnemotécnica gráficaOtra regla para mejorar el aprendizaje del código morse, recurre a la fuerte presencia que tienen las imágenes de lasletras. A fin de ser el recurso que ayuda a la memoria. En las siguientes letras, se han marcado con color los puntos ylíneas que corresponden a su respectivo código en morse.

Page 77: códigos - libro wikipedia

Código morse 74

Referencias

Enlaces externos• Wikimedia Commons alberga contenido multimedia sobre Código morseCommons.• Traductor código morse (http:/ / elezeta. net/ morse/ )• Just Learn Morse Code (http:/ / justlearnmorsecode. com) - A freeware Koch / Farnsworth Morse code trainer for

Windows.• Algoritmo conversor de Texto a Código Morse en C++ (http:/ / www. raymondjavaxx. com/ articulos/

texto-a-codigo-morse. html)• aprender morse en línea (en inglés) (http:/ / lcwo. net/ )

Algoritmo de HuffmanEl algoritmo de Huffman es un algoritmo para la construcción de códigos de Huffman, desarrollado por David A.Huffman en 1952 y descrito en A Method for the Construction of Minimum-Redundancy Codes.[1]

Este algoritmo toma un alfabeto de n símbolos, junto con sus frecuencias de aparición asociadas, y produce uncódigo de Huffman para ese alfabeto y esas frecuencias.

DescripciónEl algoritmo consiste en la creación de un árbol binario que tiene cada uno de los símbolos por hoja, y construido detal forma que siguiéndolo desde la raíz a cada una de sus hojas se obtiene el código Huffman asociado.1.1. Se crean varios árboles, uno por cada uno de los símbolos del alfabeto, consistiendo cada uno de los árboles en un

nodo sin hijos, y etiquetado cada uno con su símbolo asociado y su frecuencia de aparición.2.2. Se toman los dos árboles de menor frecuencia, y se unen creando un nuevo árbol. La etiqueta de la raíz será la

suma de las frecuencias de las raíces de los dos árboles que se unen, y cada uno de estos árboles será un hijo delnuevo árbol. También se etiquetan las dos ramas del nuevo árbol: con un 0 la de la izquierda, y con un 1 la de laderecha.

3.3. Se repite el paso 2 hasta que sólo quede un árbol.Con este árbol se puede conocer el código asociado a un símbolo, así como obtener el símbolo asociado a undeterminado código.Para obtener el código asociado a un símbolo se debe proceder del siguiente modo:1.1. Comenzar con un código vacío2.2. Iniciar el recorrido del árbol en la hoja asociada al símbolo3.3. Comenzar un recorrido del árbol hacia arriba4.4. Cada vez que se suba un nivel, añadir al código la etiqueta de la rama que se ha recorrido5.5. Tras llegar a la raíz, invertir el código6.6. El resultado es el código Huffman deseadoPara obtener un símbolo a partir de un código se debe hacer así:1.1. Comenzar el recorrido del árbol en la raíz de éste2.2. Extraer el primer símbolo del código a descodificar3.3. Descender por la rama etiquetada con ese símbolo4.4. Volver al paso 2 hasta que se llegue a una hoja, que será el símbolo asociado al códigoEn la práctica, casi siempre se utiliza el árbol para obtener todos los códigos de una sola vez; luego se guardan entablas y se descarta el árbol.

Page 78: códigos - libro wikipedia

Algoritmo de Huffman 75

Ejemplo de usoLa tabla describe el alfabeto a codificar, junto con las frecuencias de sus símbolos. En el gráfico se muestra el árbolconstruido a partir de este alfabeto siguiendo el algoritmo descrito.

Árbol para construir el código Huffman del ejemplo.

Símbolo Frecuencia

A 0,15

B 0,30

C 0,20

D 0,05

E 0,15

F 0,05

G 0,10

Se puede ver con facilidad cuál es el código del símbolo E: subiendo por el árbol se recorren ramas etiquetadas con1, 1 y 0; por lo tanto, el código es 011. Para obtener el código de D se recorren las ramas 0, 1, 1 y 1, por lo que elcódigo es 1110.La operación inversa también es fácil de realizar: dado el código 10 se recorren desde la raíz las ramas 1 y 0,obteniéndose el símbolo C. Para descodificar 010 se recorren las ramas 0, 1 y 0, obteniéndose el símbolo A.

Page 79: códigos - libro wikipedia

Algoritmo de Huffman 76

LimitacionesPara poder utilizar el algoritmo de Huffman es necesario conocer de antemano las frecuencias de aparición de cadasímbolo, y su eficiencia depende de lo próximas a las frecuencias reales que sean las estimadas. Algunasimplementaciones del algoritmo de Huffman son adaptativas, actualizando las frecuencias de cada símbolo conformerecorre el texto.La eficiencia de la codificación de Huffman también depende del balance que exista entre los hijos de cada nodo delárbol, siendo más eficiente conforme menor sea la diferencia de frecuencias entre los dos hijos de cada nodo.Ejemplos:

• La codificación binaria es un caso particular de la codificación de Huffman que ocurre cuando todos los símbolosdel alfabeto tienen la misma frecuencia. Se tiene pues que la codificación binaria es la más eficiente paracualquier número de símbolos equiprobables.

•• El algoritmo de Huffman aplicado sobre un alfabeto de dos símbolos asignará siempre un 1 al primero y un 0 alsegundo, independientemente de la frecuencia de aparición de dichos símbolos. En este caso nunca se realizacompresión de los datos, mientras que otros algoritmos sí podrían conseguirlo.

Una manera de resolver este problema consiste en agrupar los símbolos en palabras antes de ejecutar el algoritmo.Por ejemplo, si se tiene la cadena de longitud 64

AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAB

El algoritmo de Huffman aplicado únicamente a los símbolos devuelve el código:

1111111111111111111111111111111111111111111111111111111111111110

También de longitud 64. Sin embargo, si antes de utilizar el algoritmo, se agrupan los símbolos en las palabras"AA", "AB" y "B" (que se codifican como 1, 01 y 00), el algoritmo devuelve la siguiente cadena:

111111111111111111111111111111101

que tiene longitud 32, la mitad que si no se hubiera agrupado. Si observa el árbol de Huffman, se puede comprobarque la diferencia de frecuencias entre las ramas del árbol es menor que en el caso anterior.

Variaciones del algoritmo

Códigos Huffman n-ariosEs posible crear códigos de Huffman ternarios, cuaternarios, y, en general, n-arios. Para ello sólo es necesariorealizar dos modificaciones al algoritmo:1.1. Los árboles a crear tendrán tantos hijos como símbolos posibles puedan aparecer en los códigos Huffman. Por

ejemplo, si es ternario se crearán árboles con tres hijos; si es cuaternario, con cuatro.2. Si se expresa como s el número de símbolos en el alfabeto a codificar, y n el número de símbolos que aparecen en

el código Huffman, entonces s-1 debe ser múltiplo de n-1. Es decir, para un código ternario, s debe valer 3, 5, 7,etc. Si esta condición no se cumple, entonces se deben añadir símbolos "nulos" con frecuencia 0, que servirán sólocomo relleno a la hora de construir el árbol.

Page 80: códigos - libro wikipedia

Algoritmo de Huffman 77

Referencias[1] A Method for the Construction of Minimum-Redundancy Codes (http:/ / compression. graphicon. ru/ download/ articles/ huff/

huffman_1952_minimum-redundancy-codes. pdf)

Deflación (algoritmo)El algoritmo deflación, en inglés denominado DEFLATE, es un algoritmo de compresión de datos sin pérdidas queusa una combinación del algoritmo LZ77 y la codificación Huffman. Fue originalmente definido por Phil Katz parala versión 2 de su herramienta de archivado PKZIP, y fue más tarde especificado como RFC 1951.El algoritmo deflación está libre de todo tipo de patentes subsistentes, y esto, antes de que expirara la patente deLZW (el cual es usado en el formato de archivo GIF), ha llevado a su popularización y su uso en archivoscomprimidos bajo gzip y archivos de imagen PNG, además del formato de compresión ZIP para el cual fue diseñadooriginalmente por Katz.Se puede encontrar código fuente para la compresión y descompresión usando este algoritmo en zlib, la biblioteca decompresión de propósito general, disponible como código abierto.AdvanceCOMP usa una implementación del algoritmo deflación que permite recompresión de archivos Gzip, PNG,MNG y ZIP para obtener tamaños de archivo menores que con zlib.

Enlaces externos•• RFC 1951, especificación del formato de compresión versión 1.3. (inglés)• Página oficial de zlib [1] (inglés)

Referencias[1] http:/ / zlib. net/

Page 81: códigos - libro wikipedia

Entropía condicional 78

Entropía condicionalLa entropía condicional es una extensión del concepto de entropía de la información a procesos donde intervienenvarias variables aleatorias no necesariamente independientes.

DefiniciónSupóngase que es una variable aleatoria sobre un espacio de probabilidad y sea un evento. Si tomavalores sobre un conjunto finito , se define de manera natural la entropía condicional de dado como:

De la misma manera si es otra variable aleatoria que toma valores se define la entropía condicional como:

Puede interpretarse la anterior magnitud como la incertidumbre de dado un valor particular de , promediadopor todos los valores posibles de .

Propiedades• Trivialmente se tiene que • si e son variables independientes.• Dadas dos variables que toman un conjunto finito de valores: • Como consecuencia de lo anterior y de que , se tiene: .

Referencia

Bibliografía• Dominic Welsh (1988): Codes and Cryptography, Clarendon Press, Oxford, ISBN 0-19-853287-3

Page 82: códigos - libro wikipedia

Teorema de Bayes 79

Teorema de BayesEn la teoría de la probabilidad el teorema de Bayes es un resultado enunciado por Thomas Bayes en 1763[1] queexpresa la probabilidad condicional de un evento aleatorio A dado B en términos de la distribución de probabilidadcondicional del evento B dado A y la distribución de probabilidad marginal de sólo A.En términos más generales y menos matemáticos, el teorema de Bayes es de enorme relevancia puesto que vincula laprobabilidad de A dado B con la probabilidad de B dado A. Es decir que sabiendo la probabilidad de tener un dolorde cabeza dado que se tiene gripe, se podría saber -si se tiene algún dato más-, la probabilidad de tener gripe si setiene un dolor de cabeza, muestra este sencillo ejemplo la alta relevancia del teorema en cuestión para la ciencia entodas sus ramas, puesto que tiene vinculación íntima con la comprensión de la probabilidad de aspectos causalesdados los efectos observados.

Sea un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que la probabilidad de cada uno deellos es distinta de cero (0). Sea B un suceso cualquiera del que se conocen las probabilidades condicionales . Entonces, laprobabilidad viene dada por la expresión:

donde:

• son las probabilidades a priori.• es la probabilidad de en la hipótesis .• son las probabilidades a posteriori.

Thomas Bayes (1763)

Fórmula de BayesAdemás, unido a la definición de Probabilidad condicionada, obtenemos la Fórmula de Bayes, también conocidacomo la Regla de Bayes:

AplicacionesEl teorema de Bayes es válido en todas las aplicaciones de la teoría de la probabilidad. Sin embargo, hay unacontroversia sobre el tipo de probabilidades que emplea. En esencia, los seguidores de la estadística tradicional sóloadmiten probabilidades basadas en experimentos repetibles y que tengan una confirmación empírica mientras que losllamados estadísticos bayesianos permiten probabilidades subjetivas. El teorema puede servir entonces para indicarcómo debemos modificar nuestras probabilidades subjetivas cuando recibimos información adicional de unexperimento. La estadística bayesiana está demostrando su utilidad en ciertas estimaciones basadas en elconocimiento subjetivo a priori y el hecho de permitir revisar esas estimaciones en función de la evidencia empíricaes lo que está abriendo nuevas formas de hacer conocimiento. Una aplicación de esto son los clasificadoresbayesianos que son frecuentemente usados en implementaciones de filtros de correo basura o spam, que se adaptancon el uso.

Como observación, se tiene y su demostración resulta trivial.

Page 83: códigos - libro wikipedia

Teorema de Bayes 80

Enlaces externos• Calculadora en internet [2]

• Inferencia estadística según el modelo bayesiano [3], en la web de la Sociedad Andaluza de EnfermedadesInfecciosas [4]

• Enciclopedia Stanford de filosofía [5]

• Simulacion del Teorema de Bayes con R-Project [6]

Referencias[1] * Bayes, Thomas (1763). «An Essay towards solving a Problem in the Doctrine of Chances.». Philosophical Transactions of the Royal Society

of London 53:  pp. 370–418. doi: 10.1098/rstl.1763.0053 (http:/ / dx. doi. org/ 10. 1098/ rstl. 1763. 0053).[2] http:/ / www. ugr. es/ ~jsalinas/ bayes. htm[3] http:/ / saei. org/ hemero/ epidemiol/ nota3. html[4] http:/ / saei. org[5] http:/ / plato. stanford. edu/ entries/ bayes-theorem/[6] http:/ / cajael. com/ mestadisticos/ T2Probabilidad/ node10. php

Cifrado (criptografía)

Ejemplo de cifrado utilizando el cifrado Vernam.

En criptografía un cifrado , es un procedimiento queutilizando un algoritmo (algoritmo de cifrado) concierta clave (clave de cifrado) transforma un mensaje,sin atender a su estructura lingüística o significado, detal forma que sea incomprensible o, al menos, difícil decomprender, a toda persona que no tenga la clavesecreta (clave de descifrado) del algoritmo que se usa para poder descifrarlo (algoritmo de descifrado). Por tantotenemos dos algoritmos (el de cifrado y el de descifrado) y dos claves (clave de cifrado y clave de descifrado). Estasdos claves pueden ser iguales (criptografía simétrica) o no (criptografía asimétrica).

El juego de caracteres (alfabeto) usado en el mensaje sin cifrar puede no ser el mismo que el juego de caracteres quese usa en el mensaje cifrado.A veces el texto cifrado se escribe en bloques de igual longitud. A estos bloques se les denomina "grupos". Estosgrupos proporcionaban una forma de chequeo adicional ya que el texto cifrado obtenido tenía que tener un númeroentero de grupos. Si al cifrar el texto plano no se tiene ese número entero de grupos entonces se suele rellenar al finalcon ceros o con caracteres sin sentido.Aunque el cifrado pueda hacer secreto el contenido de un documento, es necesario complementarlo con otrastécnicas criptográficas para poder comunicarse de manera segura. Puede ser necesario garantizar la integridad laautenticación de las partes, etc.

Page 84: códigos - libro wikipedia

Cifrado (criptografía) 81

TerminologíaEn el proceso de cifrado/descifrado se establecen una serie de términos y convenios para facilitar referirse a losdistintos elementos que intervienen:• Texto en claro o texto plano (en inglés plain text): El mensaje que se cifra.•• Criptograma o texto cifrado: El mensaje resultante una vez que se ha producido el cifrado, es decir, el mensaje

cifrado.• Cifrado: Es el proceso de convertir el texto plano en un galimatías ilegible (cifrar), el mensaje cifrado.•• Cifrador: Sistema que implementa el algoritmo de cifrado•• Algoritmo de cifrado o cifra: Es el algoritmo que se utiliza para cifrar.•• Clave de cifrado: La clave que se utiliza en el algoritmo de cifrado.• Descifrado: Es el proceso de convertir el texto cifrado en el texto en claro.•• Descifrador: Sistema que implementa el algoritmo de cifrado•• Algoritmo de descifrado o descifra: Es el algoritmo que se utiliza para descifrar.•• Clave de descifrado: La clave que se utiliza en el algoritmo de descifrado.•• Gestión de claves: Es el proceso de generación, certificación, distribución y cancelación de todas estas claves que

son necesarios para realizar el cifrado.• Criptosistema: Es el conjunto estructurado de los protocolos, algoritmos de cifrado/descifrado, procesos de

'gestión de claves y actuaciones de los usuarios•• Descripción de entidades: Cuando se quiere describir un algoritmo de cifrado/descifrado que involucra el envío de

mensajes secretos, muchos autores usan los nombres genéricos Alice y Bob en lugar de los crípticos A y B. Siintervienen otras entidades (C, D, F... -la E quedaría reservada-) se les asigna nombres que empiecen por estasiniciales, siendo habituales Carol y Dave. Cuando un escenario involucra protección frente a atacantes que hacenescuchas, entonces para referirse a ellos se suele usar el nombre Eve (del término inglés eavesdropper cuyosignificado es fisgón) o bien el nombre de Mallory en caso de que el atacante además de interceptar lacomunicación tenga la habilidad de alterarla.

Con frecuencia a los procesos de cifrado y descifrado se les denomina en la literatura como encriptado ydesencriptado, aunque ambos son neologismos erróneos —anglicismos de los términos ingleses encrypt y decrypt—todavía sin reconocimiento académico. Pese a la gran difusión de esta terminología, la mayoría de los expertoshispanohablantes prefieren evitar ambos neologismos llegando incluso al punto de que el uso de los mismos puedesuponer una leve distinción entre profanos y novatos en la materia y aquellos que han adquirido más experiencia yprofundidad en la misma.

Preprocesado del texto planoEn algunas ocasiones antes de cifrar se realiza un preproceso de adaptación del texto plano. En este proceso sepueden realizar una serie de pasos que permitan el cifrado y/o hagan el cifrado resultante más resistente frente aataques por criptoanálisis. Todos estos cambios se tendrán que tener en cuenta cuando se realice el descifrado parapoder obtener el texto plano original. Por ejemplo son frecuentes las siguientes operaciones:•• Algunos cifradores usan un alfabeto del texto en claro que no se corresponde con el del mensaje que se quiere

cifrar. Por tanto es necesario adaptar el mensaje a ese alfabeto. Por ejemplo algunos cifradores usan comoalfabeto del texto plano el alfabeto latino. Por tanto si queremos cifrar un texto en español es necesario realizar unproceso como resultado del cual no aparezcan los caracteres H, J, Ñ, K, U, W y Y (por ejemplo podríamossustituir la U y W por la V, la K con la Q, la Ñ por la N, la Y por la I, la J por la G, y con la H simplementeeliminarla). Otro ejemplo clásico sería cifradores que no permiten cifrar minúsculas. En este caso habrá que pasartodo a mayúsculas.

Page 85: códigos - libro wikipedia

Cifrado (criptografía) 82

•• Para aumentar la calidad del texto cifrado con cierto cifrador, ya sea por su resistencia frente a ataques, extensióno cualquier otra circunstancia, a veces se preprocesa el texto en claro. Algunos ejemplos son:• Inclusión de fragmentos que son para despistar y que no tienen significado alguno. Normalmente estos

fragmentos son caracteres y se les llama 'caracteres nulos• Eliminación situaciones del texto claro que pueden ser aprovechadas por ataques de criptoanálisis. Por

ejemplo:• Los espacios en blanco y signos de puntuación se suelen quitar para (además de hacer una trasmisión más

eficiente) conseguir que las palabras no se puedan distinguir por los contornos. Esto puede producirambigüedades que se tenían que resolver por el contexto.

• Las ocurrencias de letras idénticas seguidas, por ejemplo las RR o LL del español, en ciertos tipos decifradores pueden ser aprovechadas por atacantes. Para romper estas secuencias de caracteres iguales sesuelen adoptar dos estrategias: Eliminar uno de los caracteres o meter un contenido que no se tiene queinterpretar (si es un carácter se le llama carácter nulo).

• A veces, antes de cifrar, se utiliza un código que dificulta llegar al significado de ciertas palabras o frasesespecialmente importantes o habituales.

Por ejemplo cuando se usa el cifrado de Alberti es habitual realizar una etapa de preprocesado en la que se realizanalgunas de estas técnicas. De hecho el algoritmo está diseñado de tal forma que para aprovechar su potencia esnecesario el esta etapa de preprocesado.

Tipos de cifrado atendiendo a sus clavesUn sistema de cifrado se denomina:• simétrico cuando utiliza la misma clave para cifrar y descifrar.• asimétrico al usar claves diferentes: una pareja compuesta por una clave pública , que sirve para cifrar, y por una

clave privada , que sirve para descifrar. El punto fundamental sobre el que se sostiene esta descomposiciónpública/privada es la imposibilidad práctica de deducir la clave privada a partir de la clave pública. Se sueledenominar a este tipo de cifrado usando las siglas PKE (del inglés Public-Key Encryption).

Los métodos más conocidos son el DES, el Triple DES y el AES para la criptografía simétrica, y el RSA para lacriptografía asimétrica, llamada también criptografía de clave pública.La utilización de un sistema simétrico o asimétrico depende de las tareas a cumplir. La criptografía asimétricapresenta dos ventajas principales: suprime el problema de transmisión segura de la clave, y permite la firmaelectrónica. No reemplaza sin embargo los sistemas simétricos ya que los tiempos de cálculo son claramente máscortos por los sistemas simétricos que los asimétricos.

Tipos de cifrado atendiendo a sus algoritmosSegún la forma en la que operan los algoritmos de cifrado o descifrado podemos distinguir varios tipos principales:• [1]Cifrado en flujo: En estos algoritmos el cifrado se realiza bit a bit. Están basados en la utilización de claves

muy largas que son utilizadas tanto para cifrar como para descifrar. Estas claves pueden esta predeterminadas(Libreta de un solo uso) o ser generadas usando un generador de claves pseudoaleatorias o RKG (acrónimo delinglés Random Key Generator) que genera una secuencia binaria pseudoaleatoria a partir de una clave deinicialización K. A veces en el cálculo de la clave pseudoaleatoria también interviene el mensaje cifrado hasta esemomento. A parte tenemos el cifrador propiamente dicho. Normalmente en este tipo de algoritmos hay quemantener en secreto tanto la clave como el cifrador

• Cifrado por bloques: En este tipo de algoritmos el cifrado se realiza bloque a bloque. En primera instacia se descompone el mensaje en bloques de la misma longitud. A continuación cada bloque se va convirtiendo en un bloque del mensaje cifrado mediante una secuencia de operaciones . Ejemplos típicos de operaciones realizadas

Page 86: códigos - libro wikipedia

Cifrado (criptografía) 83

para conseguir cada mensaje cifrado son la sustitución y la permutación de elementos.Este tipo de algoritmos pueden ser tanto de clave simétrica como de clave asimétrica. Sin embargo en labibliografía suele haber confusión y es frecuente ver casos en que se refieren sólo a algoritmos de clavesimétrica.

En la criptografía clásica los cifrados estaban basados en la sustitución (Cifrado por sustitución), en la permutación(Cifrado por transposición) o en una combinación de ambas técnicas. Normalmente las operaciones se aplicaban abloques aunque otras veces se aplicaban al texto plano completo. Había cifrados por transposición que cambiaba laposición de caracteres a lo largo de toda la cadena a cifrar. Por ejemplo un cifrado podía consistir en permutar eninvertir el orden de los caracteres, dejando el primer carácter en la última posición, el último en la primera posición,el segundo en penúltimo lugar etc.

Tipos de cifrado atendiendo a sus propiedadesMuchas veces se agrupan los algoritmos de cifrado en función de las propiedades o características que tienen.Veamos algunos ejemplos:•• Cifrado seguro hacia adelante•• Cifrado con umbral•• Cifrado basado en identidad•• Cifrado negable•• Cifrado con clave aislada•• Cifrado maleable

Referencias[1][1] José Pastor Franco, Miguel Ángel Sarasa López, José Luis Salazar Riaño,"Criptografía digital: fundamentos y aplicaciones",Ed. Prenseas

Universitarias de Zaragoza, 1998

Enlaces externos• The world's first electrónico Enigma machine (http:/ / xoomer. alice. it/ www_enigma) ( YouTube video (http:/ /

www. youtube. com/ watch?v=5EUYbI1q1y4))

Page 87: códigos - libro wikipedia

Criptoanálisis 84

CriptoanálisisEl Criptoanálisis (del griego kryptós, "escondido" y analýein, "desatar") es la parte de la criptología que se dedica ael estudio de sistemas criptográficos con el fin de encontrar debilidades en los sistemas y romper su seguridad sin elconocimiento de información secreta. En el lenguaje no técnico, se conoce esta práctica como romper o forzar elcódigo, aunque esta expresión tiene un significado específico dentro del argot técnico. A las personas que se dedicanal criptoanálisis se llaman criptoanalistas.Los métodos y técnicas del criptoanálisis han cambiado drásticamente a través de la historia de la criptografía,adaptándose a una creciente complejidad criptográfica. Los sistemas criptográficos han evolucionado desde losmétodos de lápiz y papel del pasado, pasando por máquinas como Enigma -utilizada por los nazis durante la SegundaGuerra Mundial-, hasta llegar a los sistemas basados en computadoras del presente. Al aumentar la potencia decálculo de los sistemas criptográficos, también los esquemas criptográficos han ido haciéndose más complejos. Amediados de los años 70 se inventó una nueva clase de criptografía: la criptografía asimétrica. Los métodosutilizados para romper estos sistemas son por lo general radicalmente diferentes de los anteriores, y usualmenteimplican resolver un problema cuidadosamente construido en el dominio de la matemática pura. El ejemplo másconocido es la factorización de enteros.Los resultados del criptoanálisis han cambiado también: ya no es posible tener un éxito ilimitado al romper uncódigo, y existe una clasificación jerárquica de lo que constituye un ataque en la práctica.

ObjetivoEl objetivo del criptoanálisis es encontrar debilidades en los sistemas criptográficos que permitan elaborar ataques(ataques criptoanalíticos) que rompan su seguridad sin el conocimiento de información secreta. Para ello estudia enprofundidad el diseño y propiedades de los sistemas criptográficos.Por ejemplo para un sistema criptográfico de cifrado un estudio criptoanalítico puede consistir por ejemplo enconseguir la clave secreta o simplemente en acceder al texto en claro sin ni siquiera tener dicha clave. Sin embargo elcriptoanálisis no sólo se ocupa de los cifrados sino que su ámbito es más general estudiando los sistemascriptográficos con el objetivo de sortear la seguridad de otros tipos de algoritmos y protocolos criptográficos.Sin embargo, el criptoanálisis suele excluir ataques que no tengan como objetivo primario los puntos débiles de lacriptografía utilizada; por ejemplo, ataques a la seguridad que se basen en el soborno, la coerción física, el robo, elkeylogging y demás, aunque estos tipos de ataques son un riesgo creciente para la seguridad informática, y se estánhaciendo gradualmente más efectivos que el criptoanálisis tradicional.

Ámbitos de estudioPara la consecución de su objetivo, de elaboración de ataques criptoanalíticos que 'rompan' la seguridad de lossistemas criptográficos, los criptoanalistas estudian los sistemas criptográficos con el objetivo de descubrirdebilidades que se puedan aprovechar. Para ello estudian los sistemas desde distintos enfoques.

Teoría de la informaciónLa teoría de la información proporciona herramientas para evaluar la seguridad de los sistemas criptográficos. Porejemplo, en los sistemas de cifrado se estudia la entropía de la clave, de los criptogramas y de los mensajes en claro.Como el mensaje en claro suele estar expresado en idiomas humanos, también es interesante el estudio de su entropíay en especial su ratio de entropía.Los criptoanalistas también estudian el secreto de los sistemas criptográficos. Por ejemplo, en los sistemas de cifrado estudian el grado de secreto caracterizando aquellos sistemas que tienen secreto perfecto a nivel teórico. De su

Page 88: códigos - libro wikipedia

Criptoanálisis 85

estudio se concluye que el secreto perfecto requiere que el número de claves sea al menos tan grande como elnúmero de mensajes. Esto es impracticable excepto para los llamados cifradores de libreta de un solo uso. En lapráctica la mayor parte de los sistemas tienen claves finitas. Para caracterizar la seguridad de estos sistemas loscriptoanalistas han desarrollado el concepto de distancia de unicidad que es el valor mínimo de caracteres cifradosque hacen que sólo haya una clave posible que haya sido utilizada para obtener este criptograma. Para ello seaprovecha el concepto de la entropía condicional del conocimiento de la clave una vez conocido el texto cifrado.Para un sistema de cifrado hay dos entropías condicionales interesantes[1] desde el punto de vista del criptoanalista:Para un sistema de cifrado hay una serie de entropías condicionales interesantes[2][3]:Supongamos• Un mensaje M1 es sometido a un proceso de cifrado usando la clave K1 obteniendo E(K1,M1)=C1.• representan la probabilidad condicional de la clave K dado el criptograma recibido C. A veces también

se denota por • representan la probabilidad condicional del mensaje M dado el criptograma recibido C. A veces

también se denota por Entonces:• Podemos medir la incertidumbre (la entropía) del conocimiento de la clave una vez conocido el texto cifrado, y

por tanto medir la equivocación del mensaje (en inglés message equivocation), , también denotada por, mediante la fórmula:

La primera igualdad es por la definición de la entropía condicional y la segunda por aplicación del teorema deBayes.

Observar que si significa que se podrá romper el cifrado pues ya no hay incertidumbre. Estaanulación nos introduce en el concepto de distancia de unicidad.

• Podemos medir la incertidumbre (la entropía) del conocimiento del mensaje una vez conocido el texto cifrado, ypor tanto medir la equivocación de la clave (en inglés key equivocation), , también denotada por

, mediante la fórmula:

La primera igualdad es por la definición de la entropía condicional y la segunda por aplicación del teorema deBayes.

• Podemos medir la incertidumbre (la entropía) del conocimiento de la clave una vez conocido el texto cifrado y elmensaje en claro, y por tanto medir la equivocación del aspecto de la clave (en inglés key appearanceequivocation), , también denotada por , mediante la fórmula:

• Podemos medir la incertidumbre (la entropía) del conocimiento del mensaje una vez conocido el texto cifrado y laclave, denotado por o por . Dada una clave la relación entre texto cifrado y texto enclaro es uno-a-uno y por tanto

Se ha demostrado[4] que se cumple la siguiente relación entre las distintas entropías:

De esta relación podemos sacar una conclusión[5]:

El objetivo de cualquiera que use un cifrador es tener un valor de alto para que el sistema tenga la máxima fortaleza posible para el caso de que el atacante disponga tanto del texto cifrado como del texto plano

Page 89: códigos - libro wikipedia

Criptoanálisis 86

(ataque con texto plano conocido). Sin embargo, por la expresión de la ecuación, para ello es necesario que sea pequeño. Sin embargo, tener un valor pequeño de implica que haya poca incertidumbre respecto al textoplano una vez conocido el texto cifrado (ataque con sólo texto cifrado disponible), lo cual contrario a losintereses de cualquiera que cifre un mensaje. Por tanto es necesario una solución de compromiso para que elsistema tenga una fortaleza aceptable para ambos tipos de ataque

Base matemática y potencia de cálculoPor ejemplo, la criptografía asimétrica emplea en problemas matemáticos "duros" como base para su seguridad, asíque un punto obvio de ataque es desarrollar métodos para resolver el problema. Los algoritmos asimétricos sediseñan en torno a la conjeturada dificultad de resolver ciertos problemas matemáticos. Si se encuentra un algoritmomejorado que puede resolver el problema, el criptosistema se ve debilitado. Ejemplos:• La seguridad del protocolo Diffie-Hellman depende de la dificultad de calcular un logaritmo discreto. En 1983,

Don Coppersmith encontró una manera más rápida de calcular logaritmos discretos (dentro de ciertos grupos), ypor tanto obligó a los criptógrafos a utilizar grupos más grandes, o diferentes tipos de grupos.

• La seguridad del protocolo RSA depende parcialmente de la dificultad en la factorización de enteros. Por tanto unavance en la factorización tendría un impacto claro en la seguridad de RSA. En 1980, se podía factorizar unnúmero de 50 dígitos con un coste de 1012 operaciones elementales de computación. Para 1984 la tecnología enalgoritmos de factorización había avanzado hasta el punto de que se podía factorizar un número de 75 dígitos conlas mismas 1012 operaciones. Los avances en la tecnología de computación también han provocado que estasoperaciones se puedan realizar en un tiempo mucho menor. La Ley de Moore predice empíricamente que lasvelocidades de computación continuarán aumentando. Las técnicas de factorización podrían mostrar un desarrolloparecido, pero con gran probabilidad dependerán de la capacidad y la creatividad de los matemáticos, ninguna delas cuales ha sido nunca satisfactoriamente predecible. Números de 150 cifras, como los utilizados en RSA, hansido factorizados. El esfuerzo fue mayor que el mencionado anteriormente, pero no estaba fuera de los límitesrazonables para un ordenador moderno. Al comienzo del siglo XXI, los números de 150 cifras ya no seconsideran suficientemente grandes como clave para RSA. Números de varios cientos de dígitos se seguíanconsiderando demasiado difíciles de factorizar en 2005, aunque los métodos probablemente continuaránmejorando con el tiempo, obligando a los tamaños de clave a mantener el ritmo de crecimiento o a desarrollarnuevos algoritmos.

Otra caraterística distintiva de los algoritmos asimétricos es que, a diferencia de los ataques sobre criptosistemassimétricos, cualquier criptoanálisis tiene la oportunidad de usar el conocimiento obtenido de la clave pública.

Ataques criptoanalíticosLos ataques criptoanalíticos consisten en la aplicación de estudios criptoanalíticos para explotar las debilidades desistemas criptográficos y así 'romper' su seguridad.Los ataques criptoanalíticos varían en potencia y en su capacidad de amenaza para los sistemas criptográficos. Sedice que un ataque explota una "debilidad certificacional" si es un ataque teórico que resulta improbable de aplicaren ninguna situación realista; Muchos de los resultados demostrados en la investigación criptoanalítica moderna sonde este tipo.Cada ataque tiene sus propiedades, las cuales lo caracterizan, y que hacen que ese ataque sea más o menos realizable.No todos los ataques criptoanalíticos tienen como objetivo la ruptura total del sistema. El objetivo de un ataquecriptoanalítico es obtener información desconocida sobre el sistema criptográfico de forma que se vaya debilitandosu seguridad

Page 90: códigos - libro wikipedia

Criptoanálisis 87

ClasificaciónLos ataques criptoanalíticos se puede clasificar en función de sus características.

Clasificación según la actitud del atacante

Los ataques se pueden clasificar según la forma de actuar del atacante

Ataques pasivos

En los ataques pasivos el atacante no altera la comunicación, sólo la escucha o monitoriza, para obtener información.Por tanto este tipo de ataques suelen usar técnicas de escucha de paquetes(sniffing) y de análisis de tráfico . Sondifíciles de detectar ya que no implican alteración de los datos. En algunos casos este tipo de ataques se puedendificultar cifrando la información posible objetivo de escuchas.

Ataques activos

Suponen alguna modificación del flujo de datos o la creación de flujos falsos. Hay muchas técnicas que se usan eneste tipo de ataques. Ejemplos:1.1. Suplantación2.2. Modificación de mensajes:Capturar paquetes para luego ser borrados (dropping attacks), manipulados,

modificados (tagging attack) o reordenados3.3. Reactuación:Captura de paquetes y retransmisiones4.4. Degradación: Técnicas para que el servicio se degrade

Clasificación según el conocimiento previo

El criptoanálisis puede realizarse bajo una serie de supuestos sobre cuánto puede observarse o descubrirse sobre elsistema en cuestión antes de realizar el ataque. Como un punto de comienzo básico se supone que, para lospropósitos del análisis, el algoritmo general es conocido; ésta es la Máxima de Shannon, "el enemigo conoce elsistema". Éste es un supuesto razonable en la práctica - a lo largo de la Historia, hay incontables ejemplos dealgoritmos secretos que fueron conocidos mediante el espionaje, la traición y la ingeniería inversa. (En algunasocasiones, algunos códigos han sido reconstruidos mediante la pura deducción, por ejemplo, el código Lorenz y elcódigo PURPLE, así como una cierta cantidad de códigos clásicos.)Otros supuestos se pueden categorizar como sigue:• Ataque con sólo texto cifrado disponible: el criptoanalista sólo tiene acceso a una colección de textos cifrados o

codificados.• Ataque con texto plano conocido: el atacante tiene un conjunto de textos cifrados de los que conoce el

correspondiente texto plano o descifrado.• Ataque con texto plano escogido (ataque con texto cifrado elegido): el atacante puede obtener los textos

cifrados (planos) correspondientes a un conjunto arbitrario de textos planos (cifrados) de su propia elección.• Ataque adaptativo de texto plano escogido: como un ataque de texto plano escogido, pero el atacante puede

elegir textos planos subsiguientes basándose en la información obtenida de los descifrados anteriormente.Similarmente, existe el ataque adaptativo de texto cifrado escogido.

• Ataque de clave relacionada: como un ataque de texto plano escogido, pero el atacante puede obtener textocifrado utilizando dos claves diferentes. Las claves son desconocidas, pero la relación entre ambas es conocida;por ejemplo, dos claves que difieren en un bit.

Estos tipos de ataque difieren evidentemente en la plausibilidad de que ocurran en la práctica. Aunque algunos sonmás probables que otros, los criptógrafos suelen adoptar un enfoque conservador y asumir el peor caso imaginablecuando diseñan algoritmos, razonando que si un sistema es seguro incluso contra amenazas tan poco realistas,entonces debería resistir también al criptoanálisis en el mundo real.

Page 91: códigos - libro wikipedia

Criptoanálisis 88

Los supuestos en los que se basan estos ataques son a menudo más realistas de lo que podría parecer a primera vista.Para obtener un ataque con texto plano conocido, el criptoanalista podría muy bien conocer o ser capaz de inferir unaparte que probablemente forma parte del texto plano, como por ejemplo el encabezamiento de una carta cifrada("Estimado Sr."), o que el inicio de una sesión de ordenador contenga las letras "LOGIN". Un ataque de texto planoescogido es menos probable, pero en algunos casos puede ser plausible: por ejemplo, si convences a alguien parareenviar un mensaje que tú mismo le has mandado antes, pero en forma cifrada. Los ataques de clave relacionada sonbásicamente teóricos, aunque pueden ser realistas en ciertas situaciones, como por ejemplo al construir funcioneshash criptográficas utilizando un cifrado por bloques.

Clasificación según el objetivo en criptoanálisis

Los resultados de un criptoanálisis también pueden variar en utilidad. Por ejemplo, el criptógrafo Lars Knudsen(Knudsen, 1998) clasificó varios tipos de ataque sobre cifrados por bloques de acuerdo con la cantidad y la calidadde la información secreta que pudiera ser descubierta:• Ruptura total - el atacante deduce la clave secreta.• Deducción global - el atacante descubre un algoritmo funcionalmente equivalente para el cifrado y descifrado de

mensajes, pero no obtiene la clave.• Deducción local (o de instancia) - el atacante descubre textos planos o cifrados adicionales a los conocidos

previamente.• Deducción de información - el atacante descubre alguna información en el sentido de Shannon que no era

conocida previamente.• Distinción del algoritmo - el atacante puede distinguir la información cifrada de una permutación al azar.Se pueden aplicar estas categorías a los ataques sobre otros tipos de algoritmos.

Clasificación según el coste

Los ataques se pueden categorizar por la cantidad de recursos que requieren. Éstos pueden tomar la forma de:• Tiempo - el número de "operaciones primitivas" que deben ser realizadas. Esta categoría es bastante vaga; las

operaciones primitivas podrían considerarse como instrucción básica de computación, como una suma, unaoperación XOR, un desplazamiento bit a bit, etc., o como métodos de cifrado enteros.

•• Memoria - la cantidad de almacenamiento necesario para realizar el ataque.•• Datos - la cantidad de textos planos y cifrados necesaria.En la criptografía académica, una debilidad o una ruptura en un algoritmo se definen de una manera bastanteconservadora. Bruce Schneier resume esta posición de la siguiente manera: "Romper un cifrado simplementesignifica encontrar una debilidad en el cifrado que puede ser explotada con una complejidad inferior a la de lafuerza bruta. No importa que la fuerza bruta pudiera requerir 2128 cifrados; un ataque que requiera 2110 cifrados seconsideraría una ruptura... puesto de una manera simple, una ruptura puede ser tan sólo una debilidadcertificacional: una evidencia de que el código no es tan bueno como se publicita" (Schneier, 2000).

Page 92: códigos - libro wikipedia

Criptoanálisis 89

EjemplosHay multitud de métodos de ataque criptoanalíticos. Éstos se pueden clasificar en a si están especializado en algúntipo de criptografía o si son más generales. Los principales son los siguientes:•• Especializados en cifrado clásico:

•• Análisis de frecuencias•• Método Kasiski•• Índice de coincidencia•• Índice mutuo de coincidencia

• Especializados en criptografía simétrica:•• Criptoanálisis diferencial•• Criptoanálisis lineal•• Criptoanálisis integral•• Criptoanálisis estadístico•• Criptoanálisis de módulo n• Ataque XSL (eXtended Sparse Linearisation)•• Ataque de deslizamiento

•• Generales (aplicados en distintos ámbitos):•• Ataque de cumpleaños•• Ataque Man-in-the-middle•• Ataque Meet-in-the-middle•• Ataque de fuerza bruta•• Jardinería (criptoanálisis)•• Análisis de energía

Ordenadores cuánticosLos ordenadores cuánticos son potencialmente útiles para el criptoanálisis. Debido a que los estados cuánticospueden existir en una superposición (es decir, estar entrelazados), es posible un nuevo paradigma computacional, enel que un bit no representa tan sólo los estados 0 y 1, sino cualquier combinación lineal de estos. Peter Shor de losLaboratorios Bell probó la posibilidad, y varios equipos han demostrado uno u otro aspecto de la computacióncuántica en los años transcurridos desde entonces. Por el momento, sólo se ha demostrado una muy limitada pruebade posibles diseños. No hay, a fecha de 2006, una perspectiva creíble de un ordenador cuántico real y utilizable.Sin embargo, de construirse un ordenador cuántico, muchas cosas cambiarían. La computación en paralelo seríaprobablemente la norma, y varios aspectos de la criptografía cambiarían.En particular, dado que un ordenador cuántico sería capaz de realizar búsquedas de claves mediante fuerza brutaextremadamente rápidas, tamaños de clave considerados hoy en día más allá de los recursos de cualquier atacantepor fuerza bruta quedarían al alcance de este ataque. Los tamaños de clave necesarios para quedar más allá de lacapacidad de un ordenador cuántico serían considerablemente más grandes que los actuales. Algunos escritores dedivulgación han declarado que ningún cifrado permanecería seguro de estar disponibles los ordenadores cuánticos.Otros aseguran que simplemente añadiendo bits a las longitudes de las claves se evitarán los ataques de fuerza bruta,incluso con ordenadores cuánticos.Una segunda posibilidad es que el aumento en capacidad computacional pueda hacer posibles otros ataques de búsqueda de claves, más allá de la simple fuerza bruta, contra uno o varios de los algoritmos actualmente inexpugnables. Por ejemplo, no todo el progreso en la factorización de números primos se ha debido a una mejora de los algoritmos. Una parte se debe al incremento del poder computacional de los ordenadores, y la existencia de un ordenador cuántico en funcionamiento podría acelerar considerablemente las tareas de factorización. Este aspecto es

Page 93: códigos - libro wikipedia

Criptoanálisis 90

bastante predecible, aunque no claramente. Lo que no puede ser anticipado es un avance en el campo teórico querequiera la computación cuántica, que pudiera hacer realizables ataques actualmente impracticables o inclusodesconocidos. En ausencia de un método para predecir estos avances, sólo nos queda esperar.Se desconoce si existe un método de cifrado en tiempo polinómico que requiera un tiempo exponencial para sudescifrado, incluso para un ordenador cuántico.

Historia del criptoanálisisEl criptoanálisis ha evolucionado conjuntamente con la criptografía, y la competición entre ambos puede serrastreada a lo largo de toda la historia de la criptografía. Las claves nuevas se diseñaban para reemplazar losesquemas ya rotos, y nuevas técnicas de criptoanálisis se desarrollaban para abrir las claves mejoradas. En lapráctica, se considera a ambas como las dos caras de la misma moneda: para crear un sistema criptográfico seguro,es necesario tener en cuenta los descubrimientos del criptoanálisis. De hecho, hoy en día se suele invitar a lacomunidad científica a que trate de romper las nuevas claves criptográficas, antes de considerar que un sistema es losuficientemente seguro para su uso.

Criptoanálisis clásico

Primera página de Un manuscrito para eldescifrado de mensajes criptográficos, de

Al-Kindi.

Aunque la expresión criptoanálisis es relativamente reciente (fueacuñada por William F. Friedman en 1920), los métodos para rompercódigos y cifrados son mucho más antiguos. La primera explicaciónconocida del criptoanálisis se debe al sabio árabe del siglo IX, YusufYaqub ibn Ishaq al-Sabbah Al-Kindi, en su Manuscrito para DescifrarMensajes Criptográficos. Este tratado incluye una descripción delmétodo de análisis de frecuencias (Ibraham, 1992).

El análisis de frecuencias es la herramienta básica para romper loscifrados clásicos. En todas las lenguas conocidas, ciertas letras delalfabeto aparecen más frecuentemente que otras; por ejemplo, enespañol, las vocales son muy frecuentes, ocupando alrededor del 45%del texto, siendo la E y la A las que aparecen en más ocasiones,mientras que la frecuencia sumada de F, Z, J, X, W y K no alcanza el2%. Igualmente, se pueden reunir estadísticas de aparición de pares otríos de letras. El análisis de frecuencias revelará el contenido originalsi el cifrado utilizado no es capaz de ocultar estas estadísticas. Por ejemplo, en un cifrado de substitución simple (enel que cada letra es simplemente substituida por otra), la letra más frecuente en el texto cifrado sería un candidatoprobable para representar la letra "E".

El análisis de frecuencias se basa tanto en el conocimiento lingüístico como en las estadísticas, pero al volverse cadavez más complicados los cifrados, las matemáticas se convirtieron gradualmente en el enfoque predominante en elcriptoanálisis. Este cambio fue particularmente evidente durante la Segunda Guerra Mundial, cuando los esfuerzospara romper los códigos del Eje requirieron nuevos niveles de sofisticación matemática. Más aún, la automatizaciónfue aplicada por primera vez en la Historia al criptoanálisis, bajo la forma de los dispositivos Bomba y Colossus, unade las primeras computadoras.

Page 94: códigos - libro wikipedia

Criptoanálisis 91

Criptoanálisis moderno

Réplica de un dispositivo Bombe.

Aunque la computación fue utilizada con gran éxito durante laSegunda Guerra Mundial, también hizo posible nuevos métodoscriptográficos que eran órdenes de magnitud más complejos que losempleados hasta la fecha. Tomada como un todo, la criptografíamoderna se ha vuelto mucho más impenetrable al criptoanalista que losmétodos de pluma y papel del pasado, y parece que en la actualidadllevan ventaja sobre los métodos del puro criptoanálisis. El historiadorDavid Kahn escribió: "Son muchos los criptosistemas en venta hoy porparte de cientos de compañías comerciales que no pueden ser rotospor ningún método conocido de criptoanálisis. De hecho, en ciertossistemas incluso un ataque de texto plano escogido, en el que un

fragmento de texto plano seleccionado es comparado con su versión cifrada, no permite conocer el código pararomper otros mensajes. En cierto sentido, entonces, el criptoanálisis está muerto. Pero éste no es el final de lahistoria. El criptoanálisis puede estar muerto, pero, mezclando mis metáforas, hay más de un modo de desollar ungato." (Observaciones sobre el 50 Aniversario de la National Security Agency, 1 de noviembre de 2002). Kahnmenciona a continuación las mayores posibilidades para la intercepción, la colocación de dispositivos grabadores("bugging"), los ataques de canal lateral y la criptogtafía cuántica como sustitutos de los métodos tradicionales delcriptoanálisis.[6]

Kahn podría haberse apresurado demasiado al declarar al criptoanálisis muerto; aún no se han extinguido los cifradosdébiles. En medios académicos, se presentan regularmente nuevos diseños, y también son rotos frecuentemente: elcifrado por bloques Madryga, de 1984, demostró ser vulnerable a un ataque con sólo texto cifrado disponible en1998; FEAL-4, propuesto como sustituto para el algoritmo estándar de cifrado de datos DES fue demolido por unaavalancha de ataques de la comunidad académica, muchos de los cuales no eran enteramente realizables encondiciones prácticas. En la industria, igualmente, los cifrados no están exentos de fallos: por ejemplo, losalgoritmos AS/1, AS/2 y CMEA, usados en la industria de teléfonos móviles, pueden ser rotos en horas, minutos oincluso en tiempo real por equipo informático ampliamente disponible. En 2001, se demostró que el algoritmo WEP,utilizado para proteger redes Wi-Fi, es susceptible de ser atacado mediante un ataque de clave relacionada.

Los resultados del criptoanálisis

El Telegrama de Zimmerman, descifrado.

Los criptoanálisis exitosos han influido sin lugar a dudas en la Historia.La capacidad de leer los pensamientos, supuestamente secretos, o losplanes de otros puede ser una ventaja decisiva, y nunca con mayorrazón que en tiempos de guerra. Por ejemplo, durante la PrimeraGuerra Mundial, el descifrado del Telegrama Zimmermann fue capitalpara la entrada de los Estados Unidos en la guerra. En la SegundaGuerra Mundial, el criptoanálisis de los códigos alemanes, incluyendola máquina Enigma y el código Lorenz, ha sido considerado desde unfactor que apenas acortó la guerra en algunos meses en Europa, hastaun elemento crucial que determinó el resultado final (véase ULTRA).Los Estados Unidos también se beneficiaron del criptoanálisis delcódigo japonés PURPLE durante la contienda (véase MAGIC).

Page 95: códigos - libro wikipedia

Criptoanálisis 92

Todos los gobiernos han sido conscientes desde antiguo de los potenciales beneficios del criptoanálisis para lainteligencia militar, tanto en lo puramente bélico como en lo diplomático, y han establecido con frecuenciaorganizaciones dedicadas en exclusiva al descifrado de códigos de otras naciones, por ejemplo GCHQ y NSA,organizaciones americanas todavía muy activas hoy en día. En 2004, surgió la noticia de que los Estados Unidoshabían roto los códigos utilizados por Irán: [7]).

Enlaces externosEn inglés:• Basic Cryptanalysis [8] (los archivos contienen unas cabeceras de 5 líneas que deben ser eliminadas)• Distributed Computing Projects [9]

• Software tools [10] (enlace roto disponible en Internet Archive; véase el historial [11] y la última versión [12]).

• All lot of real encrypted messages on newsgroups [13]

• Classic Javascript Cryptoanalysis Tools [14] (sólo funciona con IE 5 o posterior)

Referencias•• Helen Fouché Gaines, "Cryptanalysis", 1939, Dover. ISBN 0-486-20097-3• Abraham Sinkov, Elementary Cryptanalysis: A Mathematical Approach, Mathematical Association of America,

1966. ISBN 0-88385-622-0• Ibraham A. “Al-Kindi: The origins of cryptology: The Arab contributions”, Cryptologia, 16(2) (April 1992) pp.

97–126.• David Kahn, "The Codebreakers - The Story of Secret Writing", 1967. ISBN 0-684-83130-9• Lars R. Knudsen: Contemporary Block Ciphers. Lectures on Data Security 1998: 105-126• Bruce Schneier, "Self-Study Course in Block Cipher Cryptanalysis [15]", Cryptologia, 24(1) (January 2000), pp.

18–34.•• Friedrich L. Bauer: "Decrypted Secrets". Springer 2002. ISBN 3-540-42674-4• Friedman, William F., Military Cryptanalysis, Part I, ISBN 0-89412-044-1• Friedman, William F.Military Cryptanalysis, Part II, ISBN 0-89412-064-6• Friedman, William F.Military Cryptanalysis, Part III, Simpler Varieties of Aperiodic Substitution Systems, ISBN

0-89412-196-0• Friedman, William F.Military Cryptanalysis, Part IV, Transposition and Fractionating Systems, ISBN

0-89412-198-7• Friedman, William F. and Lambros D. Callimahos, Military Cryptanalytics, Part I, Volume I, ISBN

0-89412-073-5• Friedman, William F. and Lambros D. Callimahos, Military Cryptanalytics, Part I, Volume II, ISBN

0-89412-074-3• Friedman, William F. and Lambros D. Callimahos, Military Cryptanalytics, Part II, Volume I, ISBN

0-89412-075-1• Friedman, William F. and Lambros D. Callimahos, Military Cryptanalytics, Part II, Volume II, ISBN

0-89412-076-X[1][1] "Applied cryptology, cryptographic protocols and computer security models", Richard A. DeMillo et all. American Mathematical Societyn

1983[2][2] "Applied cryptology, cryptographic protocols and computer security models", Richard A. DeMillo et all. American Mathematical Society

1983[3][3] "Basic methods of cryptography", J. C. A. Lubbe,Cambridge University Press 1998[4][4] "Basic methods of cryptography", J. C. A. Lubbe,Cambridge University Press 1998[5][5] "Basic methods of cryptography", J. C. A. Lubbe,Cambridge University Press 1998[6] http:/ / www. fas. org/ irp/ eprint/ kahn. html[7] http:/ / news. bbc. co. uk/ 1/ hi/ technology/ 3804895. stm

Page 96: códigos - libro wikipedia

Criptoanálisis 93

[8] http:/ / www. umich. edu/ ~umich/ fm-34-40-2/[9] http:/ / distributedcomputing. info/ ap-crypto. html#m4[10] http:/ / users. castel. nl/ ~groor01/ crack. htm[11] http:/ / web. archive. org/ web/ */ http:/ / users. castel. nl/ ~groor01/ crack. htm[12] http:/ / web. archive. org/ web/ 2/ http:/ / users. castel. nl/ ~groor01/ crack. htm[13] http:/ / groups. google. com/ groups/ search?q=author%3Asmokerman6%40hotmail. com+ OR+ author%3Ascully%40ar. com+ OR+

author%3Aidaho%40microsoft. com+ OR+ author%3Aman%40ar. com+ OR+ author%3Adave%40wanadoo. fr+ OR+author%3Afdgd%40wanadoo. fr+ OR+ author%3Afortune%40fortune. com& star

[14] http:/ / dsv. su. se/ ~icss-abr/ crypto/[15] http:/ / www. schneier. com/ paper-self-study. html

Distancia de unicidadPara un cifrador la distancia de unicidad, también llamada punto de unicidad, es el valor mínimo de caracteres deltexto cifrado que se necesitan para reducir a una el número de claves posibles y, por tanto, romper el cifrado. Esdecir, después de intentar todas las posibles claves (fuerza bruta del espacio de claves) sólo hay una que puede hacerque el descifrado tenga sentido. La distancia de unicidad es posible a causa de la redundacia de los idiomas humanos(puesta de manifiesto cuando se estudia su ratio de entropía).El concepto de distancia de unicidad fue introducido por C. E. Shannon.[1]

La distancia de unicidad permite medir el secreto de un cifrador a partir de la cantidad de incertidumbre (entropía) dela clave condicionada por el conocimiento del texto cifrado ( ). Si entonces no hayincertidumbre y el cifrador es teóricamente rompible teniendo los suficientes recursos. La distancia de unicidad esla longitud mínima del texto cifrado que se necesita para determinar de forma única la clave.[2]

Un cifrador se dice que es incondicionalmente seguro si nunca se aproxima a 0 incluso para longitudeslargas de texto cifrado.[3] De la propia definición de secreto perfecto se puede concluir que un cifrador que tienesecreto perfecto no tiene distancia de unicidad y por tanto es incondicionalmente seguro. Shannon usaba el términosecreto ideal para describir sistemas que no logran el secreto perfecto pero sin embargo no se pueden romperporque no dan suficiente información para determinar la clave.[4]

Formalización teórica

Entropías condicionales interesantes en un sistema de cifradoPara un sistema de cifrado hay una serie de entropías condicionales interesantes:[5][6]

Supongamos• Un mensaje M1 es sometido a un proceso de cifrado usando la clave K1 obteniendo E(K1,M1)=C1.• representan la probabilidad condicional de la clave K dado el criptograma recibido C. A veces también

se denota por • representan la probabilidad condicional del mensaje M dado el criptograma recibido C. A veces

también se denota por Entonces:• Podemos medir la incertidumbre (la entropía) del conocimiento de la clave una vez conocido el texto cifrado, y

por tanto medir la equivocación del mensaje (en inglés message equivocation), , también denotada por, mediante la fórmula:

Page 97: códigos - libro wikipedia

Distancia de unicidad 94

La primera igualdad es por la definición de la entropía condicional y la segunda por aplicación del teorema deBayes.

Observar que si significa que se podrá romper el cifrado pues ya no hay incertidumbre. Estaanulación nos introduce en el concepto de distancia de unicidad.

• Podemos medir la incertidumbre (la entropía) del conocimiento del mensaje una vez conocido el texto cifrado, ypor tanto medir la equivocación de la clave (en inglés key equivocation), , también denotada por

, mediante la fórmula:

La primera igualdad es por la definición de la entropía condicional y la segunda por aplicación del teorema deBayes.

• Podemos medir la incertidumbre (la entropía) del conocimiento de la clave una vez conocido el texto cifrado y elmensaje en claro, y por tanto medir la equivocación del aspecto de la clave (en inglés key appearanceequivocation), , también denotada por , mediante la fórmula:

• Podemos medir la incertidumbre (la entropía) del conocimiento del mensaje una vez conocido el texto cifrado y laclave, denotado por o por . Dada una clave la relación entre texto cifrado y texto enclaro es uno-a-uno y por tanto

Se ha demostrado[7] que se cumple la siguiente relación entre las distintas entropías:

Esta relación nos pone de manifiesto un hecho bastante curioso:[8]

En general el objetivo de cualquiera que use un cifrador es tener un valor de alto para que elsistema tenga la máxima fortaleza posible para el caso de que el atacante disponga tanto del texto cifradocomo del texto plano (ataque con texto plano conocido). Sin embargo, por la expresión de la ecuación, paraello es necesario que sea pequeño. Sin embargo, tener un valor pequeño de implica quehaya poca incertidumbre respecto al texto plano una vez conocido el texto cifrado (ataque con sólo textocifrado disponible), lo cual es contrario a los intereses de cualquiera que cifre un mensaje. Por tanto esnecesario una solución de compromiso para que el sistema tenga una fortaleza aceptable para ambos tipos deataque

Considerando la longitud del criptograma

Podemos calcular y para aquellos criptogramas de una cierta longitud N (en el sumatorio sólo seconsideran esos criptogramas).A estos valores son denotados por y . Otra notaciónalternativa equivalente es y .La distancia de unicidad de un sistema de cifrado, si existe, nos da el valor mínimo valor de N para el cual

. Es decir, da el valor mínimo de la longitud del criptograma, N, para la que cierta clave K tieneprobabilidad uno y el resto tiene probabilidad 0. Este valor es posible a causa de la redundacia de los idiomashumanos (puesta de manifiesto cuando se estudia su ratio de entropía).Hay que remarcar que aunque la distancia de unicidad da un valor para el cual , esto no garantizaque la clave pueda ser encontrada para cada situación concebible.[9] Esto sólo sucede en media. Esto es debido a losconceptos que se usan en la teoría de la información, como entropías, ratios, etc.. La distancia de unicidadrepresenta valores medios de símbolos o letras requeridos.Está demostrado[10] que se cumplen las siguientes propiedades:

Page 98: códigos - libro wikipedia

Distancia de unicidad 95

i) si (La equivocación de la clave es una función no creciente de N)ii)) si (La equivocación de los A primeros caracteres de el mensaje esuna función no creciente del número N de caracteres interceptados).iii) (Si N caracteres han sido interceptados, la equivocación de los primeros Ncaracteres del mensaje es menor o igual que la de la clave).

Además se cumple[11] el siguiente teorema:

•donde representa la redundancia del texto en claro de longitud N, la cual es la diferencia entre laratio absoluta y la ratio del idioma ( ).

Por tanto acotando a la longitud N y suponiendo que ε es el número de símbolos diferentes del texto en claro ydel texto cifrado, obtenemos

De la expresión podemos concluir que la si la redundancia incrementa, la equivocación media de la clave y portanto la incertidumbre con respecto de la clave usada decrece. Por tanto la redundancia hace la tarea deencontrar la clave sea más fácil. Análogamente, métodos que reduzcan la redundancia mejoran la seguridaddel criptosistema.

Otra conclusión que se puede obtener de la ecuación es que, al ser , , esdecir, la equivocación de la clave, de forma general, no será cero y por tanto la clave no podrá determinarse deforma inequívoca.

CálculoEl método tradicional para el cálculo, normalmente aproximado, de la distancia de unicidad fue el propuesto porShannon.[12] Posteriormente Hellman extiende las conclusiones de Shannon y propone nuevas técnicas para estimarla distancia de unicidad.La mayor parte de los cifradores son demasiado complejos para determinar las probabilidades requeridas paraobtener la distancia de unicidad. Sin embargo Shannon mostró[13] que es posible aproximarse a el valor para ciertotipo de cifradores usando un modelo de cifrador al que llama cifrador aleatorio. En este cifrador modelo demuestraque el valor aproximado de la distancia de unicidad es . Aprovechándose de este resultado Shannon estima

el valor de la distancia de unicidad para otros cifradores.Martin Edward Hellman[14] derivó los mismos resultados que Shannon para la distancia de unicidad del cifradoraleatorio pero siguiendo un enfoque un poco diferente. Hellman usó un argumento de conteo, para dada unasecuencia de símbolos de texto cifrado, encontrar el número de claves que podían haber generado esa secuenciaparticular. Hellman además muestra que el cifrador aleatorio tiene, entre la clase de los cifradores con el mismotamaño de clave y tamaño de texto plano, la mínima distancia de unicidad y por tanto es el caso peor.[15]

Beauchemin and Brassard[16]generalizaron los resultados para incluir cifradores con claves y mensajes en claro quesiguen distribuciones de probabilidad uniformes (aleatorias).[17]

Page 99: códigos - libro wikipedia

Distancia de unicidad 96

Cálculo para un cifrador aleatorio

Veamos el cálculo de la distancia de unicidad para el cifrador aleatorio[18]

Cifrador aleatorio

Shannon definió un cifrador aleatorio como un sistema de cifrado que satisface las siguientes tres condiciones:i)El número de posibles mensajes de longitud N es

con la ratio absoluta con valor donde A es el cardinal del alfabeto que usa tanto eltexto plano como el texto cifrado.

ii) Los posibles mensajes de longitud N pueden ser divididos en dos grupos:•• Un grupo de los que tienen a priori una probabilidad alta y casi uniforme (los mensajes con significado).•• Otro grupo con una insignificante probabilidad total.

El grupo con alta probabilidad contiene mensajes, con es laentropía por letra de mensajes de N letras.

iii) El proceso de descifrado puede formalizarse como una serie de líneas que relacionan cada criptograma conuna serie de textos en claro. Vamos a asumir que hay k claves equiprobables. Por tanto habrá k líneas haciacada criptograma que proceden de una selección aleatoria de los posibles mensajes.

Cálculo

Para el cifrador aleatorio, dado un criptograma, la probabilidad de obtener un mensaje con significado al descifrarusando una clave dada es:

donde D es la redundancia del idioma, para mensajes de N caracteres, medida en bits/carácter.Vamos a suponer que podemos aproximar el valor de redundancia del idioma para mensajes de N caracteres, por laredundancia del idioma. La redundancia del idioma es la diferencia entre la ratio absoluta y la ratio del idioma ypor tanto se puede expresar con la ecuación:

Para el cifrador aleatorio, como hay k claves equiprobables entonces el valor de su entropía es ypor tanto . Entonces, el valor esperado de criptogramas descifrados con significado es:

Por tanto:• Si H(K)>>ND, entonces hay una gran probabilidad de obtener un criptograma descifrado con significado y

entonces una baja probabilidad de determinar la clave y el mensaje correctos.• Si H(K)<<ND, entonces tan pronto como se obtenga un criptograma descifrado con significado, entonces tiene

casi toda probabilidad de ser el único correcto.La frontera entre estas dos situaciones está determinada por la cantidad

a la cual se le llama distancia de unicidad.Cuando la información de la fuente es baja, sólo se requieren un pequeño número de símbolos (N) para llegar a ladistancia de unicidad. En la práctica esto puede paliar asegurando una mínima información para los mensajes, porejemplo usando un sistema de codificación.

Page 100: códigos - libro wikipedia

Distancia de unicidad 97

Cálculo para un cifrador por sustitución monoalfabética aplicado al idioma inglés

Podemos aplicar lo obtenido a un cifrador por sustitución monoalfabética aplicado al idioma inglés.[19]

Consideremos un cifrado en inglés (alfabeto de 27 letras) cifrado usando una sustitución monoalfabética. Sisuponemos válida la aproximación a la ratio del idioma, H(M)=2, obtenemos los siguientes resultados:

bitsEstos sistemas tienen 26! posibilidades para la clave. Asumiendo que la incertidumbre para cada clave es la misma,la información de cada clave es:

bitsPor tanto la distancia de unicidad vale aproximadamente 32 ( caracteres). Por tanto, de media se necesitará un criptograma de 32 letras para encontrar la clave correcta.Para el caso del cifrado Cesar H(K)=26 y por tanto ( ) es aproximadamente2.[20]Observar que este resultado no parece plausible ya que ningún cifrador por sustitución puede ser resuelto consólo 2 caracteres. Hay que tener dos cosas en cuenta:•• La estimación que usamos de D=2.7 es aplicable sólo para mensajes de longitud razonable.•• El cifrador es una pobre aproximación del cifrador aleatorio. Esto es debido a que la mayoría de los criptogramas

no son producidos por mensajes con significado. Por ejemplo el criptograma QQQQ sólo puede ser producido porAAAA,...,ZZZZ. Por tanto los mensajes en claro descifrados no están uniformemente distribuidos sobre elespacio completo de mensajes. Sin embargo, los cifradores por desplazamiento pueden ser generalmente resueltoscon sólo unos pocos caracteres del criptograma.

Cálculo para el DES

Consideremos el cifrador DES, el cual cifra bloques de 64 bits usando claves de 56 bits. Al DES se relativamentesimilar al modelo del cifrador aleatorio. Si suponemos que D=3.2 la distancia de unicidad es:

caracteresSi doblamos la clave a 112 bits, la distancia de unicidad aumentará a más o menos 35 caracteres.Observar que de que la distancia de seguridad para un cifrado de sustitución genérico sea mayor que el del DES, nose puede inferir que el cifrado de sustitución sea más seguro que el DES. Realmente el DES es más seguro porque noes susceptible a ser roto usando técnicas de análisis de frecuencias.

Cálculo en otros cifradores

Deavours[21] estudia la distancia de unicidad en algunos cifradores clásicos.

LimitacionesAunque la distancia de unicidad aporta una forma fácil de manejar distintas distribuciones de probabilidad, elparámetro relevante que hay subyacente es la probabilidad de error, es decir, la probabilidad de incorrectaidentificación de la clave que tiene el criptoanalista. Para el estudio de este error se ha desarrollado el concepto deProbabilidad de error de seguridad (en inglés Probability error-security) que normalmente se nota por Pe-seguridad(de inglés Pe-security) y se ha definido la llamada distancia Pe-seguridad.[22][23]

[24]La distancia Pe-seguridad de un cifrador es la longitud mínima esperada del criptograma, generada por elcifrador, necesaria para obtener el texto plano original con una probabilidad media de error (o probabilidad deidentificación incorrecta media) de al menos Pe

Page 101: códigos - libro wikipedia

Distancia de unicidad 98

Referencias[1][1] C. E. Shannon, "Communication Theory of Secrecy Systems"[2][2] Dorothy Elizabeth Robling Denning,"Cryptography and Data Security",Addison-Wesley 1982[3][3] Dorothy Elizabeth Robling Denning,"Cryptography and Data Security",Addison-Wesley 1982[4][4] Dorothy Elizabeth Robling Denning,"Cryptography and Data Security",Addison-Wesley 1982[5][5] "Applied cryptology, cryptographic protocols and computer security models", Richard A. DeMillo et all. American Mathematical Society

1983[6][6] "Basic methods of cryptography", J. C. A. Lubbe,Cambridge University Press 1998[7][7] "Basic methods of cryptography", J. C. A. Lubbe,Cambridge University Press 1998[8][8] "Basic methods of cryptography", J. C. A. Lubbe,Cambridge University Press 1998[9][9] J.C.A. Lubbe "Basic Methods of Cryptography". Cambridge University Press 1998[10][10] C. E. Shannon, "Communication Theory of Secrecy Systems"[11][11] J.C.A. Lubbe "Basic Methods of Cryptography". Cambridge University Press 1998[12][12] C. E. Shannon, "Communication Theory of Secrecy Systems"[13][13] C. E. Shannon, "Communication Theory of Secrecy Systems"[14][14] Hellman, M. E., "An extension of the Shannon Theroy Approach to Cryptography". IEEE Trans. on Info. Theory. Vol IT-23 pp. 289-994

May 1977[15][15] A. Kh Al Jabri, "The unicity distance: An upper bound on the proability of an eavesdropper successfully estimating the secret key", King

Saud University, Arabia Saudí 1996[16][16] P. Beauchemin and G. Brassard, "A Generalization of Hellman's Extension to Shannon´s Approach to Cryptography". Journal of Cryptology

1988.[17][17] A. Kh Al Jabri, "The unicity distance: An upper bound on the proability of an eavesdropper successfully estimating the secret key", King

Saud University, Arabia Saudí 1996[18][18] M. Davio, J., M. Goethals, "Elements of cryptology", Philips Research Laboratory, Brussels[19][19] "Basic methods of cryptography", J. C. A. Lubbe,Cambridge University Press 1998[20][20] Dorothy Elizabeth Robling Denning,"Cryptography and Data Security",Addison-Wesley 1982[21][21] Deavours, C. A., "Unicity Points in Cryptanalysis," Cryptologia Vol. 1 (1) pp. 46-68 (Jan. 1977).[22][22] Johan Van Tilburg, Dick E. Boekee, "The Pe-security distance as a measure of cryptographic performance", Trattement du Signal volume 4

nº6 1987[23][23] "Basic methods of cryptography", J. C. A. Lubbe,Cambridge University Press 1998[24][24] Johan Van Tilburg, Dick E. Boekee, "The Pe-security distance as a measure of cryptographic performance", Trattement du Signal volume 4

nº6 1987

Page 102: códigos - libro wikipedia

Ratio de entropía 99

Ratio de entropíaLa ratio de entropía de una secuencia de n variables aleatorias (proceso estocástico) caracteriza la tasa decrecimiento de la entropía de la secuencia con el crecimiento de n.

La tasa de entropía de un proceso estocástico viene definida por la ecuación:

siempre que dicho límite exista.Una cantidad relacionada con la ratio de entropía ( H(X) ) es:

cuando dicho límite existe.H'(X) mide la entropía condicional de la última variable aleatoria en función de todas las anteriores. Para procesoestocásticos estacionarios se cumple H(X)=H'(X)

Ejemplos• Consideremos el caso de una máquina de escribir que tiene m teclas con igual probabilidad de ser tecleada.

Podemos decir que y por tanto . Podemos generalizar, sies un proceso estocástico con variables aleatorias independientes e idénticamente distribuida. Entonces:

•• Supongamos un proceso estocástico con variables aleatorias independientes pero no idénticamente distribuidas.Por tanto:

Sin embargo depende de la distribución de las variables aleatorias que exista, o no, el límite y por tanto la tasade entropía. Por ejemplo si definimos una secuencia binaria aleatoria en la que no esconstante sino una función de i de la forma

si si

para k=0,1,2...Entonces H(X) no está definida para este proceso.

Ratio de un idiomaUn idioma o lengua, es un sistema de comunicación verbal o gestual propio de una comunidad humana. Podemosobservar que en los idiomas existen letras, conjuntos de letras y palabra más comunes que otras. La gramática delidioma también restringe qué palabras y en que orden se pueden encontrar. Además el resto del mensaje (el contexto)también afecta a la probabilidad de aparición de una palabra. Por ejemplo si estamos en un contexto judicial yaparecen las letras "im", podemos determinar que la palabra "impugnar" es más probable que la palabra "imbécil".En este caso podríamos decir que hay una probabilidad de las palabras condicionada por el contexto (resto depalabras).Por tanto podemos decir que los idiomas son 'ineficientes', es decir, contienen mucha redundancia. No sería necesario usar todos los símbolos que usamos para expresar algo. Por ejemplo si queremos transmitir el mensaje "This is a suny day" podríamos usar la expresión "This is a suny dy" de forma que el receptor nos entendería igual.[1]

Page 103: códigos - libro wikipedia

Ratio de entropía 100

Esta es el fundamento en el que se basa el uso habitual de un montón de abreviaturas cuando la gente se comunicacon SMSs.

Podemos considerar un idioma como un proceso estocástico de variables aleatorias donde cada una tienecomo valor un símbolo del lenguaje. Debido a las características vistas de los lenguajes, y usando la entropíacondicionada, podemos decir:

Definimos la ratio de entropía de un idioma (vamos a denotar por R), también llamada simplemente ratio delidioma, como la ratio de entropía del proceso:

Es decir, la ratio de entropía de un idioma es el límite de la entropía de un ejemplo de texto en el idioma, cuando lalongitud del texto se hace muy grande. La ratio de un idioma la podemos interpretar como la cantidad deinformación que contiene cada letra de nuestro alfabeto. En otras palabras, si un alfabeto consta de L elementos,existirán mensajes posibles de longitud N. Sin embargo como los mensajes son redundante sóloobtendremos (con r la ratio del idioma) mensajes que tengan sentidoPara el castellano se estima que el ratio está entre 1.2 y 1.5. Para el inglés se estima en torno al 1.3.Se llama ratio absoluta (vamos a denotar por ) de un idioma a el valor máximo que puede tener la ratio de unidioma. Es decir si tenemos un idioma con n símbolos la ratio máxima del idioma será aquel en el que todos lossímbolos son equiprobables e independientes. Por tanto . Este valor identiica el máximo número debits que pueden ser codificados con cada carácter (símbolo) asumiendo que cada carácter de la secuencia esequiprobable.Se llama redundancia de un idioma (vamos a denotar por ) a la diferencia entre la ratio absoluta y la ratio de unidioma. Por tanto . Este valor muestra cuanto puede ser reducido la longitud de un texto en unidioma sin perder ninguna información.Dado que la redundancia nos indica el número de bits extra usados para codificar un mensaje (bits redundantes)y es el número de bits para codificar un alfabeto de n símbolos letra a letra, entonces la relación expresará porcentualmente que tan redundante es el lenguaje utilizado. Para el castellano tenemos

como porcentaje de redundancia

Métodos de cálculoSe han usado distintos métodos para aproximarse al valor de la ratio de entropía de un idioma. Estos métodos se hanaplicado habitualmente al idioma inglés pero, en general, esos métodos son aplicables a cualquier otro idiomaobteniendo su propio valor aproximado. Vamos a ver los métodos propuestos más importantes y cuales han sido losresultados para el idioma inglés. El idioma inglés se suele considerar formado por un alfabeto de 27 símbolos (26letras más el espacio en blanco).

Aproximación sucesiva

Shannon[2] describió un método para aproximarnos al cálculo de la ratio de un idioma basándose en el estudio de losn-gramas. Para ello Shannon propone una serie de lenguajes artificiales que convergen con el idioma y que vanaproximándose cada vez más a él. En cada paso se van cogiendo más características del idioma pareciéndose cadavez más a él y por tanto la incertidumbre de cada símbolo, condicionada por el conocimiento de los anteriores, se vareduciendo. De esta forma va acotando paulatinamente la ratio del idioma. La serie de lenguajes artificiales quepropone son los siguientes:• Aproximación de símbolos orden 0. En esta aproximación todos lo símbolos son equiprobables e independientes.

Por tanto el valor de ratio del idioma será igual a la ratio absoluta e igual a y por tanto 4.76.

Page 104: códigos - libro wikipedia

Ratio de entropía 101

• Aproximación de símbolos de orden 1. En esta aproximación tenemos símbolos independientes pero cada símbolotendrá la misma probabilidad que el símbolo tiene en el idioma que se está trabajando, en este caso el inglés. Elvalor de la ratio de este lenguaje se ha calculado y es aproximadamente 4.03

• Aproximación de símbolos de orden 2. Es similar a la aproximación de orden 1 pero en lugar de aplicar lafrecuencia de los símbolos se aplica la frecuencia de los digramas (secuencias de 2 símbolos) en el idioma. Esdecir, dado un símbolo se calcula la probabilidad del siguiente en función de la probabilidad de los digramas queforma con el símbolo anterior. El valor de la ratio de este lenguaje se ha calculado y es aproximadamente 3.9

•• Aproximación de símbolos de orden 3. Es similar a la aproximación de orden 2 pero en lugar de aplicar lafrecuencia de los digramas se aplica la frecuencia de los trigramas (secuencias de 3 símbolos) en el idioma. Esdecir, dado un símbolo se calcula la probabilidad del siguiente en función de la probabilidad de los trigramas queforma con los dos símbolo anteriores.

• Aproximación de símbolos de orden 4. Es similar a la aproximación de orden 3 pero en lugar de aplicar lafrecuencia de los trigramas se aplica la frecuencia de los tetragramas (secuencias de 4 símbolos) en el idioma. Esdecir, dado un símbolo se calcula la probabilidad del siguiente en función de la probabilidad de los tetragramasque forma con los tres símbolo anteriores. Esta aproximación no fue propuesta por el documento original deShannon. El valor de la ratio de este lenguaje se ha calculado y es aproximadamente 2.8

•• Aproximación de palabras de orden 1. Se escogen palabras del inglés y la frecuencia de cada una es la que tienecada palabra en el idioma.

•• Aproximación de palabras de orden 2. Se usa las probabilidades de transición entre palabras del idioma. Sinembargo no se incluye ninguna otra probabilidad en la estructura.

Sin embargo estos valores sólo sirven para acotar ya que no capturan toda la estructura del idioma, sólo capturan unaparte (aunque cada vez más importante).La aplicación de esta técnica de acotación se puede extender para acotar la ratio de entropia de otros tipos de fuentesde información. Por ejemplo, podríamos aplicarla a los distintos métodos de codificación de imágenes.

Estimación mediante el juego de adivinación de Shannon

Este método de estimación fue realizado por Shannon en 1950[3] obteniendo un valor de 1.3.El método consiste en coger un ejemplo de texto suficientemente largo y preguntar sucesivamente a un humano queadivine la próxima letra. Si un sujeto contesta con un símbolo x podemos interpretar que el sujetoo estima que elsímbolo x es el más probable en el contexto que está analizando. Si fallara contestaría con el siguiente más probabley así sucesivamente. El experimentador guarda el número de intentos necesitados para calcular cada siguientecarácter. Con los datos obtenidos se puede calcular la distribución empírica de la frecuencia del número deadivinaciones requeridas para calcular el siguiente carácter. Muchas letras requerirán sólo un intento, sin embargootras serán más difíciles (por ejemplo las iniciales de palabras o frases).Usando este método con distintos textos independientes podemos hacer una estimación de la ratio del idioma ya quepodemos conjeturar que la entropía de las secuencia a adivinar es la entropía del idioma. Por tanto la entropía de lasecuencia a adivinar está vinculada con la entropía del histograma construido contabilizando los intentos en elexperimento.

Page 105: códigos - libro wikipedia

Ratio de entropía 102

Estimación mediante apuestas

En este enfoque hacemos que un sujeto humano apueste sobre la próxima letra de un texto en inglés. Esto permite sermás finos en la gradación de los juicios sobre la adivinación de la próxima letra. En este caso, la elección óptima esproporcional a la probabilidad condicional de la próxima letra. Como tenemos 27 símbolos entonces se pagará con laproporción 27 a 1 si se elige la letra correcta.La apuesta de forma secuencial es equivalente a apostar sobre la secuencia completa. Por tanto la apuesta después den letras puede ser escrita como:

donde ) es la fracción de la ganancia del apostante en la secuencia.Si asumimos que el sujeto conoce la distribución de probabilidad subyacente podemos estimar que:

siendo la entropía. A partir de ahí se puede estimar la ratio de entropíaEn un experimento[4] con 12 sujetos con un texto de 75 letras devolvió una estimación de 1.34 como ratio del idiomainglés.

Referencias• Thomas M. Cover, Joy A. Thomas,"Elements of Information Theory", John Wiley & Sons. Second Edition 2006•• Jorge Ramió Aguirre, Aplicaciones criptográficas. Libro guía de la asignatura de Seguridad Informática. Escuela

Universitaria de Informática. Universidad Politécnica de Madrid. Enero 1998.[1][1] Denis Trček,"Managing information systems security and privacy", Springer-Verlag Berling Heidelberg 1996[2] C. E. Shannon,"A Mathematical Theory of Communication",The Bell System Technical Journal Vol 27 pp. 379–423, 623–656, July,

October, 1948[3] C. E. Shannon, "Prediction and entropy of printed English". Bell Syst. Tech. J., 30:50–64, Enero 1951[4] T. M. Cover and R. King. A convergent gambling estimate of the entropy of English. IEEE Trans. Inf. Theory, IT-24:413–421, 1978.

Page 106: códigos - libro wikipedia

Proceso estocástico 103

Proceso estocástico

El índice de la bolsa es un ejemplo de procesoestocástico de tipo no estacionario (por eso no se puede

predecir).

En estadística, y específicamente en la teoría de la probabilidad,un proceso estocástico es un concepto matemático que sirve paracaracterizar una sucesión de variables aleatorias (estocásticas) queevolucionan en función de otra variable, generalmente el tiempo.Cada una de las variables aleatorias del proceso tiene su propiafunción de distribución de probabilidad y, entre ellas, pueden estarcorrelacionadas o no.

Cada variable o conjunto de variables sometidas a influencias oimpactos aleatorios constituye un proceso estocástico.

Ejemplos• Los siguientes son ejemplos dentro del amplio grupo de las series temporales:

•• Señales de telecomunicación•• Señales biomédicas (electrocardiograma, encefalograma, etc.)•• Señales sísmicas•• El número de manchas solares año tras año•• El índice de la bolsa segundo a segundo•• La evolución de la población de un municipio año tras año•• El tiempo de espera en cola de cada uno de los usuarios que van llegando a una ventanilla•• El clima es un gigantesco cúmulo de procesos estocásticos interrelacionados (velocidad del viento, humedad

del aire, etc) que evolucionan en el espacio y en el tiempo.•• Los procesos estocásticos de orden mayor a uno, como el caso de una serie de tiempo de orden 2 y una

correlación de cero con las demás observaciones.

En los procesos estocásticos se pueden usar las matrices para definir el número de evento, ya que no necesitan lahistoria para "predecir", sino de los hechos que están presentes se "predice" un comportamiento cadenas deMarkov.[1]

Definición matemáticaUn proceso estocástico se puede definir equivalentemente de dos formas diferentes:•• Como un conjunto de realizaciones temporales y un índice aleatorio que selecciona una de ellas.• Como un conjunto de variables aleatorias indexadas por un índice , dado que , con .

puede ser continuo si es un intervalo (el número de sus valores es ilimitado) o discreto si es numerable(solamente puede asumir determinados valores). Las variables aleatorias toman valores en un conjunto que sedenomina espacio probabilístico. Sea un espacio probabilístico. En una muestra aleatoria de tamaño se observa un suceso compuesto formado por sucesos elementales :

, de manera que .El suceso compuesto es un subconjunto contenido en el espacio muestral y es un álgebra de Boole . A cadasuceso le corresponde un valor de una variable aleatoria , de manera que es función de :

Page 107: códigos - libro wikipedia

Proceso estocástico 104

El dominio de esta función o sea el campo de variabilidad del suceso elemental, es el espacio muestral, y surecorrido, o sea el de la variable aleatoria, es el campo de los números reales. Se llama proceso aleatorio al valor en

de un elemento , donde para todo es una variable aleatoria delvalor en .Si se observa el suceso en un momento de tiempo:

.define así un proceso estocástico.[2]

Si es una filtración,[3] se llama proceso aleatorio adaptado, al valor en , de un elemento, donde es una variable aleatoria -medible del valor en . La función

se llama la trayectoria asociada al suceso .

Casos especiales• Proceso estacionario: Un proceso es estacionario en sentido estricto si la función de distribución conjunta de

cualquier subconjunto de variables es constante respecto a un desplazamiento en el tiempo. Se dice que unproceso es estacionario en sentido amplio (o débilmente estacionario) cuando se verifica que:1.1. La media teórica es independiente del tiempo; y2. Las autocovarianzas de orden s sólo vienen afectadas por el lapso de tiempo transcurrido entre los dos

periodos y no dependen del tiempo.• Proceso homogéneo: variables aleatorias independientes e idénticamente distribuidas• Proceso de Márkov: Aquellos procesos discretos en que la evolución sólo depende del estado actual y no de los

anteriores.• Proceso de Gauss: Proceso continuo en el que toda combinación lineal de variables es una variable de distribución

normal.•• Proceso de Poisson• Proceso de Gauss-Márkov: Son procesos, al mismo tiempo, de Gauss y de Márkov• Proceso de Bernoulli Son procesos discretos con una distribución binomial.

Referencias[1] Más información en "Elementos de Econometría de los Fenómenos Dinámicos", Alberto Landro, Ediciones Cooperativas, Buenos Aires 2009[2] Dagum, Camilo y Estela M. Bee de Dagum(1971) Introducción a la Econometría: 79-83. México: Siglo XXI editores, sétima edición, 1980.[3] Se llama "filtración" a una sucesión {B (t), t ∈T}de sub-σ-álgebras tal que B (t) está incluida en B (r) si r <t.

Page 108: códigos - libro wikipedia

Distribución de probabilidad 105

Distribución de probabilidad

La distribución Normal suele conocerse como la "campana de Gauss".

En teoría de la probabilidad yestadística, la distribución deprobabilidad de una variable aleatoriaes una función que asigna a cadasuceso definido sobre la variablealeatoria la probabilidad de que dichosuceso ocurra. La distribución deprobabilidad está definida sobre elconjunto de todos los sucesos, cadauno de los sucesos es el rango devalores de la variable aleatoria.

La distribución de probabilidad estácompletamente especificada por la función de distribución, cuyo valor en cada real x es la probabilidad de que lavariable aleatoria sea menor o igual que x.

Definición de función de distribuciónDada una variable aleatoria , su función de distribución, , es

Por simplicidad, cuando no hay lugar a confusión, suele omitirse el subíndice y se escribe, simplemente, .Donde en la fórmula anterior:

, es la probabilidad definida sobre un espacio de probabilidad y una una medida unitaria sobre elespacio muestral.

es la medida sobre la σ-álgebra de conjuntos asociada al espacio de probabilidad.es el espacio muestral, o conjunto de todos los posibles sucesos aleatorios, sobre el que se define el espacio

de probabilidad en cuestión.es la variable aleatoria en cuestión, es decir, una función definda sobre el espacio muestral a

los números reales.

PropiedadesComo consecuencia casi inmediata de la definición, la función de distribución:• Es una función continua por la derecha.• Es una función monótona no decreciente.Además, cumple

y

Para dos números reales cualesquiera y tal que , los sucesos y sonmutuamente excluyentes y su unión es el suceso , por lo que tenemos entonces que:

Page 109: códigos - libro wikipedia

Distribución de probabilidad 106

y finalmente

Por lo tanto una vez conocida la función de distribución para todos los valores de la variable aleatoria conoceremos completamente la distribución de probabilidad de la variable.Para realizar cálculos es más cómodo conocer la distribución de probabilidad, y sin embargo para ver unarepresentación gráfica de la probabilidad es más práctico el uso de la función de densidad.

Distribuciones de variable discreta

Gráfica de distribución binomial.

Se denomina distribución de variable discreta a aquella cuya funciónde probabilidad sólo toma valores positivos en un conjunto de valoresde finito o infinito numerable. A dicha función se le llama funciónde masa de probabilidad. En este caso la distribución de probabilidades la suma de la función de masa, por lo que tenemos entonces que:

Y, tal como corresponde a la definición de distribución deprobabilidad, esta expresión representa la suma de todas lasprobabilidades desde hasta el valor .

Distribuciones de variable discreta más importantesLas distribuciones de variable discreta más importantes son las siguientes:•• Distribución binomial•• Distribución binomial negativa•• Distribución Poisson•• Distribución geométrica•• Distribución hipergeométrica•• Distribución de Bernoulli• Distribución Rademacher, que toma el valor 1 con probabilidad ½ y el valor -1 con probabilidad ½.• Distribución uniforme discreta, donde todos los elementos de un conjunto finito son equiprobables.

Distribuciones de variable continua

Page 110: códigos - libro wikipedia

Distribución de probabilidad 107

Distribución normal.

Se denomina variable continua a aquella que puede tomar cualquierade los infinitos valores existentes dentro de un intervalo. En el caso devariable continua la distribución de probabilidad es la integral de lafunción de densidad, por lo que tenemos entonces que:

Distribuciones de variable continua más importantes

Las distribuciones de variable continua más importantes son lassiguientes:•• Distribución ji cuadrado•• Distribución exponencial•• Distribución t de Student•• Distribución normal•• Distribución Gamma•• Distribución Beta•• Distribución F•• Distribución uniforme (continua)•• Distribución de Weibull•• Distribución de Pareto

Enlaces externos• Wikimedia Commons alberga contenido multimedia sobre Distribuciones de probabilidad. Commons•• Wikilibros: Estadística

Page 111: códigos - libro wikipedia

Aleatoriedad 108

Aleatoriedad

Puntos esparcidos aleatoriamente sobre un planobidimensional. Sus puntos más cercanos están

resaltados en rojo.

La aleatoriedad se asocia a todo proceso cuyo resultado no esprevisible más que en razón de la intervención del azar. El resultado detodo suceso aleatorio no puede determinarse en ningún caso antes deque este se produzca. El estudio de los fenómenos aleatorios quedadentro del ámbito de la teoría de la probabilidad y, en un marco másamplio, en el de la estadística.

La palabra aleatorio se usa para expresar una aparente carencia depropósito, causa, u orden. El término aleatoriedad se usa a menudocomo sinónimo con un número de propiedades estadísticas medibles,tales como la carencia de tendencias o correlación.

La aleatoriedad ocupa un lugar importante en la ciencia y la filosofía.

Historia

La especie humana se ha preocupado de la aleatoriedad desde tiemposprehistóricos, la mayoría a través de la adivinación (al leer mensajes siguiendo patrones aleatorios) y los juegos. Laoposición entre el libre albedrío y el determinismo ha sido una cuestión divisiva en la filosofía y la teología.

A pesar de la prevalencia de los juegos en todas las épocas y culturas, por un largo período hubo una ciertainvestigación occidental sobre el tema, posiblemente debido a la desaprobación que la Iglesia Católica mantenía encuestiones de juegos y la adivinación. Si bien Gerolamo Cardano y Galileo escribieron sobre los juegos de azar,fueron Blaise Pascal, Pierre de Fermat y Christiaan Huygens quienes nos condujeron a lo que hoy se conoce comoteoría de probabilidad.Los matemáticos se centraron primero en aleatoriedad estadística y consideraron frecuencias de bloque (es decir, nosolo las frecuencias de ocurrencias de elementos individuales, si no también bloques de longitudes arbitrarias) comola medida de la aleatoriedad, un acercamiento que se prolongará hacia la entropía de la información en la teoría de lainformación.A principios de los años 60, Gregory Chaitin, Andréi Kolmogórov y Ray Solomonoff introdujeron la noción dealeatoriedad algorítmica, en la cual la aleatoriedad de una secuencia depende de si es posible comprimirla.

Aleatoriedad en la cienciaEn la investigación científica la aleatoriedad es estudiada por la estadística y la teoría de la probabilidad.

Experimento aleatorioEn Teoría de la probabilidad un experimento aleatorio es aquel que bajo el mismo conjunto aparente de condicionesiniciales, puede presentar resultados diferentes, es decir, no se puede predecir o reproducir el resultado exacto decada experiencia particular. (Ej: Lanzamiento de un dado). Este tipo de fenómeno es opuesto al fenómenodeterminista, en el que conocer todos los factores de un experimento nos hace predecir exactamente el resultado delmismo. Por ejemplo, conociendo la altura desde la que se arroja un móvil es posible saber exactamente el tiempo quetardará en llegar al suelo en condiciones de vacío. Sin embargo una colección de eventos estadísticos, puede sertratada como un fenómeno determinista en estadística. Por ejemplo lanzando un dado de seis caras seicientas veces,el resultado para cada una de las caras del mismo será aproximadamente cien.

Page 112: códigos - libro wikipedia

Aleatoriedad 109

Aleatoriedad en la filosofía y la religiónHay que notar que la predisposición a creer que "todo tiene un propósito o una causa" está de hecho implícita en laexpresión "aparente carencia de propósito o causa". Los humanos están siempre buscando patrones en suexperiencia, y el patrón más básico parece ser el patrón causa-efecto. Esto parece embebido en el cerebro humano, yquizás en otros animales también. Por ejemplo, los perros y los gatos a menudo muestran establecer aparentementeuna conexión de causa y efecto que nos parece divertida o peculiar, como puede ser la situación por la cual un perroque, después de visitar al veterinario cuya clínica tenga los suelos embaldosados de un azulejo concreto, rechace apartir de entonces acercarse a esa clase de suelos, estando o no en la clínica veterinaria.Es debido a esta tendencia que la ausencia de una causa parece problemática. Ver causalidad.Para resolver este problema, a veces se dice que los eventos aleatorios son causados por azar. Más que resolver elproblema de la aleatoriedad, esto abre el enorme hueco de definir el azar. Es difícil evadir la circularidad al definirel azar en términos de aleatoriedad.

Aleatoriedad contra Impredecibilidad

Algunos discuten que la aleatoriedad no debe confundirse con la impredecibilidad práctica, la cual es una idea queestá relacionada con el uso ordinario. Algunos sistemas matemáticos, por ejemplo, pueden verse como aleatorios; sinembargo son de hecho impredecibles. Esto se debe a una dependencia sensible de las condiciones iniciales. Muchosfenómenos aleatorios pueden exhibir características organizadas a algunos niveles. Por ejemplo, mientras la mediaporcentual del incremento de la población humana es bastante predecible, en términos sencillos, el intervalo real delos nacimientos y muertes individuales no se pueden predecir. Esta aleatoriedad a pequeña escala se encuentra encasi todos los sistemas del mundo real. La ley de Ohm y la teoría cinética de los gases son estadísticamentedescripciones reales de cálculos (por ejemplo, el resultado neto o la integración) de vastas cantidades de números deeventos individuales atómicos, cada uno de los cuales son aleatorios, y ninguno de ellos son individualmentepredecibles.Los sistemas caóticos son impredecibles en la práctica debido a su extrema dependencia de las condiciones iniciales.Si son o no impredecibles en términos de la teoría de la computabilidad es objeto de actuales investigaciones. Almenos en algunas disciplinas la teoría de la computabilidad, la noción de la aleatoriedad termina siendo identificadacon impredecibilidad computacional.Se requiere la impredecibilidad en algunas aplicaciones, tales como los múltiples usos de los números aleatorios enla criptografía. En otras aplicaciones, como el modelado o la simulación, la aleatoriedad estadística es esencial, perola predictibilidad también sirve de ayuda (por ejemplo, cuando se ejecutan repetidamente simulaciones o pruebas dereconocimiento, puede ser muy útil poder volver a ejecutar el modelo con la entrada aleatoria exacta numerosasveces).Lidiar sensiblemente con la aleatoriedad es un problema duro para la ciencia moderna, las matemáticas, la psicologíay la filosofía. Meramente definirlo adecuadamente, para los propósitos de una disciplina es dificultoso.Distinguiendo entre aparente aleatoriedad y la verdadera no ha sido más sencillo. En adición, asegurarimprevisibilidad, especialmente contra una grupo bien motivado, ha sido más difícil aún.Algunos filósofos han discutido que no hay aleatoriedad en el universo, solo imprevisibilidad. Otros encuentran ladistinción sin sentido (ver determinismo para más información).

Page 113: códigos - libro wikipedia

Aleatoriedad 110

Aleatoriedad y religiónAlgunos teólogos han intentado resolver la aparente contradicción entre la deidad omnisciente, o el libre albedríousando aleatoriedad. Los discordianistas tiene una fuerte creencia en ella y en la impredecibilidad. 1

Aplicaciones y usos de la aleatoriedadLos números aleatorios fueron investigados primero en el contexto de las apuestas, y muchos dispositivosaleatorizados tales como los dados, las cartas, y las ruletas, fueron primero desarrollados para ser usados en apuestas.La habilidad de producir justamente números aleatorios es vital a la apuesta electrónica, y como tal, los métodosusados para crearlas son usualmente regulador por las Juntas de Control de Juego gubernamentales.Los números aleatorios son también usados para otros propósitos, donde sus uso es matemáticamente importante, talcomo muestras de urnas de opinión, y en situaciones donde la "equidad" es aproximada por aleatorización, tal comoseleccionar jurados. Soluciones computacionales para algunos tipos de problemas usan extensivamente númerosaleatorios, tal como en el método de Montecarlo y en algoritmos genéticos.

Generando AleatoriedadEn su libro "Una nueva forma de ciencia", Stephen Wolfram describe tres mecanismos responsables de(aparentemente) conducta aleatoria en los sistemas:1. Aleatoriedad viniendo del entorno (por ejemplo, movimiento browniano, pero también hardware generador de

números aleatorios).2. Aleatoriedad viniendo de las condiciones iniciales. Este aspecto es estudiado por la Teoría del Caos, y es

observado en sistemas cuyo comportamiento es muy sensitivo a pequeñas variaciones en dicha condicionesiniciales (tales como las máquinas de pachinko, dados...).

3. Aleatoriedad intrínsecamente generada por el sistema. Ésta es también llamada secuencia pseudoaleatoria, y es eltipo usado en los generadores de números pseudoaleatorios. Hay muchos algoritmos (basados en aritmética oautómatas celulares) para generar números pseudoaleatorios. El comportamiento del sistema puede serdeterminado sabiendo el estado de la semilla y el algoritmo usado. Este método es más rápido que obtener"verdadera" aleatoriedad del entorno.

Las muchas aplicaciones de la aleatoriedad han llevado a muchos métodos diferentes para generar datos aleatorios.Estos métodos pueden variar depende de cuán impredecible o estadísticamente aleatorios son, y cuán rápido puedengenerar números aleatorios.Antes del avance de los generadores computacionales de números aleatorios, generar grandes cantidades de númerossuficientemente aleatorios (importante en estadística) requería mucho trabajo. Los resultados podían ser algunasveces ser colectados y distribuidos como tablas de números aleatorios.

Enlaces relacionado con generar aleatoriedad•• Entropía (información)•• Teoría de probabilidad•• Secuencia pseudoaleatoria•• Número aleatorio•• Variable aleatoria•• Proceso estocástico

Page 114: códigos - libro wikipedia

Aleatoriedad 111

Malinterpretaciones / falacias lógicasPercepciones populares de la aleatoriedad están frecuentemente equivocadas, basadas en falacias lógicas. Elseguimiento en un intento de identificar la fuente de tales falacias y corregir los errores lógicos.

Un número está "debido"Este argumento dice que "ya que todos los números eventualmente saldrán en una selección aleatoria, aquellos quetodavía no hayan salido están 'debidos' y es más probable que salgan pronto". Esta lógica es solo correcta si esaplicada a un sistema donde los números que salen son removidos del sistema, así como cuando se barajan las cartasy se regresan al mazo. Es verdad, por ejemplo, que una vez que una J es removida del mazo, la próxima carta esmenos probable que sea una J y más probable que sea otra. Sin embargo, si la J es regresada al mazo, y este esrebarajado, hay una oportunidad igual de sacar una J o cualquier otra carta la próxima vez. La misma verdad seaplica a cualquier otro caso donde los objetos son seleccionados independientemente y nada es removido del sistemaluego de cada evento, así como una tirada de dado, de moneda o la mayoría de las loterías.

Un número está "maldito"Este argumento es casi la reversa del de arriba, y dice que los números que han salido de forma menos seguida en elpasado continuarán viniendo con menor frecuencia en el futuro. Un argumento similar, "número 'bendito'", puedeestar diciendo que los números que han salido con mayor frecuencia en el pasado lo harán en el futuro. Esta lógica essolo válida si la tirada es de alguna manera parcial y los resultados no tienen igual probabilidades -por ejemplo, conun dado pesado. Si sabemos con seguridad que la tirada es justa, entonces eventos previos no tienen influencia eneventos futuros.Nótese que en la naturaleza, eventos inesperados o inciertos raramente ocurren con frecuencias perfectamenteiguales, de esta manera el aprender qué eventos son probables que tengan probabilidades más altas observandoresultados tiene sentido. Lo que es falaz es aplicar esta lógica a sistemas que son especialmente diseñados para quetodos los resultados sean igualmente probables -tales como los dados, las ruletas, etc.

Citas• "Dios no juega a los dados con el universo". —Albert Einstein• "Números aleatorios no deberían ser generados por un método elegido aleatoriamente". —Donald E. Knuth• "La generación de números aleatorios es demasiado importante para ser librada al azar". —Robert R. Coveyou,

Laboratorio Nacional de Oak Ridge, 1969• "Aquello que es estático y repetitivo es aburrido. Aquello que es dinámico y aleatorio es confuso. En el medio

yace el arte". —John Locke• "Rio de lo predecible y cuento lo pseudo aleatorio". —Steven Roddis• "¿Cómo osamos hablar de las leyes del azar? ¿No es azar la antítesis de toda ley?". — Joseph Bertrand, Calcul

des probabilités, 1889

Page 115: códigos - libro wikipedia

Aleatoriedad 112

Bibliografía• Deborah J. Bennett (1998). Randomness. Harvard University Press. ISBN 0-674-10745-4.• Olav Kallenberg (1986). Random Measures, 4ta ed.. Academic Press, New York, London; Akademie-Verlag,

Berlin. MR0854102.• Donald E. Knuth (1997). The Art of Computer Programming. Vol. 2: Seminumerical Algorithms, 3ra ed..

Reading, MA: Addison-Wesley. ISBN 0-201-89684-2.• Nassim Nicholas Taleb (2004). Fooled by Randomness, 2da ed.. Thomson Texere. 1-58799-190-X.• Gregory Chaitin (2001). Exploring Randomness. Springer-Verlag London. ISBN 1-85233-417-7.

Enlaces externos• WikiquoteCitas en Wikiquote.• ¿Puedes creer a la aleatoriedad? [1] (enlace roto disponible en Internet Archive; véase el historial [2] y la última versión [3]).

• Random.org [4]

• Aleatoriedad y prueba matemática [5]

• Un programa de prueba con secuencias numerales pseudoaleatorias (Dominio Público) [6]

• Diccionario de la Historia de Ideas: [7] Azar• Filosofía: Libre Voluntad vs. Determinación [8]

• Historia de las definiciones de aleatoriedad [9], en "Un nuevo tipo de ciencia" de Stephen Wolfram.

Referencias[1] http:/ / wetzel. psych. rhodes. edu/ random/ intro. html[2] http:/ / web. archive. org/ web/ */ http:/ / wetzel. psych. rhodes. edu/ random/ intro. html[3] http:/ / web. archive. org/ web/ 2/ http:/ / wetzel. psych. rhodes. edu/ random/ intro. html[4] http:/ / www. random. org[5] http:/ / www. cs. auckland. ac. nz/ CDMTCS/ chaitin/ sciamer. html[6] http:/ / www. fourmilab. ch/ random/[7] http:/ / etext. lib. virginia. edu/ cgi-local/ DHI/ dhi. cgi?id=dv1-46[8] http:/ / www. spaceandmotion. com/ Philosophy-Free-Will-Determinism. htm[9] http:/ / www. wolframscience. com/ nksonline/ page-1067b-text

Page 116: códigos - libro wikipedia

Teoría de la computabilidad 113

Teoría de la computabilidad

VEB Robotron Elektronik Dresden.

La Teoría de la computabilidad es la parte de la computación queestudia los problemas de decisión que pueden ser resueltos con unalgoritmo o equivalentemente con una máquina de Turing. La teoría dela computabilidad se interesa a cuatro preguntas:

•• ¿Qué problemas puede resolver una máquina de Turing?•• ¿Qué otros formalismos equivalen a las máquinas de Turing?•• ¿Qué problemas requieren máquinas más poderosas?•• ¿Qué problemas requieren máquinas menos poderosas?La teoría de la complejidad computacional clasifica las funcionescomputables según el uso que hacen de diversos recursos en diversostipos de máquina.

AntecedentesEl origen de los modelos abstractos de computación se encuadra en los años '30 (antes de que existieran losordenadores modernos), para el trabajo de los lógicos Alonzo Church, Kurt Gödel, Stephen Kleene, Emil Leon Post,y Alan Turing. Estos trabajos iniciales han tenido una profunda influencia, tanto en el desarrollo teórico como enabundantes aspectos de la práctica de la computación; previendo incluso la existencia de ordenadores de propósitogeneral, la posibilidad de interpretar programas, la dualidad entre software y hardware, y la representación delenguajes por estructuras formales basados en reglas de producción.El punto inicial de estos primeros trabajos fueron las cuestiones fundamentales que David Hilbert formuló en 1900,durante el transcurso de un congreso internacional.Lo que Hilbert pretendía era crear un sistema matemático formal completo y consistente en el cual, todas lasaseveraciones fueran planteadas con precisión. Su intención era encontrar un algoritmo que determinara la verdad ofalsedad de cualquier proposición en el sistema formal. Al problema en cuestión se le denominóEntscheidungsproblem. En caso de que Hilbert hubiese cumplido su objetivo, cualquier problema bien definido seresolvería simplemente al ejecutar dicho algoritmo.Pero no fueron otros los que mediante una serie de investigaciones mostraron que esto no era posible. En contra deesta idea K. Gödel sacó a la luz su conocido Primer Teorema de Incompletitud. Este viene a expresar que todosistema de primer orden consistente que contenga los teoremas de la aritmética y cuyo conjunto de axiomas searecursivo no es completo. Gödel construyó una fórmula que es satisfactoria pero que no puede ser probada en elsistema. Como consecuencia, no es posible encontrar el sistema formal deseado por Hilbert en el marco de la lógicade primer orden, a no ser que se tome un conjunto no recursivo de axiomas.Una posterior versión, que resulta más general, del teorema de incompletitud de Gödel, indica que ningún sistemadeductivo que contenga los teoremas de la aritmética, y con los axiomas recursivamente enumerables puede serconsistente y completo a la vez. Esto hace pensar, a nivel intuitivo, que no va a ser posible definir un sistema formal.

Page 117: códigos - libro wikipedia

Teoría de la computabilidad 114

¿Qué problemas puede resolver una máquina de Turing?No todos los problemas pueden ser resueltos. Un problema indecidible es uno que no puede ser resuelto con unalgoritmo aún si se dispone de espacio y tiempo ilimitado. Actualmente se conocen muchos problemas indecidibles,como por ejemplo:• El Entscheidungsproblem (problema de decisión en alemán) que se define como: Dada una frase del cálculo de

predicados de primer orden, decidir si ella es un teorema. Church y Turing demostraron independientemente queeste problema es indecidible (ver Tesis de Church-Turing).

• El Problema de la parada, que se define así: Dado un programa y su entrada, decidir si ese programa terminarápara esa entrada o si correrá indefinidamente. Turing demostró que se trata de un problema indecidible.

• Un número computable es un número real que puede ser aproximado por un algoritmo con un nivel de exactitudarbitrario. Turing demostró que casi todos los números no son computables. Por ejemplo, la Constante de Chaitinno es computable aunque sí que está bien definido.

¿Qué otros formalismos equivalen a las máquinas de Turing?Los lenguajes formales que son aceptados por una máquina de Turing son exactamente aquellos que pueden sergenerados por una gramática formal. El cálculo Lambda es una forma de definir funciones. Las funciones quepueden ser computadas con el cálculo Lambda son exactamente aquellas que pueden ser computadas con unamáquina de Turing. Estos tres formalismos, las máquinas de Turing, los lenguajes formales y el cálculo Lambda sonformalismos muy disímiles y fueron desarrollados por diferentes personas. Sin embargo, todos ellos son equivalentesy tienen el mismo poder de expresión. Generalmente se toma esta notable coincidencia como evidencia de que latesis de Church-Turing es cierta, que la afirmación de que la noción intuitiva de algoritmo o procedimiento efectivode cómputo corresponde a la noción de cómputo en una máquina de Turing.Los computadores electrónicos, basados en la arquitectura de von Neumann así como las máquinas cuánticastendrían exactamente el mismo poder de expresión que el de una máquina de Turing si dispusieran de recursosilimitados de tiempo y espacio. Como consecuencia, los lenguajes de programación tienen a lo sumo el mismo poderde expresión que el de los programas para una máquina de Turing y en la práctica no todos lo alcanzan. Loslenguajes con poder de expresión equivalente al de una máquina de Turing se denominan Turing completos.Entre los formalismos equivalentes a una máquina de Turing están:•• Máquinas de Turing con varias cintas• Máquinas de Turing con cintas bidimensionales, Turmite (o una infinidad de cintas lineales)•• Máquinas de Turing con número limitado de estados y símbolos para la cinta•• Máquinas de Turing con solo dos estados• Autómatas finitos con dos pilas•• Autómatas finitos con dos contadores•• Gramáticas formales•• Máquina de Post•• Cálculo Lambda•• Funciones recursivas parciales• Casi todos los lenguajes de programación modernos si dispusieran de memoria ilimitada•• Autómatas celulares• El Juego de la vida de John Conway•• Máquinas de Turing no determinísticas•• Máquinas de Turing probabilísticas•• Computador cuántico

Page 118: códigos - libro wikipedia

Teoría de la computabilidad 115

Los últimos tres ejemplos utilizan una definición ligeramente diferente de aceptación de un lenguaje. Ellas aceptanuna palabra si cualquiera, cómputo acepta (en el caso de no determinismo), o la mayoría de los cómputos aceptan(para las versiones probabilística y cuántica). Con estas definiciones, estas máquinas tienen el mismo poder deexpresión que una máquina de Turing.

¿Qué problemas requieren máquinas más poderosas?Se considera que algunas máquinas tienen mayor poder que las máquinas de Turing. Por ejemplo, una máquinaoráculo que utiliza una caja negra que puede calcular una función particular que no es calculable con una máquina deTuring. La fuerza de cómputo de una máquina oráculo viene descrita por su grado de Turing. La teoría de cómputosreales estudia máquinas con precisión absoluta en los números reales. Dentro de esta teoría, es posible demostrarafirmaciones interesantes, tales como «el complemento de un conjunto de Mandelbrot es solo parcialmentedecidible».

Teoría de la complejidad computacionalLa Teoría de la Complejidad Computacional es una rama de la teoría de la computación que se centra en laclasificación de los problemas computacionales de acuerdo a su dificultad inherente, y en la relación entre dichasclases de complejidad.Un problema se cataloga como "inherentemente difícil" si su solución requiere de una cantidad significativa derecursos computacionales, sin importar el algoritmo utilizado. La teoría de la complejidad computacional formalizadicha aseveración, introduciendo modelos de cómputo matemáticos para el estudio de estos problemas y lacuantificación de la cantidad de recursos necesarios para resolverlos, como tiempo y memoria.Uno de los roles de la teoría de la complejidad computacional es determinar los límites prácticos de qué es lo que sepuede hacer en una computadora y qué no. Otros campos relacionados con la teoría de la complejidad computacionalson el análisis de algoritmos y la teoría de la computabilidad. Una diferencia significativa entre el análisis dealgoritmos y la teoría de la complejidad computacional, es que el primero se dedica a determinar la cantidad derecursos requeridos por un algoritmo en particular para resolver un problema, mientras que la segunda, analiza todoslos posibles algoritmos que pudieran ser usados para resolver el mismo problema.La teoría de la complejidad computacional trata de clasificar los problemas que pueden, o no pueden ser resueltoscon una cantidad determinada de recursos. A su vez, la imposición de restricciones sobre estos recursos, es lo que ladistingue de la teoría de la computabilidad, la cual se preocupa por qué tipo de problemas pueden ser resueltos demanera algorítmica.

HistoriaAntes de que se realizaran investigaciones en torno a la complejidad de los algoritmos, se crearon los cimientos deesta teoría por varios investigadores. Uno de los aportes más influyentes fue la definición de las Máquinas de Turingen 1936, las cuales resultaron ser una noción de computadora muy flexible y robusta. A medida que lascomputadoras se desarrollaban en los 40's y los 50's, la Máquina de Turing demostró ser el modelo teórico correctode cómputo.Sin embargo, rápidamente se descubrió que el modelo básico de la Máquina de Turing fallaba al cuantificar eltiempo y la memoria requerida por una computadora, un problema crítico hoy en día, y aún más en aquellos tiempos.La idea de medir el tiempo y espacio como una función de la longitud de la entrada, se originó a principios de los60's por Hartmanis and Stearns, y así, nació la teoría de la complejidad computacional.

Page 119: códigos - libro wikipedia

Teoría de la complejidad computacional 116

En los inicios, los investigadores trataban de entender las nuevas medidas de complejidad, y cómo se relacionabanunas con otras. En 1965, Edmonds definió un "buen" algoritmo como uno con un tiempo de ejecución acotado porun polinomio, es decir, con un tiempo de ejecución polinomial[1]. Esto condujo al surgimiento de uno de losconceptos más importantes de la teoría de la complejidad computacional: la NP-completitud y su preguntafundamental, si P=NP.El campo comenzó a florecer cuando el investigador norteamericano Stephen Cook , trabajando de maneraindependiente al investigador soviético Leonid Levin, probaron que existen problemas relevantes que sonNP-completos. En 1972, Richard Karp llevó esta idea un paso más adelante, demostrando que 21 problemascombinatorios y de teoría de grafos, caracterizados por ser computacionalmente intratables, eran NP-completos[2].También en los 70's, se produjo un crecimiento de las clases de complejidad a medida que los investigadores tratabande comprender los distintos modelos de cómputo existentes.En los 80's, se produjo un auge de los modelos finitos, que analizaban el proceso de cómputo de una manerainherentemente distinta. Surgió un nuevo acercamiento a problemas como P=NP, y aún cuando estos modelos teníansus limitaciones separando las clases de complejidad, esta aproximación introdujo técnicas combinatorias quepermitieron un mejor entendimiento de los límites de estos modelos.Ya en los 90's, se estudiaron nuevos modelos de cómputo como las computadoras cuánticas, donde una misma tareapuede tener diferente complejidad en la computación clásica y en la computación cuántica. Sin embargo, existenvarias limitantes, entre ellas, la de desarrollar un hardware para este modelo, y que se requieren grandes cantidadesde espacio para realizar los cálculos.

Problemas, algoritmos y complejidadPara poder referirnos a problemas como "inherentemente intratables" y problemas de dificultad "equivalente", esnecesario comprender algunos términos más básicos.

Problema computacionalUn problema computacional constituye una pregunta a ser respondida, teniendo generalmente varios parámetros, ovariables libres, cuyos valores no se han especificado. Un problema se describe mediante:1.1. Una descripción general de todos sus parámetros (pueden ser de entrada o de salida).2.2. Una sentencia que describa las propiedades que la respuesta, o la solución, debe cumplir.Una instancia de un problema se obtiene cuando se especifican valores particulares para todos los parámetros delproblema. Por ejemplo, consideremos el problema del test de primalidad. La instancia es un número (e.g. 15) y lasolución es "sí" si el número es primo, y "no" en caso contrario. Visto de otra manera, la instancia es una entradaparticular del problema, y la solución es la salida correspondiente para la entrada dada.

Problemas de decisiónUn problema de decisión es un tipo especial de problema computacional cuya respuesta es solamente "sí" o "no" (o,de manera más formal, "1" o "0").Un problema de decisión pudiera verse como un lenguaje formal, donde los elementos que pertenecen al lenguajeson las instancias del problema cuya respuesta es "sí", los que no pertenecen al lenguaje son aquellas instancias cuyarespuesta es "no". El objetivo es decidir, con la ayuda de un algoritmo, si una determinada entrada es un elementodel lenguaje formal considerado. Si el algoritmo devuelve como respuesta "sí", se dice que el algoritmo acepta laentrada, de lo contrario se dice que la rechaza.Los problemas de decisión constituyen uno de los principales objetos de estudio de la teoría de la complejidadcomputacional, pues la NP-compleitud se aplica directamente a estos tipos de problemas en vez de a problemas deoptimización. Estos problemas tienen gran importancia porque casi todo problema puede transformarse en un

Page 120: códigos - libro wikipedia

Teoría de la complejidad computacional 117

problema de decisión.

AlgoritmosPodemos decir informalmente, que los algoritmos son procedimientos paso-a-paso para resolver problemas. Sepuede pensar en ellos como simples programas de computadora, escritos en un lenguaje artificial específico[3].Se dice que un algoritmo resuelve un problema A, si dicho algoritmo se puede aplicar a cualquier instancia I de A, yse garantiza que siempre produce una solución para dicha instancia. De manera general, nos interesa encontrar elalgoritmo más "eficiente" para resolver cierto problema. En su sentido más amplio, la noción de eficiencia involucraa todos los recursos computacionales necesarios para la ejecución de un algoritmo.Por algoritmo "más eficiente" usalmente nos referimos al más rápido. Debido a que los requerimientos de tiempo sonusualmente un factor dominante cuando se trata de determinar si un algoritmo es lo suficientemente eficiente para serútil en la práctica, nos concentraremos en este recurso.

Algoritmos polinomiales y problemas intratablesLos científicos de la computación realizan la distinción entre algoritmos de tiempo polinomial y algoritmos detiempo exponencial cuando se trata de caracterizar a los algoritmos como "suficientemente eficiente" y "muyineficiente" respectivamente.Un algoritmo de tiempo polinomial se define como aquel con función de complejidad temporal en O(p(n)) paraalguna función polinómica p, donde n denota el tamaño de la entrada. Cualquier algoritmo cuya función decomplejidad temporal no pueda ser acotada de esta manera, se denomina algoritmo de tiempo exponencial.La mayoría de los algoritmos de tiempo exponencial son simples variaciones de una búsqueda exhaustiva, mientrasque los algoritmos de tiempo polinomial, usualmente se obtienen mediante un análisis más profundo de la estructuradel problema. En la teoría de la complejidad computacional, existe el consenso de que un problema no está "bienresuelto" hasta que se conozca un algoritmo de tiempo polinomial que lo resuelva. Por tanto, nos referiremos a unproblema como intratable, si es tan difícil que no existe algoritmo de tiempo polinomial capaz de resolverlo[4].

Clases de complejidadUna clase de complejidad es un conjunto de problemas que poseen la misma complejidad computacional.

Definiendo clases de complejidadLas clases de complejidad más sencillas se definen teniendo en cuenta factores como:•• El tipo de problema computacional: Los problemas más comunmente utilizados son los problemas de decisión,

pero las clases de complejidad se pueden definir para otros tipos de problemas.•• El modelo de cómputo: El modelo de cómputo más común es la Máquina de Turing determinista, pero muchas

clases de complejidad se basan en Máquinas de Turing no deterministas, Máquinas de Turing cuánticas, etc.•• El recurso (o recursos) que está(n) siendo acotado(s) y la(s) cota(s): Estas dos propiedades usualmente se utilizan

juntas, por ejemplo, "tiempo polinomial", "espacio logarítmico", "profundidad constante", etc.

Page 121: códigos - libro wikipedia

Teoría de la complejidad computacional 118

Máquinas de Turing deterministas y la clase PLa clase P contiene a aquellos problemas que son solubles en tiempo polinomial por una Máquina de Turingdeterminista[5].Para la definición anterior se ha fijado el modelo de cómputo: la Máquina de Turing determinista. Existen distintasvariantes de la Máquina de Turing y es conocido que la más débil de ellas puede simular a la más fuerte, adicionandoa lo sumo un tiempo polinomial. En las décadas posteriores a la Tesis de Church-Turing surgieron otros modelos decómputo, y se pudo mostrar que la Máquina de Turing también podía simularlos a lo sumo adicionando también untiempo polinomial. Por tanto, la clase análoga a P para dichos modelos no es mayor que la clase P para el modelo decómputo de la Máquina de Turing.La clase P juega un papel importante en la teoría de la complejidad computacional debido a que:1.1. P es invariante para todos los modelos de cómputo que son polinómicamente equivalentes a la Máquina de

Turing determinista.2.2. A grandes rasgos, P corresponde a la clase de problemas que, de manera realista, son solubles en una

computadora.

Computación no determinista y la clase NPMuchas veces podemos evitar utilizar la fuerza bruta en los problemas para obtener soluciones en tiempo polinomial.Sin embargo, para algunos problemas esto no ha podido lograrse, es decir, no se conocen algoritmos que losresuelvan en tiempo polinomial. Quizás estos problemas tengan algoritmos en tiempo polinomial que se basan enprincipios por ahora desconocidos, o quizás estos problemas no pueden ser resueltos en tiempo polinomial, debido aque son "inherentemente difíciles".La clase de complejidad NP consta de los problemas "verificables" en tiempo polinomial. Por verificable se entiendea un problema tal que dado un certificado de solución (candidato a solución), se puede verificar que dicho certificadoes correcto en un tiempo polinomial en el tamaño de la entrada. A los problemas en la clase NP usualmente se lesllama problemas NP[6].El término NP proviene de no determinista en tiempo polinomial y se deriva de un caracterización alternativa deesta clase, donde se utilizan Máquinas de Turing no deterministas. Informalmente, se puede definir la clase NP entérminos de un algoritmo no determinista (recordar la equivalencia entre algoritmo y Máquina de Turing).El algoritmo mencionado está compuesto por 2 etapas separadas. Dada una instancia del problema I, la primera etapasimplemente "adivina" un candidato a solución S. Entonces, la etapa de verificación recibe como entrada a I y a S, yprocede a realizar el cómputo de una manera determinista, finalmente deteniéndose con la respuesta "sí", o con larespuesta "no", o sigue computando sin detenerse.Al igual que la clase P, la clase NP es insensible a la elección del modelo de cómputo no determinista, debido a quedichos modelos son equivalentes polinómicamente.

Clases de complejidad importantesMuchas clases de complejidad importantes pueden ser definidas acotando el tiempo o el espacio utilizado por elalgoritmo. Algunas de estas clases de problemas de decisión son:

Page 122: códigos - libro wikipedia

Teoría de la complejidad computacional 119

Complexity class Model of computation Resource constraint

DTIME(f(n)) Máquina de Turing determinista Tiempo f(n)

P Máquina de Turing determinista Tiempo poly(n)

EXPTIME Máquina de Turing determinista Tiempo 2poly(n)

NTIME(f(n)) Máquina de Turing no determinista Tiempo f(n)

NP Máquina de Turing no determinista Tiempo poly(n)

NEXPTIME Máquina de Turing no determinista Tiempo 2poly(n)

DSPACE(f(n)) Máquina de Turing determinista Espacio f(n)

L Máquina de Turing determinista Espacio O(log n)

PSPACE Máquina de Turing determinista Espacio poly(n)

EXPSPACE Máquina de Turing determinista Espacio 2poly(n)

NSPACE(f(n)) Máquina de Turing no determinista Espacio f(n)

NL Máquina de Turing no determinista Espacio O(log n)

NPSPACE Máquina de Turing no determinista Espacio poly(n)

NEXPSPACE Máquina de Turing no determinista Espacio 2poly(n)

La pregunta P=NPLa relación entre las clases P y NP es fundamental para la teoría de la NP-completitud. Intuitivamente, creemos queP es un subconjunto de NP. Y efectivamente, cada problema de decisión resuelto por un algoritmo de tiempopolinomial determinista, también puede ser resuelto por un algoritmo de tiempo polinomial no determinista.Simplemente se necesita observar que cualquier algoritmo determinista puede ser utilizado en la etapa deverificación de un algoritmo no determinista. Si B es un problema de P, y A es un algoritmo de tiempo polinomialpara B, entonces se puede construir un algoritmo de tiempo polinomial no determinista para B, simplementeutilizando A en la etapa de verificación e ignorando la etapa de adivinación. Por tanto, si B pertenece a P, entonces Btambién pertenece a NP.La pregunta P=NP es una de las más importantes en el campo de las ciencias de la computación, debido a las grandesrepercusiones que habrían, en caso de encontrarse una solución. Si P=NP, cualquier problema polinómicamenteverificable fuera polinómicamente decidible. La mayoría de los investigadores creen que estas clases no son iguales,porque se han realizado bastantes esfuerzos para encontrar algoritmos de tiempo polinomial para varios problemasen NP, sin éxito. Los investigadores también han tratado de probar que las clases son distintas, pero eso conllevaría amostrar que no existe un algoritmo "eficiente" para reemplazar a la búsqueda por fuerza bruta.

Page 123: códigos - libro wikipedia

Teoría de la complejidad computacional 120

NP-Completitud

Reducción polinomialUna reducción es una transformación de un problema en otro problema. Intuitivamente, un problema Q puede serreducido a otro problema Q', si cualquier instancia del problema Q puede ser "fácilmente" expresada como unainstancia del problema Q', y cuya solución proporcione una solución para la instancia de Q[7].Existen muchos tipos de reducciones: basadas en el método de reducción, como las reducciones de Cook, lasreducciones de Karp y las reducciones de Levin, y las basadas en la cota de la complejidad, como la reducción entiempo polinomial o la reducción de espacio logarítmica. Una de las reducciones más utilizadas es la reducción entiempo polinomial, lo cual significa que el proceso de reducción toma un tiempo polinomial.

Problemas NP-completosLas reducciones en tiempo polinomial nos dotan de elementos para probar, de una manera formal, que un problemaes al menos tan difícil que otro, con una diferencia de un factor polinomial. Estas son esenciales para definir a losproblemas NP-completos, además de ayudar a comprender los mismos.La clase de los problemas NP-completos contiene a los problemas más difíciles en NP, en el sentido de que son losque estén más lejos de estar en P. Debido a que el problema P=NP no ha sido resuelto, el hecho de reducir unproblema B, a otro problema A, indicaría que no se conoce solución en tiempo polinomial para A. Esto es debido aque una solución en tiempo polinomial para A, tendría como consecuencia la existencia de una solución polinomialpara B. De manera similar, debido a que todos los problemas NP pueden ser reducidos a este conjunto, encontrar unproblema NP-completo que pueda ser resuelto en un tiempo polinomial significaría que P=NP.

Importancia de la NP-CompletitudQuizás la razón de mayor peso por la cual los científicos de la computación creen que P es distinto de NP, es laexistencia de la clase de problemas "NP-completos". Esta clase tiene la curiosa propiedad de que si algún problemaNP-completo puede ser resuelto en tiempo polinomial, entonces todo problema en NP tiene una solución en tiempopolinomial, es decir, P=NP. A pesar de años de estudio, ningún algoritmo de tiempo polinomial se ha descubiertopara ningún problema NP-completo.Desde el punto de vista teórico, un investigador intentando mostrar que la clase P es distinta de la clase NP, pudieraenfocarse en un problema NP-completo. Si algún problema en NP requiere más que un tiempo polinomial, entoncesuno NP-completo también. Además, un investigador intentando demostrar que P=NP, solo necesita encontrar unalgoritmo de tiempo polinomial para un problema NP-completo para lograrlo.Desde el punto de vista práctico, el fenómeno de la NP-completitud puede prevenir la pérdida de tiempo cuando sebusca un algoritmo de tiempo polinomial no existente para resolver un problema determinado. Aún cuando no seposean los elementos matemáticos para demostrar que cierto problema no se puede resolver en timepo polinomial,creemos que P no es igual a NP, así que demostrar que el problema es NP-completo, es una fuerte evidencia de su no"polinomialidad".

Page 124: códigos - libro wikipedia

Teoría de la complejidad computacional 121

Haciendo frente a problemas NPTeniendo en cuenta la definición de problema intratable, si no se cumple que P=NP, entonces los problemasNP-completos son intratables.Muchos problemas de la práctica son NP-completos, y son muy importantes como para desistir simplemente porqueno sabemos cómo encontrar una solución óptima en tiempo polinomial. Aún si un problema es NP-completo, puedenhaber esperanzas. Existen tres estrategias fundamentales para lidiar con un problema NP-completo:•• Si la entrada es pequeña, un algoritmo con tiempo de ejecución exponencial pudiera ser perfectamente aceptable.•• Se pudieran aislar algunos casos especiales que se pudieran resolver en tiempo polinomial.• Podríamos utilizar aproximaciones para encontrar soluciones lo suficientemente cercanas al óptimo en tiempo

polinomial. En la práctica, obtener soluciones cercanas al óptimo es bastante aceptable. A estos algoritmos se lesdenomina algoritmos de aproximación, y en muchos casos se apoyan en heurísticas y metaheurísticas.

Referencias[1][1] Richard M. Karp, "Combinatorics, Complexity, and Randomness", 1985 Turing Award Lecture.[2] Richard M. Karp (1972), « Reducibility Among Combinatorial Problems (http:/ / www. cs. berkeley. edu/ ~luca/ cs172/ karp. pdf)», en R. E.

Miller and J. W. Thatcher (editors), Complexity of Computer Computations, New York: Plenum, pp. 85–103.[3] Garey, Michael R., Johnson David S., (1979), Computers and Intractability: A Guide to the Theory of NP-Completeness, W. H. Freeman,

(page 4).[4] Garey, Michael R., Johnson David S., (1979), Computers and Intractability: A Guide to the Theory of NP-Completeness, W. H. Freeman,

(page 8).[5] Cormen, Thomas H.; Leiserson, Charles E.; Rivest, Ronald L. & Stein, Clifford, (2010), Introduction to Algorithms, 3ra edición, MIT Press

and McGraw-Hill, (page 1049).[6] Garey, Michael R., Johnson David S., (1979), Computers and Intractability: A Guide to the Theory of NP-Completeness, W. H. Freeman,

(page 28).[7] Cormen, Thomas H.; Leiserson, Charles E.; Rivest, Ronald L. & Stein, Clifford, (2010), Introduction to Algorithms, 3ra edición, MIT Press

and McGraw-Hill, (page 1067).

Artículos• Cook, Stephen (1983), «An overview of computational complexity», Commun. ACM (ACM) 26 (6): 400–408,

ISSN 0001-0782 (http:/ / worldcat. org/ issn/ 0001-0782)• Fortnow, Lance; Homer, Steven (2002), « A Short History of Computational Complexity (http:/ / people. cs.

uchicago. edu/ ~fortnow/ papers/ history. pdf)», Bulletin of the EATCS 80: 95–133

Libros de texto• Arora, Sanjeev; Barak, Boaz (2009), Computational Complexity: A Modern Approach (http:/ / www. cs.

princeton. edu/ theory/ complexity/ ), Cambridge, ISBN 978-0-521-42426-4

• Sipser, Michael (2006), Introduction to the Theory of Computation (2da edición), USA: Thomson CourseTechnology, ISBN 0-534-95097-3

• Garey, Michael R.; Johnson, David S., (1979), Computers and Intractability: A Guide to the Theory ofNP-Completeness, W. H. Freeman, ISBN 0-7167-1045-5.

• Cormen, Thomas H.; Leiserson, Charles E.; Rivest, Ronald L. & Stein, Clifford (2010), Introduction toAlgorithms (3ra edición), Cambridge, MA: MIT Press and McGraw-Hill, ISBN 0-262-03384-4.

Page 125: códigos - libro wikipedia

Teoría de la computación 122

Teoría de la computaciónLa teoría de la computación es una rama de la matemática y la computación que centra su interés en laslimitaciones y capacidades fundamentales de las computadoras. Específicamente esta teoría busca modelosmatemáticos que formalizan el concepto de hacer un cómputo (cuenta o cálculo) y la clasificación de problemas.

Principales subramas

Teoría de autómatasEsta teoría provee modelos matemáticos que formalizan el concepto de computadora o algoritmo de manerasuficientemente simplificada y general para que se puedan analizar sus capacidades y limitaciones. Algunos de estosmodelos juegan un papel central en varias aplicaciones de las ciencias de la computación, incluyendo procesamientode texto, compiladores, diseño de hardware e inteligencia artificial.Los tres principales modelos son los autómatas finitos, autómatas con pila y máquinas de Turing, cada uno consus variantes deterministas y no deterministas. Los autómatas finitos son buenos modelos de computadoras quetienen una cantidad limitada de memoria, los autómatas con pila modelan los que tienen gran cantidad de memoriapero que solo pueden manipularla a manera de pila (el último dato almacenado es el siguiente leído), y las máquinasde Turing modelan las computadoras que tienen una gran cantidad de memoria almacenada en una cinta. Estosautómatas están estrechamente relacionados con la teoría de lenguajes formales; cada autómata es equivalente a unagramática formal, lo que permite reinterpretar la jerarquía de Chomsky en términos de autómatas.Existen muchos otros tipos de autómatas como las máquinas de acceso aleatorio, autómatas celulares, máquinasábaco y las máquinas de estado abstracto; sin embargo en todos los casos se ha mostrado que estos modelos no sonmás generales que la máquina de Turing, pues la máquina de Turing tiene la capacidad de simular cada uno de estosautómatas. Esto da lugar a que se piense en la máquina de Turing como el modelo universal de computadora.

Teoría de la computabilidadEsta teoría explora los límites de la posibilidad de solucionar problemas mediante algoritmos. Gran parte de lasciencias computacionales están dedicadas a resolver problemas de forma algorítmica, de manera que eldescubrimiento de problemas imposibles es una gran sorpresa. La teoría de la computabilidad es útil para no tratar deresolver algoritmicamente estos problemas, ahorrando así tiempo y esfuerzo.Los problemas se clasifican en esta teoría de acuerdo a su grado de imposibilidad:• Los computables son aquellos para los cuales sí existe un algoritmo que siempre los resuelve cuando hay una

solución y además es capaz de distinguir los casos que no la tienen. También se les conoce como decidibles,resolubles o recursivos.

• Los semicomputables son aquellos para los cuales hay un algoritmo que es capaz encontrar una solución si esque existe, pero ningún algoritmo que determine cuando la solución no existe (en cuyo caso el algoritmo paraencontrar la solución entraría a un bucle infinito). El ejemplo clásico por excelencia es el problema de la parada.A estos problemas también se les conoce como listables, recursivamente enumerables o reconocibles, porque sise enlistan todos los casos posibles del problema, es posible reconocer a aquellos que sí tienen solución.

• Los incomputables son aquellos para los cuales no hay ningún algoritmo que los pueda resolver, no importandoque tengan o no solución. El ejemplo clásico por excelencia es el problema de la implicación lógica, que consisteen determinar cuándo una proposición lógica es un teorema; para este problema no hay ningún algoritmo que entodos los casos pueda distinguir si una proposición o su negación es un teorema.

Hay una versión más general de esta clasificación, donde los problemas incomputables se subdividen a su vez en problemas más difíciles que otros. La herramienta principal para lograr estas clasificaciones es el concepto de

Page 126: códigos - libro wikipedia

Teoría de la computación 123

reducibilidad: Un problema se reduce al problema si bajo la suposición de que se sabe resolver el problema esposible resolver al problema ; esto se denota por , e informalmente significa que el problema no es más difícil deresolver que el problema . Por ejemplo, bajo la suposición de que una persona sabe sumar, es muy fácil enseñarle amultiplicar haciendo sumas repetidas, de manera que multiplicar se reduce a sumar.

Teoría de la complejidad computacionalAun cuando un problema sea computable, puede que no sea posible resolverlo en la práctica si se requiere muchamemoria o tiempo de ejecución. La teoría de la complejidad computacional estudia las necesidades de memoria,tiempo y otros recursos computacionales para resolver problemas; de esta manera es posible explicar por qué unosproblemas son más difíciles de resolver que otros. Uno de los mayores logros de esta rama es la clasificación deproblemas, similar a la tabla periódica, de acuerdo a su dificultad. En esta clasificación los problemas se separan porclases de complejidad.Esta teoría tiene aplicación en casi todas las áreas de conocimiento donde se desee resolver un problemacomputacionalmente, porque los investigadores no solo desean utilizar un método para resolver un problema, sinoutilizar el más rápido. La teoría de la complejidad computacional también tiene aplicaciones en áreas como lacriptografía, donde se espera que descifrar un código secreto sea un problema muy difícil a menos que se tenga lacontraseña, en cuyo caso el problema se vuelve fácil.

Otras subramas• Modelos de cómputo Estudia abstracciones de hacer un cómputo. Aquí se incluyen los clásicos modelos de la

teoría de autómatas además de otros modelos como funciones recursivas, cálculo lambda e inclusive lenguajes deprogramación.

• Teoría algorítmica de la información Centra su atención en la complejidad para describir algoritmicamente unasecuencia de datos (cadena); aquí la complejidad está medida por la longitud de su descripción más pequeña.

• Especificación y verificación formal Busca metodologías para garantizar que un problema esté correctamentemodelado y sistemas formales para validar la corrección de la solución algorítmica.

• La Teoría del aprendizaje computacional busca algoritmos que hagan que las computadoras modifiquen suscomportamientos de manera autónoma con base en datos empíricos, y concretamente en ejemplos ycontraejemplos. A este tipo de aprendizaje se le llama aprendizaje supervisado. De forma análoga a la teoría dela complejidad computacional, en esta teoría las funciones se clasifican por su grado de dificultad de seraprendidas.

• Teoría de tipos Busca la clasificación de enunciados de acuerdo a los tipos de valores que calculan utilizandoherramientas de teoría de lenguajes formales.

HistoriaLa teoría de la computación comienza propiamente a principios del siglo XX, poco antes que las computadoraselectrónicas fuesen inventadas. En esta época varios matemáticos se preguntaban si existía un método universal pararesolver todos los problemas matemáticos. Para ello debían desarrollar la noción precisa de método para resolverproblemas, es decir, la definición formal de algoritmo.Algunos de estos modelos formales fueron propuestos por precursores como Alonzo Church (cálculo Lambda), Kurt Gödel (funciones recursivas) y Alan Turing (máquina de Turing). Se ha mostrado que estos modelos son equivalentes en el sentido de que pueden simular los mismos algoritmos, aunque lo hagan de maneras diferentes. Entre los modelos de cómputo más recientes se encuentran los lenguajes de programación, que también han mostrado ser equivalentes a los modelos anteriores; esto es una fuerte evidencia de la conjetura de Church-Turing, de que todo algoritmo habido y por haber se puede simular en una máquina de Turing, o equivalentemente, usando funciones recursivas. En 2007 Nachum Dershowitz y Yuri Gurevich publicaron una demostración de esta conjetura

Page 127: códigos - libro wikipedia

Teoría de la computación 124

basándose en cierta axiomatización de algoritmos.[1]

Uno de los primeros resultados de esta teoría fue la existencia de problemas imposibles de resolveralgoritmicamente, siendo el problema de la parada el más famoso de ellos. Para estos problemas no existe ni existiráningún algoritmo que los pueda resolver, no importando la cantidad de tiempo o memoria se disponga en unacomputadora. Asimismo, con la llegada de las computadoras modernas se constató que algunos problemas resolublesen teoría eran imposibles en la práctica, puesto que dichas soluciones necesitaban cantidades irrealistas de tiempo omemoria para poderse encontrar.....

Referencias[1] Nachum Dershowitz & Yuri Gurevich (2008). « A natural axiomatization of computability and proof of Church's Thesis (http:/ / research.

microsoft. com/ en-us/ um/ people/ gurevich/ Opera/ 188. pdf)». Bulletin of Symbolic Logic 14 (3). ISSN 10798986, 299-350. .

• Sipser, Michael (http:/ / www-math. mit. edu/ ~sipser/ ) (2005). Introduction to the Theory of Computation (2edición). Course Technology. ISBN 978-0534950972.

• Kelley, Dean (http:/ / krypton. mnsu. edu/ ~kelled/ ) (1995). Teoría de Autómatas y Lenguajes Formales. PrenticeHall. ISBN 978-0-691-13382-9.

• Boolos, George; Burgess, John; & Jefrey, Richard (2007). Computability and logic. Cambridge. ISBN

978-0-521-70146-4.• S. Barry Cooper (2004). Computability theory. Chapman & Hall/CRC. ISBN 1-58488-237-9.• Sección 68Qxx, Theory of computing de American Mathematical Society. « 2010 Mathematics Subject

Classification. (http:/ / www. ams. org/ mathscinet/ msc/ pdfs/ classifications2010. pdf)». Consultado el 7 demarzo de 2010.

Ciencias de la computaciónLas ciencias de la computación o ciencias computacionales (popularmente solo computación) son aquellas queabarcan las bases teóricas de la información y la computación, así como su aplicación en sistemascomputacionales.[1][2][3] Existen diversos campos o disciplinas dentro de las ciencias de la computación o cienciascomputacionales; algunos resaltan los resultados específicos del cómputo (como los gráficos por computadora),mientras que otros (como la teoría de la complejidad computacional) se relacionan con propiedades de los algoritmosusados al realizar cómputos y otros se enfocan en los problemas que requieren la implementación de cómputos. Porejemplo, los estudios de la teoría de lenguajes de programación describen un cómputo, mientras que la programaciónde computadoras aplica lenguajes de programación específicos para desarrollar una solución a un problemacomputacional específico.La informática se refiere al tratamiento automatizado de la información de una forma útil y oportuna. No se debeconfundir el carácter teórico de esta ciencia con otros aspectos prácticos como Internet.Según Peter J. Denning, la cuestión fundamental en que se basa la ciencia de la computación es: "¿Qué puede ser(eficientemente) automatizado?".[4]

HistoriaLa historia de la ciencia de la computación antecede a la invención del computador digital moderno. Antes de la década de 1920, el término computador se refería a un ser humano que realizaba cálculos.[5] Los primeros investigadores en lo que después se convertiría las ciencias de la computación estaban interesados en la cuestión de la computabilidad: qué cosas pueden ser computadas por un ser humano que simplemente siga una lista de instrucciones con lápiz y papel, durante el tiempo que sea necesario, con ingenuidad y sin conocimiento previo del problema. Parte de la motivación para este trabajo era el desarrollar máquinas que computaran y que pudieran

Page 128: códigos - libro wikipedia

Ciencias de la computación 125

automatizar el tedioso y falible trabajo de la computación humana.

Durante la década de 1940, conforme se desarrollaban nuevas y más poderosas máquinas para computar, el términocomputador se comenzó a utilizar para referirse a las máquinas y ya no a sus antecesores humanos. Conforme ibaquedando claro que las computadoras podían usarse para más cosas que solamente cálculos matemáticos, el campode la ciencia de la computación se fue ampliando para estudiar a la computación (informática) en general. La cienciade la computación comenzó entonces a establecerse como una disciplina académica en la década de 1960, con lacreación de los primeros departamentos de ciencia de la computación y los primeros programas de licenciatura(Denning 2000).

Campos de las ciencias de la computación

Fundamentos matemáticosCriptografía

Consta de algoritmos para proteger datos privados, incluido el cifrado.Teoría de grafos

Recursos elementales para las estructuras de almacenamiento de datos y para los algoritmos de búsqueda.Lógica matemática

La lógica matemática estudia los sistemas formales en relación con el modo en el que se codifican nocionesintuitivas de objetos matemáticos como conjuntos, números, demostraciones y computación.

Teoría de tiposAnálisis formal de los tipos de datos y el uso de estos para entender las propiedades de los programas, enparticular la seguridad de estos.

Teoría de la computaciónTeoría de la computaciónTeoría de autómatasTeoría de la computabilidadTeoría de la complejidad computacional

Límites fundamentales (en especial de espacio en memoria y tiempo) de los cómputos.

Algoritmos y estructuras de datosAnálisis de algoritmosAlgoritmos

procesos formales usados para los cómputos, y eficiencia de estos procesos.Estructuras de datos

organización y manipulación de los datosLógica y computabilidad

estudio de diferentes tipos de lógicas, su poder expresivo, decidibilidad, aplicaciones.Especificación

desarrollo de métodos para definir formalmente (matemática y lógicamente) el comportamiento esperado deun algoritmo, para luego probar terminación y correctitud.

Page 129: códigos - libro wikipedia

Ciencias de la computación 126

Lenguajes de programación y compiladoresCompiladores

formas de traducir programas computacionales, usualmente a partir de lenguajes de alto nivel a lenguajes debajo nivel.

Teoría de lenguajes de programaciónlenguajes formales para expresar algoritmos y las propiedades de estos lenguajes.

Bases de datosBases de datosEstructura de datosMinería de datos

estudio de algoritmos para buscar y procesar información en documentos y bases de datos; muy relacionadacon la adquisición de información.

Sistemas concurrentes, paralelos y distribuidosProgramación concurrente

teoría y práctica de cómputos simultáneos y computación interactiva.Redes de computadoras

algoritmos y protocolos para comunicar eficientemente datos a través de largas distancias, incluye también lacorrección de errores.

Cómputo paralelocomputación con el uso de múltiples computadoras y múltiples procesadores en paralelo.

Sistemas distribuidossistemas que utilizan múltiples procesadores repartidos en una gran área geográfica.

Inteligencia artificialInteligencia artificial (IA)

la implementación y estudio de sistemas que exhiben (ya sea por su comportamiento o aparentemente) unainteligencia autónoma o comportamiento propio, a veces inspirado por las características de los seres vivos.Las ciencias de la computación están relacionadas con la IA, ya que el software y las computadoras sonherramientas básicas para su desarrollo y progreso.

Razonamiento automatizadoRobótica

algoritmos para controlar el comportamiento de los robots.Visión por computador

algoritmos para extraer objetos tridimensionales de una imagen bidimensional.Aprendizaje automático

Page 130: códigos - libro wikipedia

Ciencias de la computación 127

Gráficos por computadorComputación gráfica

algoritmos tanto para generar sintéticamente imágenes visuales como para integrar o alterar la informaciónvisual y espacial tomada del mundo real.

Procesamiento digital de imágenespor ejemplo, para sensores remotos.

Geometría computacionalpor ejemplo, algoritmos veloces para seleccionar solo los puntos visibles en un poliedro visto desde ciertoángulo, usado en motores 3D.

Computación científicaBioinformáticaComputación cuántica

Paradigma de computación basado en la mecánica cuánticaNeurociencia computacional

Relación con otros camposPor ser una disciplina reciente, existen varias definiciones alternativas para la ciencia de la computación. Esta puedeser vista como una forma de ciencia, matemáticas o una nueva disciplina que no puede ser categorizada siguiendo losmodelos actuales.Las ciencias de la computación frecuentemente se cruzan con otras áreas de investigación, tales como la física y lalingüística. Pero es con las matemáticas con las que se considera que tiene un grado mayor de relación. Eso esevidenciado por el hecho de que los primeros trabajos en el área fueran fuertemente influenciados por matemáticoscomo Kurt Gödel y Alan Turing. En la actualidad sigue habiendo un intercambio de ideas útil entre ambos camposen áreas como la lógica matemática, la teoría de categorías, la teoría de dominios, el álgebra y la geometría.Otro punto a destacar es que, a pesar de su nombre, las ciencias de la computación raramente involucran el estudiomismo de las máquinas conocidas como computadoras. De hecho, el renombrado científico Edsger Dijkstra es muycitado por la frase "Las ciencias de la computación están tan poco relacionadas con las computadoras como laastronomía con los telescopios."

Debido a esto, se propuso buscar un nombre definido para esta ciencia emergente, que evitara la relación con lascomputadoras.Una primera propuesta fue la de Peter Naur, que acuñó el término datología, para reflejar el hecho de que la nuevadisciplina se ocupaba fundamentalmente del tratamiento de los datos, independientemente de las herramientas dedicho tratamiento, fueran computadoras o artificios matemáticos. La primera institución científica en adoptar ladenominación fue el Departamento de Datología de la Universidad de Copenhague, fundado en 1969, y fue el propioPeter Naur el primer profesor de datología. Esta denominación se utiliza principalmente en los países escandinavos.Asimismo, en los primeros momentos, un gran número de términos aparecieron asociados a los practicantes de lacomputación. En esta lista se pueden ver los sugeridos en las revistas y comunicados de la Association for ComputerMachinery: turingeniero, turologista, hombre de los diagramas de flujo (flow-charts-man), metamatemático aplicadoy epistemólogo aplicado.Tres meses más tarde se sugirió el término contólogo, seguido de hipólogo al año siguiente. También se sugirió eltérmino compútica para la disciplina. Informática era, sin embargo, el término más frecuentemente usado en todaEuropa.

Page 131: códigos - libro wikipedia

Ciencias de la computación 128

El diseño y desarrollo de computadoras y sistemas computacionales generalmente se considera un campo reclamadopor disciplinas ajenas a las ciencias de la computación. Por ejemplo, el estudio del hardware suele considerarse partede la ingeniería informática, mientras que el estudio de sistemas computacionales comerciales y su desarrollo suelendenominarse tecnologías de la información (TI) o sistemas de información. Sin embargo, hay una estrechacomunicación de ideas entre las distintas disciplinas relacionadas con las computadoras.La ciencia de la computación a menudo recibe críticas desde otros estamentos que la consideran escasamenterigurosa y científica. Esta opinión se plasma en la expresión: "La ciencia es a las ciencias de la computación comola hidrodinámica a la fontanería", atribuida a Stan Kelly-Bootle y otros afines.

La investigación en ciencias de la computación también suele relacionarse con otras disciplinas, como la cienciacognitiva, la física (véase computación cuántica), la lingüística, etcétera.La relación entre las ciencias de la computación y la ingeniería de software es un tema muy discutido, por disputassobre lo que realmente significa el término ingeniería de software y sobre cómo se define a las ciencias de lacomputación. Algunas personas creen que la ingeniería de software sería un subconjunto de las ciencias de lacomputación. Otras, tomando en cuenta la relación entre otras disciplinas científicas y de la ingeniería, creen que elprincipal objetivo de las ciencias de la computación sería estudiar las propiedades del cómputo en general, mientrasque el objetivo de la ingeniería de software sería diseñar cómputos específicos para lograr objetivos prácticos, con loque se convertiría en disciplinas diferentes. Este punto de vista es el que sostiene, por ejemplo, Parnas (1998).Incluso hay otros que sostienen que no podría existir una ingeniería de software.Los aspectos académicos, políticos y de financiamiento en las áreas de ciencias de la computación tienden a verseinfluidos drásticamente por el criterio del departamento encargado de la investigación y la educación en cadauniversidad, que puede estar orientado a la matemática o a la ingeniería.Los departamentos de ciencias de la computación orientados a la matemática suelen alinearse del lado de lacomputación científica y las aplicaciones de cálculo numérico.El término computación científica, que no debe confundirse con ciencia de la computación, designa a todas aquellasprácticas destinadas a modelar, plantear experimentos y validar teorías científicas sirviéndose de medioscomputacionales. En estos casos la computación es una mera herramienta y el esfuerzo se dirige a avanzar en loscampos objetivo (física, biología, mecánica de fluidos, radiotransmisión,...), más que en la propia ciencia de lacomputación.Finalmente, el público en general algunas veces confunde la ciencia de la computación con áreas vocacionales quetrabajan con computadoras o piensan que trata acerca de su propia experiencia con las computadoras, lo cual sueleincluir actividades como los juegos, la navegación web y el procesamiento de texto. Sin embargo, el punto central dela ciencia de la computación va más allá de entender las propiedades de los programas que se emplean paraimplementar aplicaciones de software como juegos y navegadores web, y utiliza ese entendimiento para crear nuevosprogramas o mejorar los existentes.[6]

Page 132: códigos - libro wikipedia

Ciencias de la computación 129

Referencias[1] "Computer science is the study of information" Department of Computer and Information Science (http:/ / www. njit. edu/ v2/ archivecatalog/

undergraduate/ 91/ 19-und. html), Guttenberg Information Technologies[2] "Computer science is the study of computation." Computer Science Department, College of Saint Benedict (http:/ / www. csbsju. edu/

computerscience/ curriculum), Saint John's University[3] "Computer Science is the study of all aspects of computer systems, from the theoretical foundations to the very practical aspects of managing

large software projects." Massey University (http:/ / study. massey. ac. nz/ major. asp?major_code=2010& prog_code=93068)[4] Denning, P.J. (2000). « Computer Science: The Discipline (http:/ / web. archive. org/ web/ 20060525195404/ http:/ / www. idi. ntnu. no/

emner/ dif8916/ denning. pdf)» (PDF). Encyclopedia of Computer Science. .[5] David Alan Grier (2005). When computers were human. Princeton University Press. ISBN 84-89660-00-X.[6] "Common myths and preconceptions about Cambridge Computer Science" Computer Science Department (http:/ / www. cl. cam. ac. uk/

admissions/ undergraduate/ myths/ ), University of Cambridge

Bibliografía• Abelson, H. y Sussman, G.J. con Sussman, J. (1996). Structure and Interpretation of Computer Programs, 2nd

Ed.. EUA: MIT Press. ISBN 0-262-01153-0.• Constable, R. L. (1997). "Nature of the Information Sciences" (http:/ / www. cs. cornell. edu/ cis-dean/ Nature.

pdf).• Constable, R. L. (2000, marzo). "Computer Science: Achievements and Challenges circa 2000" (http:/ / www. cs.

cornell. edu/ cis-dean/ bgu. pdf).• Parnas, D. L. (1998). Software Engineering Programmes are not Computer Science Programmes.

Enlaces externos• Wikimedia Commons alberga contenido multimedia sobre Ciencias de la computación. Commons• Wikiversidad alberga proyectos de aprendizaje sobre Ciencias de la computación.Wikiversidad

Page 133: códigos - libro wikipedia

Clase de complejidad 130

Clase de complejidadEn teoría de la complejidad computacional, una clase de complejidad es un conjunto de problemas de decisión decomplejidad relacionada.Una clase de complejidad tiene una definición de la forma:

el conjunto de los problemas de decisión que pueden ser resueltos por una máquina M utilizando O(f(n)) del recurso R (donde n es eltamaño de la entrada).

Relación entre las principales clases de complejidadLa siguiente tabla muestra algunas de las clases de problemas (o lenguajes o gramáticas) que se consideran en teoríade la complejidad computacional. Cuando la clase X es un subconjunto estricto de Y, X aparece en la tabla bajo Ycon una línea sólida uniéndolos. Cuando es subconjunto pero no se sabe si es estricto, la línea es cortada y gris.Técnicamente hablando, el corte entre problemas decidibles e indecidibles es tema de la Teoría de la computabilidad,pero resulta interesante mencionarlos aquí para poner en perspectiva las clases de complejidad

Problema de decisión

Lenguaje recursivo enumerable Problema indecidible

Problema decidible

ESPACIOEXP

TIEMPOEXP

ESPACIOP

Gramática sensitiva al contexto ESPACIOP-completo

Page 134: códigos - libro wikipedia

Clase de complejidad 131

Co-NP NP

BPP BQP NP-completo

P

NC P-completo

Gramática libre de contexto

Gramática regular

Ejemplos• La clase NP es el conjunto de problemas de decisión que pueden ser resueltos en tiempo polinómico por una

máquina de Turing no determinista.• La clase PSPACE es el conjunto de problemas de decisión que pueden ser resueltos por una máquina de Turing

determinista en espacio polinómico.

Page 135: códigos - libro wikipedia

Problema de decisión 132

Problema de decisiónEn teoría de la computación, un problema es un conjunto de frases de longitud finita que tienen asociadas frasesresultantes también de longitud finita. Un problema de decisión es un problema en donde las respuestas posiblesson «sí» o «no». Un ejemplo típico de problema de decisión es la pregunta: ¿Es un número entero dado primo? Unainstancia de este problema sería: ¿Es 17 primo?Un problema de decisión también se puede formalizar como el problema de decidir si una cierta frase pertenece a unconjunto dado de frases, también llamado lenguaje formal. El conjunto contiene exactamente las frases para lascuales la respuesta a la pregunta es positiva. La pregunta anterior sobre los números primos se puede ver tambiéncomo el lenguaje de todas las frases en el alfabeto {0, 1,..., 9} tales que el entero correspondiente es primo.Si existe un algoritmo que pueda decidir para cada posible frase de entrada si esa frase pertenece al lenguaje,entonces se dice que el problema es decidible, de otra forma se dice que es un problema indecidible. Cuando existeun algoritmo que puede responder positivamente cuando la frase está en el lenguaje, pero que corre indefinidamentecuando la frase no pertenece al lenguaje se dice que el problema es parcialmente decidible. En Teoría de lacomputabilidad, se estudia qué lenguajes son decidibles con diferentes tipos de máquinas. En teoría de lacomplejidad computacional se estudia cuántos recursos necesita un algoritmo decidible para ejecutar (recursos detiempo, espacio, número de procesadores, tipo de máquina, etc.).

EjemplosEsos son algunos ejemplos de problemas de decisión expresados como lenguajes:•• Las frases sobre el alfabeto {a, b} que contienen alternadas las letras a y b.•• Las frases sobre el alfabeto {a, b, c} que contienen igual número de letras a y b.• Las frases que describen un grafo con aristas etiquetadas con números naturales que indican su longitud, dos

vértices del grafo y un camino en el grafo que es el camino más corto entre esos dos vértices.• Las frases que describen una máquina de Turing y una cinta de entrada para esta máquina tal que la máquina se

para en un tiempo finito al procesar esa entrada.Los problemas de decisión son interesantes dado que todos los problemas formales (que incluye tanto lógicos comomatemáticos) pueden ser redactados para que tomen la forma de un problema de decisión. Las soluciones alproblema de decisión y al problema original se diferencian a lo sumo por un factor lineal.

Referencias• Definición en Wolfram MathWorld [1] (en inglés)

Referencias[1] http:/ / mathworld. wolfram. com/ DecisionProblem. html

Page 136: códigos - libro wikipedia

Problema computacional 133

Problema computacionalEn ciencia computacional teórica, un problema abstracto o problema computacional es una relación entre unconjunto de instancias y un conjunto de soluciones. Un problema abstracto permite establecer formalmente larelación deseada entre la entrada de un algoritmo y su salida. Una solución algorítmica a un problema abstractoconsiste de un algoritmo que por cada instancia del problema calcula al menos una solución correspondiente –encaso de haberla– o expide un certificado de que no existe solución alguna. Un problema abstracto se convierte en unproblema concreto cuando las instancias y soluciones están codificadas en forma de lenguajes formales.Los problemas abstractos suelen definirse en dos partes: en la primera se describe al conjunto de instancias y en lasegunda se describe la solución esperada para cada instancia. Por ejemplo, el problema de ordenación de númerosenteros se suele definir como sigue:

Instancia: Una sucesión finita de números enteros Solución: Una permutación de la sucesión de entrada tal que

Aquí tanto el conjunto de instancias y el de soluciones es el mismo, pues se trata del conjunto de todas las sucesionesfinitas de números enteros. La relación que hay entre ellos asigna a cada sucesión la únicapermutación tal que . Por ejemplo, tiene como solución a

. Una solución algorítmica al problema de ordenamiento es el ordenamiento de burbuja porque estealgoritmo produce una solución como salida cada vez que se le suministra una instancia como entrada.

Tipos de problemas abstractosEn un problema de decisión cada instancia tiene asociada exactamente una solución "sí" o "no". Los problemas dedecisión quedan completamente determinados por el conjunto de instancias que tienen asociada la solución "sí".Por ejemplo, el problema de decidir si una gráfica tiene o no un ciclo Hamiltoniano queda completamentedeterminado su conjunto de soluciones "sí":

Con esta representación el problema equivale a preguntar si una instancia pertenece o no al conjunto . Engeneral, los problemas de decisión siempre equivalen a decidir la proposición donde es el conjunto deinstancias con solución "sí". Una solución algorítmica para un problema de decisión es un algoritmo que calcula lafunción característica de o equivalente:

En los problemas de búsqueda la relación entre el conjunto de instancias y el de soluciones queda determinado porun predicado lógico que determina si es una solución de . Dada una instancia el problema consisteen encontrar, si es que existe, una solución de . Es decir, buscar el elemento que haga verdadera laproposición . Cuando se fija el valor de y la solución es única, se dice que es un problema

matemático. Por ejemplo, el problema de factorización de un número entero consiste en encontrar un factor notrivial de ; es decir, número entero diferente de 1 y de tal que divida exactamente a . En símbolos

Esta fórmula simplemente está preguntando la existencia de un factor no trivial de . Una solución algorítmica a unproblema de búsqueda viene dador por un algoritmo tal que es verdadera siempre y cuando existasolución para , es decir, siempre calcula una solución si es que esta existe. En el caso del problema de lafactorización de enteros se cuenta con el algoritmo de la división por tentativa.

Page 137: códigos - libro wikipedia

Problema computacional 134

En un problema de optimización no solo se busca una solución, sino que se busca "la mejor" de todas. Cadaproblema de optimización puede concebirse como un problema de búsqueda y una función , comúnmenteconocida como función objetivo, que determina la calidad de las soluciones. El problema de optimización (que a suvez es de búsqueda) consiste en encontrar la solución maximice o minimice el valor de . Por ejemplo, el problemadel viajante no solamente exige determinar si una gráfica tiene o no un ciclo hamiltoniano, sino que además preguntacuál es el ciclo hamiltoniano más corto. En este caso el problema de búsqueda subyacente es encontrar un ciclohamiltoniano cualquiera y la función objetivo mide la distancia recorrida por ese ciclo.

Referencias• Cormen, Thomas; Leiserson, Charles; Rivest, Ronald; Stein, Clifford (2009). Introduction to algorithms (3

edición). Cambridge, Massachusetts: The MIT Press. ISBN 978-0-262-53305-8.• S. Dasgupta, C.H. Papadimitriou, & U.V. Vazirani (2006). Algorithms [1]. McGraw-Hill

Science/Engineering/Math. ISBN 978-0073523408.

Referencias[1] http:/ / www. cs. berkeley. edu/ ~vazirani/ algorithms. html

Código genético

Serie de codones en un segmento de ARN. Cadacodón se compone de tres nucleótidos que

codifican un aminoácido específico.

El código genético es un conjunto de normas por las que lainformación codificada en el material genético (secuencias de ADN oARN) se traduce en proteínas (secuencias de aminoácidos) en lascélulas vivas. El código define la relación entre secuencias de tresnucleótidos, llamadas codones, y aminoácidos. Un codón secorresponde con un aminoácido específico. El ARN se basa entransportar un mensaje del ADN a la molécula correspondiente

La secuencia del material genético se compone de cuatro basesnitrogenadas distintas, que tienen una función equivalente a letras en elcódigo genético: adenina (A), timina (T), guanina (G) y citosina (C) enel ADN y adenina (A), uracilo (U), guanina (G) y citosina (C) en elARN.

Debido a esto, el número de codones posibles es 64, de los cuales 61codifican aminoácidos (siendo además uno de ellos el codón de inicio,AUG) y los tres restantes son sitios de parada (UAA, llamado ocre;UAG, llamado ámbar; UGA, llamado ópalo). La secuencia de codonesdetermina la secuencia aminoacídica de una proteína en concreto, quetendrá una estructura y una función específicas.

Page 138: códigos - libro wikipedia

Código genético 135

Descubrimiento del código genético

El código genético.

Cuando James Watson, Francis Crick, Maurice Wilkins y RosalindFranklin crearon el modelo de la estructura del ADN, se comenzó aestudiar en profundidad el proceso de traducción en las proteínas.

En 1955, Severo Ochoa y Marianne Grunberg-Manago aislaron laenzima polinucleótido fosforilasa, capaz de sintetizar ARNm sinnecesidad de modelo a partir de cualquier tipo de nucleótidos quehubiera en el medio. Así, a partir de un medio en el cual tan sólohubiera UDP (urdín difosfato) se sintetizaba un ARNm en el cualúnicamente se repetía el ácido urídico, el denominado poli-U(....UUUUU....).

George Gamow postuló que un código de codones de tres bases debíaser el empleado por las células para codificar la secuenciaaminoacídica, ya que tres es el número entero mínimo que con cuatrobases nitrogenadas distintas permiten más de 20 combinaciones (64para ser exactos).Los codones constan de tres nucleótidos fue demostrado por primeravez en el experimento de Crick, Brenner y colaboradores. Marshall Nirenberg y Heinrich J. Matthaei en 1961 en losInstitutos Nacionales de Salud descubrieron la primera correspondencia codón-aminoácido. Empleando un sistemalibre de células, tradujeron una secuencia ARN de poli-uracilo (UUU...) y descubrieron que el polipéptido quehabían sintetizado sólo contenía fenilalanina. De esto se deduce que el codón UUU específica el aminoácidofenilalanina. Continuando con el trabajo anterior, Nirenberg y Philip Leder fueron capaces de determinar latraducción de 54 codones, utilizando diversas combinaciones de ARNm, pasadas a través de un filtro que contieneribosomas. Los ARNt se unían a tripletes específicos.

Posteriormente, Har Gobind Khorana completó el código, y poco después, Robert W. Holley determinó la estructuradel ARN de transferencia, la molécula adaptadora que facilita la traducción. Este trabajo se basó en estudiosanteriores de Severo Ochoa, quien recibió el premio Nobel en 1959 por su trabajo en la enzimología de la síntesis deARN. En 1968, Khorana, Holley y Nirenberg recibieron el Premio Nobel en Fisiología o Medicina por su trabajo.

Transferencia de informaciónEl genoma de un organismo se encuentra en el ADN o, en el caso de algunos virus, en el ARN. La porción degenoma que codifica varias proteínas o un ARN se conoce como gen. Esos genes que codifican proteínas estáncompuestos por unidades de trinucleótidos llamadas codones, cada una de los cuales codifica un aminoácido. Cadasubunidad nucleotídica está formada por un fosfato, una desoxirribosa y una de las cuatro posibles basesnitrogenadas. Las bases purínicas adenina (A) y guanina (G) son más grandes y tienen dos anillos aromáticos. Lasbases pirimidínicas citosina (C) y timina (T) son más pequeñas y sólo tienen un anillo aromático. En la configuraciónen doble hélice, dos cadenas de ADN están unidas entre sí por puentes de hidrógeno en una asociación conocidacomo emparejamiento de bases. Además, estos puentes siempre se forman entre una adenina de una cadena y unatimina de la otra y entre una citosina de una cadena y una guanina de la otra. Esto quiere decir que el número deresiduos A y T será el mismo en una doble hélice y lo mismo pasará con el número de residuos de G y C. En elARN, la timina (T) se sustituye por uracilo (U), y la desoxirribosa por una ribosa.Cada gen codificante para proteína se transcribe en una molécula plantilla, que se conoce como ARN mensajero o ARNm. Éste, a su vez, se traduce en el ribosoma, en una cadena aminoacídica o polipeptídica. En el proceso de traducción se necesita un ARN de transferencia ó ARNt específico para cada aminoácido con el aminoácido unido a él covalentemente, guanosina trifosfato como fuente de energía y ciertos factores de traducción. Los ARNt tienen

Page 139: códigos - libro wikipedia

Código genético 136

anticodones complementarios a los codones del ARNm y se pueden “cargar” covalentemente en su extremo 3'terminal CCA con aminoácidos. Los ARNt individuales se cargan con aminoácidos específicos por las enzimasllamadas aminoacil ARNt sintetasas, que tienen alta especificidad tanto por aminoácidos como por ARNt. La altaespecificidad de estas enzimas es motivo fundamental del mantenimiento de la fidelidad de la traducción deproteínas.Hay 4³ = 64 combinaciones diferentes de codones que sean posibles con tripletes de tres nucleótidos: los 64 codonesestán asignados a aminoácido o a señales de parada en la traducción. Si, por ejemplo, tenemos una secuencia deARN, UUUAAACCC, y la lectura del fragmento empieza en la primera U (convenio 5' a 3'), habría tres codones queserían UUU, AAA y CCC, cada uno de los cuales específica un aminoácido. Esta secuencia de ARN se traducirá enuna secuencia aminoacídica de tres aminoácidos de longitud. Se puede comparar con la informática, donde un codónse asemejaría a una palabra, lo que sería el “trozo” estándar para el manejo de datos (como un aminoácido a unaproteína), y un nucleótido es similar a un bit, que sería la unidad más pequeña. (En la práctica, se necesitarían almenos 2 bits para representar un nucleótido, y 6 para un codón, en un ordenador normal)...

Características

UniversalidadEl código genético es compartido por todos los organismos conocidos, incluyendo virus y organelos, aunque puedenaparecer pequeñas diferencias. Así, por ejemplo, el codón UUU codifica el aminoácido fenilalanina tanto enbacterias, como en arqueas y en eucariontes. Este hecho indica que el código genético ha tenido un origen único entodos los seres vivos conocidos.Gracias a la genética molecular, se han distinguido 22 códigos genéticos,[1] que se diferencian del llamado códigogenético estándar por el significado de uno o más codones. La mayor diversidad se presenta en las mitocondrias,orgánulos de las células eucariotas que se originaron evolutivamente a partir de miembros del dominio Bacteria através de un proceso de endosimbiosis. El genoma nuclear de los eucariotas sólo suele diferenciarse del códigoestándar en los codones de iniciación y terminación.

Especificidad y continuidadNingún codón codifica más de un aminoácido, ya que, de no ser así, conllevaría problemas considerables para lasíntesis de proteínas específicas para cada gen. Tampoco presenta solapamiento: los tripletes se hallan dispuesto demanera lineal y continua, de manera que entre ellos no existan comas ni espacios y sin compartir ninguna basenitrogenada. Su lectura se hace en un solo sentido (5' - 3'), desde el codón de iniciación hasta el codón de parada. Sinembargo, en un mismo ARNm pueden existir varios codones de inicio, lo que conduce a la síntesis de variospolipéptidos diferentes a partir del mismo transcrito.

DegeneraciónEl código genético tiene redundancia pero no ambigüedad (ver tablas de codones). Por ejemplo, aunque los codonesGAA y GAG especifican los dos el ácido glutámico (redundancia), ninguno específica otro aminoácido (noambigüedad). Los codones que codifican un aminoácido pueden diferir en alguna de sus tres posiciones, porejemplo, el ácido glutámico se específica por GAA y GAG (difieren en la tercera posición), el aminoácido leucina seespecífica por los codones UUA, UUG, CUU, CUC, CUA y CUG (difieren en la primera o en la tercera posición),mientras que en el caso de la serina, se específica por UCA, UCG, UCC, UCU, AGU, AGC (difieren en la primera,segunda o tercera posición).De una posición de un codón se dice que es cuatro veces degenerada si con cualquier nucleótido en esta posición seespecífica el mismo aminoácido. Por ejemplo, la tercera posición de los codones de la glicina (GGA, GGG, GGC,GGU) es cuatro veces degenerada, porque todas las sustituciones de nucleótidos en este lugar son sinónimos; es

Page 140: códigos - libro wikipedia

Código genético 137

decir, no varían el aminoácido. Sólo la tercera posición de algunos codones puede ser cuatro veces degenerada. Sedice que una posición de un codón es dos veces degenerada si sólo dos de las cuatro posibles sustituciones denucleótidos especifican el mismo aminoácido. Por ejemplo, la tercera posición de los codones del ácido glutámico(GAA, GAG) es doble degenerada. En los lugares dos veces degenerados, los nucleótidos equivalentes son siempredos purinas (A/G) o dos pirimidinas (C/U), así que sólo sustituciones transversionales (purina a pirimidina opirimidina a purina) en dobles degenerados son antónimas. Se dice que una posición de un codón es no degenerada siuna mutación en esta posición tiene como resultado la sustitución de un aminoácido. Sólo hay un sitio tripledegenerado en el que cambiando tres de cuatro nucleótidos no hay efecto en el aminoácido, mientras que cambiandolos cuatro posibles nucleótidos aparece una sustitución del aminoácido. Esta es la tercera posición de un codón deisoleucina: AUU, AUC y AUA, todos codifican isoleucina, pero AUG codifica metionina. En biocomputación, estesitio se trata a menudo como doble degenerado.Hay tres aminoácidos codificados por 6 codones diferentes: serina, leucina, arginina. Sólo dos aminoácidos seespecifican por un único codón; uno de ellos es la metionina, especificado por AUG, que también indica el comienzode la traducción; el otro es triptófano, especificado por UGG. Que el código genético sea degenerado es lo quedetermina la posibilidad de mutaciones sinónimas.La degeneración aparece porque el código genético designa 20 aminoácidos y la señal parada. Debido a que haycuatro bases, los codones en triplete se necesitan para producir al menos 21 códigos diferentes. Por ejemplo, sihubiera dos bases por codón, entonces sólo podrían codificarse 16 aminoácidos (4²=16). Y dado que al menos senecesitan 21 códigos, 4³ da 64 codones posibles, indicando que debe haber degeneración.Esta propiedad del código genético lo hacen más tolerante a los fallos en mutaciones puntuales. Por ejemplo, enteoría, los codones cuatro veces degenerados pueden tolerar cualquier mutación puntual en la tercera posición,aunque el codón de uso sesgado restringe esto en la práctica en muchos organismos; los dos veces degeneradospueden tolerar una de las tres posibles mutaciones puntuales en la tercera posición. Debido a que las mutaciones detransición (purina a purina o pirimidina a pirimidina) son más probables que las de transversión (purina a pirimidinao viceversa), la equivalencia de purinas o de pirimidinas en los lugares dobles degenerados añade una tolerancia a losfallos complementaria.

Agrupamiento de codones por residuos aminoacídicos, volumen molar e hidropatía

Una consecuencia práctica de la redundancia es que algunos errores del código genético sólo causen una mutaciónsilenciosa o un error que no afectará a la proteína porque la hidrofilidad o hidrofobidad se mantiene por unasustitución equivalente de aminoácidos; por ejemplo, un codón de NUN (N =cualquier nucleótido) tiende a codificarun aminoácido hidrofóbico. NCN codifica residuos aminoacídicos que son pequeños en cuanto a tamaño ymoderados en cuanto a hidropatía; NAN codifica un tamaño promedio de residuos hidrofílicos; UNN codificaresiduos que no son hidrofílicos.[2][3] Estas tendencias pueden ser resultado de una relación de las aminoacil ARNtsintetasas con los codones heredada un ancestro común de los seres vivos conocidos.Incluso así, las mutaciones puntuales pueden causar la aparición de proteínas disfuncionales. Por ejemplo, un gen dehemoglobina mutado provoca la enfermedad de células falciformes. En la hemoglobina mutante un glutamatohidrofílico (Glu) se sustituye por una valina hidrofóbica (Val), es decir, GAA o GAG se convierte en GUA o GUG.La sustitución de glutamato por valina reduce la solubilidad de β-globina que provoca que la hemoglobina formepolímeros lineales unidos por interacciones hidrofóbicas entre los grupos de valina y causando la deformaciónfalciforme de los eritrocitos. La enfermedad de las células falciformes no está causada generalmente por unamutación de novo. Más bien se selecciona en regiones de malaria (de forma parecida a la talasemia), ya que losindividuos heterocigotos presentan cierta resistencia ante el parásito malárico Plasmodium (ventaja heterocigótica oheterosis).La relación entre el ARNm y el ARNt a nivel de la tercera base se puede producir por bases modificadas en la primera base del anticodón del ARNt, y los pares de bases formados se llaman “pares de bases wobble”

Page 141: códigos - libro wikipedia

Código genético 138

(tambaleantes). Las bases modificadas incluyen inosina y los pares de bases que no son del tipo Watson-Crick U-G.

Usos incorrectos del términoLa expresión "código genético" es frecuentemente utilizada en los medios de comunicación como sinónimo degenoma, de genotipo, o de ADN. Frases como «Se analizó el código genético de los restos y coincidió con el de ladesaparecida», o «se creará una base de datos con el código genético de todos los ciudadanos» son científicamenteincorrectas. Es insensato, por ejemplo, aludir al «código genético de una determinada persona», porque el códigogenético es el mismo para todos los individuos. Sin embargo, cada organismo tiene un genotipo propio, aunque esposible que lo comparta con otros si se ha originado por algún mecanismo de multiplicación asexual.

Tabla del código genético estándarEl código genético estándar se refleja en las siguientes tablas. La tabla 1 muestra qué aminoácido específica cada unode los 64 codones. La tabla 2 muestra qué codones especifican cada uno de los 20 aminoácidos que intervienen en latraducción. Estas tablas se llaman tablas de avance y retroceso respectivamente. Por ejemplo, el codón AAU es elaminoácido asparagina, y UGU y UGC representan cisteína (en la denominación estándar por 3 letras, Asn y Cys,respectivamente).Nótese que el codón AUG codifica la metionina pero además sirve de sitio de iniciación; el primer AUG en unARNm es la región que codifica el sitio donde la traducción de proteínas se inicia.La siguiente tabla inversa indica qué codones codifican cada uno de los aminoácidos.

Ala (A) GCU, GCC, GCA, GCG Lys (K) AAA, AAG

Arg (R) CGU, CGC, CGA, CGG, AGA, AGG Met (M) AUG

Asn (N) AAU, AAC Phe (F) UUU, UUC

Asp (D) GAU, GAC Pro (P) CCU, CCC, CCA, CCG

Cys (C) UGU, UGC Sec (U) UGA

Gln (Q) CAA, CAG Ser (S) UCU, UCC, UCA, UCG, AGU, AGC

Glu (E) GAA, GAG Thr (T) ACU, ACC, ACA, ACG

Gly (G) GGU, GGC, GGA, GGG Trp (W) UGG

His (H) CAU, CAC Tyr (Y) UAU, UAC

Ile (I) AUU, AUC, AUA Val (V) GUU, GUC, GUA, GUG

Leu (L) UUA, UUG, CUU, CUC, CUA, CUG

Comienzo AUG Parada UAG, UGA, UAA

Aminoácidos 21 y 22Exiten otros dos aminoácidos codificados por el código genético en algunas circunstancias y en algunos organismos.Son la selenocisteína y la pirrolisina.La selenocisteína (Sec/U)[4] es un aminoácido presente en multitud de enzimas (glutatión peroxidasas,tetraiodotironina 5' deiodinasas, tioredoxina reductasas, formiato deshidrogenasas, glicina reductasas y algunashidrogenasas). Está codificado por el codón UGA (que normalmente es de parada) cuando están presentes en lasecuencia los elementos SECIS (Secuencia de inserción de la seleniocisteína).El otro aminoácido, la pirrolisina (Pyl/O),[5][6] es un aminoácido presente en enzimas metabólicas de arqueasmetanógenas. Está codificado por el codón UAG (que normalmente es de parada) cuando están presentes en lasecuencia los elementos PYLIS (Secuencia de inserción de la pirrolisina).

Page 142: códigos - libro wikipedia

Código genético 139

Excepciones a la universalidadComo se mencionó con anterioridad, se conocen 22 códigos genéticos. He aquí algunas diferencias con el estándar:

Mitocondrias de vertebrados AGA Ter *

AGG Ter *

AUA Met M

UGA Trp W

Mitocondrias de invertebrados AGA Ser S

AGG Ser S

AnGyBeL

AUA Met M

UGA Trp W

AGG Ausente en Drosophila

Mitocondrias de levaduras AUA Met M

CUU Thr T

CUC Thr T

CUA Thr T

CUG Thr T

UGA Trp W

CGA Ausente

CGC Ausente

Ciliados, Dasycladaceae y Hexamita (núcleo) UAA Gln Q

UAG Gln Q

Mitocondrias de mohos, protozoos yCoelenterateMycoplasma y Spiroplasma (núcleo)

UGA Trp W

Mitocondrias de equinodermos y platelmintos AAA Asn N

AGA Ser S

AGG Ser S

UGA Trp W

Euplotidae (núcleo) UGA Cys C

Endomycetales (núcleo) CUG Ser S

Mitocondrias de Ascidiacea AGA Gly G

AGG Gly G

AUA Met M

UGA Trp W

Mitocondrias de platelmintos (alternativo) AAA Asn N

AGA Ser S

AGG Ser S

UAA Tyr Y

UGA W

Page 143: códigos - libro wikipedia

Código genético 140

Blepharisma (núcleo) UAG Gln Q

Mitocondrias de Chlorophyceae TAG Leu L

Mitocondrias de trematodos TGA Trp W

ATA Met M

AGA Ser S

AGG Ser S

AAA Asn N

Mitocondrias de Scenedesmus obliquus TCA Ter *

TAG Leu L

El origen del código genéticoA pesar de las variaciones que existen, los códigos genéticos utilizados por todas las formas conocidas de vida sonmuy similares. Esto sugiere que el código genético se estableció muy temprano en la historia de la vida y que tieneun origen común en las formas de vida actuales. Análisis filogenético sugiere que las moléculas ARNt evolucionaronantes que el actual conjunto de aminoacil-ARNt sintetasas.[7]

El código genético no es una asignación aleatoria de los codones a aminoácidos.[8] Por ejemplo, los aminoácidos quecomparten la misma vía biosintética tienden a tener la primera base igual en sus codones[9] y aminoácidos conpropiedades físicas similares tienden a tener similares a codones.[10][11]

Experimentos recientes demuestran que algunos aminoácidos tienen afinidad química selectiva por sus codones.[12]

Esto sugiere que el complejo mecanismo actual de traducción del ARNm que implica la acción ARNt y enzimasasociadas, puede ser un desarrollo posterior y que, en un principio, las proteínas se sintetizaran directamente sobre lasecuencia de ARN, actuando éste como ribozima y catalizando la formación de enlaces peptídicos (tal como ocurrecon el ARNr 23S del ribosoma).Se ha planteado la hipótesis de que el código genético estándar actual surgiera por expansión biosintética de uncódigo simple anterior. La vida primordial pudo adicionar nuevos aminoácidos (por ejemplo, subproductos delmetabolismo), algunos de los cuales se incorporaron más tarde a la maquinaria de codificación genética. Se tienenpruebas, aunque circunstanciales, de que formas de vida primitivas empleaban un menor número de aminoácidosdiferentes,[13] aunque no se sabe con exactitud que aminoácidos y en que orden entraron en el código genético.Otro factor interesante a tener en cuenta es que la selección natural ha favorecido la degeneración del código paraminimizar los efectos de las mutaciones y es debido a la interacción de dos átomos distintos en la reacción[14] . Estoha llevado a pensar que el código genético primitivo podría haber constado de codones de dos nucleótidos, lo queresulta bastante coherente con la hipótesis del balanceo del ARNt durante su acoplamiento (la tercera base noestablece puentes de hidrógeno de Watson y Crick).

Page 144: códigos - libro wikipedia

Código genético 141

Referencias[1] « The Genetic Codes (http:/ / www. ncbi. nlm. nih. gov/ Taxonomy/ Utils/ wprintgc. cgi)».[2] Yang et al. 1990. In Reaction Centers of Photosynthetic Bacteria. M.-E. Michel-Beyerle. (Ed.) (Springer-Verlag, Germany) 209-218[3] Genetic Algorithms and Recursive Ensemble Mutagenesis in Protein Engineering http:/ / www. complexity. org. au/ ci/ vol01/ fullen01/ html/[4] IUPAC-IUBMB Joint Commission on Biochemical Nomenclature (JCBN) and Nomenclature Committee of IUBMB (NC-IUBMB) (1999). «

Newsletter 1999 (http:/ / www. chem. qmul. ac. uk/ iubmb/ newsletter/ 1999/ item3. html)» (reprint, with permission). European Journal ofBiochemistry 264 (2):  pp. 607–609. doi: 10.1046/j.1432-1327.1999.news99.x (http:/ / dx. doi. org/ 10. 1046/ j. 1432-1327. 1999. news99. x). .

[5] John F. Atkins and Ray Gesteland (2002).. The 22nd Amino Acid. Science 296 (5572): 1409–1410..[6] Krzycki J (2005).. The direct genetic encoding of pyrrolysine. Curr Opin Microbiol 8 (6): 706–712..[7] De Pouplana, L.R.; Turner, R.J.; Steer, B.A.; Schimmel, P. (1998). « Genetic code origins: tRNAs older than their synthetases? (http:/ / www.

pnas. org/ cgi/ content/ full/ 95/ 19/ 11295)». Proceedings of the National Academy of Sciences 95 (19):  pp. 11295. doi:10.1073/pnas.95.19.11295 (http:/ / dx. doi. org/ 10. 1073/ pnas. 95. 19. 11295). PMID 9736730 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/9736730). .

[8] Freeland SJ, Hurst LD (September 1998). « The genetic code is one in a million (http:/ / link. springer-ny. com/ link/ service/ journals/ 00239/bibs/ 47n3p238. html)». J. Mol. Evol. 47 (3):  pp. 238–48. doi: 10.1007/PL00006381 (http:/ / dx. doi. org/ 10. 1007/ PL00006381). PMID9732450 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 9732450). .

[9] Taylor FJ, Coates D (1989). «The code within the codons». BioSystems 22 (3):  pp. 177–87. doi: 10.1016/0303-2647(89)90059-2 (http:/ / dx.doi. org/ 10. 1016/ 0303-2647(89)90059-2). PMID 2650752 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 2650752).

[10] Di Giulio M (October 1989). «The extension reached by the minimization of the polarity distances during the evolution of the genetic code».J. Mol. Evol. 29 (4):  pp. 288–93. doi: 10.1007/BF02103616 (http:/ / dx. doi. org/ 10. 1007/ BF02103616). PMID 2514270 (http:/ / www.ncbi. nlm. nih. gov/ pubmed/ 2514270).

[11] Wong JT (February 1980). «Role of minimization of chemical distances between amino acids in the evolution of the genetic code». Proc.Natl. Acad. Sci. U.S.A. 77 (2):  pp. 1083–6. doi: 10.1073/pnas.77.2.1083 (http:/ / dx. doi. org/ 10. 1073/ pnas. 77. 2. 1083). PMID 6928661(http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 6928661).

[12] Knight, R.D. and Landweber, L.F. (1998). Rhyme or reason: RNA-arginine interactions and the genetic code. (http:/ / www. ncbi. nlm. nih.gov/ entrez/ query. fcgi?cmd=Retrieve& db=pubmed& dopt=Abstract& list_uids=9751648) Chemistry & Biology 5(9), R215-R220. PDFversion of manuscript (http:/ / bayes. colorado. edu/ Papers/ chmbio98. pdf)

[13] Brooks, Dawn J.; Fresco, Jacques R.; Lesk, Arthur M.; and Singh, Mona. (2002). Evolution of Amino Acid Frequencies in Proteins OverDeep Time: Inferred Order of Introduction of Amino Acids into the Genetic Code (http:/ / mbe. oupjournals. org/ cgi/ content/ full/ 19/ 10/1645). Molecular Biology and Evolution 19, 1645-1655.

[14] Freeland S.J.; Wu T. and Keulmann N. (2003) The Case for an Error Minimizing Genetic Code. (http:/ / www. ncbi. nlm. nih. gov/ entrez/query. fcgi?cmd=Retrieve& db=pubmed& dopt=Abstract& list_uids=14604186) Orig Life Evol Biosph. 33(4-5), 457-77.

Enlaces externosServicios online para convertir DNA en proteína• DNA to Amino Acid Conversion (http:/ / www. geneseo. edu/ ~eshamb/ php/ dna. php)• DNA Sequence -> Protein Sequence converter (http:/ / bioinformatics. picr. man. ac. uk/ bioinf/ tyates.

jsp?page=3)• DNA to protein translation (6 frames/17 genetic codes) (http:/ / insilico. ehu. es/ translate/ )Tablas del código genético• The Genetic Codes → Genetic Code Tables (http:/ / www. ncbi. nlm. nih. gov/ Taxonomy/ Utils/ wprintgc. cgi)Revisiones• Niremberg y Khorana, los hackers del ADN (http:/ / oliba. uoc. edu/ adn/ index. php?option=com_content&

view=article& id=116& Itemid=246& lang=es), en el Museo Virtual Interactivo sobre la Genética y el ADN.

Page 145: códigos - libro wikipedia

Fuentes y contribuyentes del artículo 142

Fuentes y contribuyentes del artículoCódigo  Fuente: http://es.wikipedia.org/w/index.php?oldid=61250551  Contribuyentes: Addicted04, Aleator, Camilo, Comae, Cookie, Diegusjaimes, Digigalos, El Pantera, Elwikipedista,Estevoaei, Fercufer, Hameryko, Helmy oved, Honch, JViejo, Jkbw, Jorge c2010, Jynus, ManuelGR, Marb, Moriel, PACO, Raimundo Pastor, Suisui, SuperBraulio13, Tomatejc, Warko, Yakoo,Ángel Luis Alfaro, 42 ediciones anónimas

Codificación  Fuente: http://es.wikipedia.org/w/index.php?oldid=62032165  Contribuyentes: Biasoli, DJ Nietzsche, Diegusjaimes, Fercufer, Halfdrag, Jmvkrecords, Jorge c2010, Matdrodes,Moriel, Raimundo Pastor, Warko, Yakoo, 6 ediciones anónimas

Codificación (memoria)  Fuente: http://es.wikipedia.org/w/index.php?oldid=57430680  Contribuyentes: DJ Nietzsche, 4 ediciones anónimas

Cognición  Fuente: http://es.wikipedia.org/w/index.php?oldid=61536292  Contribuyentes: 672, Acratta, Banfield, BuenaGente, Catarina Inostroza, Christopher.rafael, Daniel Tenerife,Diegusjaimes, Ebrenc, Elnuncabienponderado, Furado, GermanX, Hprmedina, JMCC1, Jkbw, Joarsolo, Jorge c2010, Kavor, Laura Fiorucci, Leonpolanco, Lucien leGrey, MONIMINO, MagisterMathematicae, Marilyn Mora, Matdrodes, Mercenario97, NestorFS, Netito777, PauloCesarCoronado, Praxilon, Retama, RoyFocker, Sebrev, Sergio Andres Segovia, Silvialon, Technopat, WakaWaka, Workforce, ZEN ic, 71 ediciones anónimas

Información  Fuente: http://es.wikipedia.org/w/index.php?oldid=61716020  Contribuyentes: Acratta, Alba Vallejo, AldanaN, Alejandro bera, Alphabravotango, Amajave, Amanuense, Angelito7,Anna-uv, Annie de la UIB, AnselmiJuan, Antonorsi, Anual, Arcibel, Aromera, Arquisoft2, Ascánder, Açipni-Lovrij, Bernard, Beto29, Biasoli, BlackBeast, Bonnot, BrWriter2, Breydi,Camimenca, Chewie, Ciberprofe, Ciencia Al Poder, Claudiame, Clementito, Csoliverez, Dangelin5, David0811, Davius, Delphidius, Diegusjaimes, Dorieo, Dreitmen, Echooo, Eduardosalg,Emiduronte, Evoluzion, FAR, Fernando Estel, Filipo, Frigotoni, Gaeddal, Garber, Globalphilosophy, Guachupei, HIPATIA2006, HUB, Helmy oved, Hombresinombre, Hprmedina, Icvav, Igna,Ignacio Icke, Ivonneth, J.M.Domingo, Jarisleif, Javierito92, Jesuja, Jkbw, Jmvgpartner, Joaquin.ivona, Jondel, Jorgechp, Julian Colina, KLosma, Komputisto, LP, Laura Fiorucci, Leonpolanco,Llopis73, Luckas Blade, Lukosa09, Luvalbia, Macuarropaellas, Magister Mathematicae, Mahadeva, Manuel Trujillo Berges, Matdrodes, Momoelf, Montgomery, Moriel, Muro de Aguas, Mutari,NeVic, Netito777, Nicop, Nixón, PACO, PhJ, Porao, Pólux, Queninosta, Rafa3040, Rastrojo, Raulvalderrama, Ravave, Rdaniels, Resped, Ricardogpn, Roberto Fiadone, Rodrigo Cornejo,RoyFocker, Rubpe19, SUL, Savh, Sdepares, Sebrev, Serlliolino, Soniautn, Soulreaper, Stefanyloraine, SuperBraulio13, Taichi, Tano4595, Tatubi, Technopat, Tirithel, U-Alex, Vatelys, Veon, VicFede, Vitamine, Wilfredor, 482 ediciones anónimas

Teoría de la información  Fuente: http://es.wikipedia.org/w/index.php?oldid=61653332  Contribuyentes: 119-MAD2-X91.libre.retevision.es, 141-MAD2-X90.libre.retevision.es,156-MAD2-X69.libre.retevision.es, 166-MAD2-X72.libre.retevision.es, Acratta, AstroNomo, BetoCG, CaesarExcelsus, Davius, Diegusjaimes, Earnaor, Edgar, Edub, Elisardojm, Eloy, Execoot,Fercufer, Frandzi.rangel, Gbsuar, Interwiki, Ivan.Romero, Jesuja, Jkbw, Julian leonardo paez, LP, Lalaconyforever, Loekiller, ManuelGR, Nerika, Nicoletis, PACO, Paintman, Pompilio Zigrino,Rcamacho, Sebasg37, SuperBraulio13, Technopat, ULIF050020014, Ucevista, Valdrik, Velual, conversion script, 47 ediciones anónimas

Entropía (información)  Fuente: http://es.wikipedia.org/w/index.php?oldid=61025812  Contribuyentes: Acratta, AlfonsoERomero, Alicia M. Canto, Allforrous, Barcex, BeatLeoTB, Clementito,Correogsk, David0811, Davius, Dogor, Dortegaparrilla, Earnaor, Elchureee, Ezarate, Fercufer, GermanX, GiL87, Gizmo II, Humbefa, J.M.Domingo, Javg, Jesuja, Jorge c2010, Jose figueredo,Juan Mayordomo, Loqu, M1ss1ontomars2k4, Pabloab, Ploncomi, Pólux, Saloca, Srbanana, Stardust, Tano4595, Wewe, Wiki-luismex, Yaselc, Yuri Grille Orce, 99 ediciones anónimas

Información mutua  Fuente: http://es.wikipedia.org/w/index.php?oldid=59583400  Contribuyentes: Davius, Fercufer, Pinar, Salvamoreno, Solarapex, Varano, 2 ediciones anónimas

Variable aleatoria  Fuente: http://es.wikipedia.org/w/index.php?oldid=62459808  Contribuyentes: Acratta, Alex15090, Allforrous, AlvaroEstadisticaCEU, Camilo, Carlos Manuel Nina,CayoMarcio, Cogliatti juan i, Dany yun, Davidmosen, Davius, Diegusjaimes, Emijrp, Estadistica 2009, Evaromero, Ezarate, Farisori, Gafotas, GermanX, Ginés90, Greek, Guilloip, Gökhan,Hiperfelix, Huhsunqu, Humbefa, Humberto, Icvav, Isha, JViejo, JakobVoss, Jkbw, Joseangelmadrid, Joseaperez, Juan Mayordomo, Juancdg, Laura Fiorucci, Luisedu90, Matdrodes, Metrónomo,Neodop, Numbo3, Pino, Pólux, Rastrojo, Samcienfuegos, Tartaglia, Wewe, Ybenitez, 119 ediciones anónimas

Incertidumbre (metrología)  Fuente: http://es.wikipedia.org/w/index.php?oldid=61149216  Contribuyentes: Ángel Luis Alfaro, 1 ediciones anónimas

Incertidumbre de calibración  Fuente: http://es.wikipedia.org/w/index.php?oldid=61673105  Contribuyentes: Hprmedina, Mandramas, Pedritojfk

Tolerancia de fabricación  Fuente: http://es.wikipedia.org/w/index.php?oldid=59945555  Contribuyentes: Alfredobi, Daniel De Leon Martinez, David Perez, David0811, Davius, Demonacho,Diegusjaimes, Edmenb, FrancoGG, Gerkijel, Helmy oved, Honmingjun, Humbefa, Héctor Guido Calvo, JMCC1, Jkbw, JorgeGG, Lin linao, MarcoAurelio, Netito777, NoCoin, Retorcido,SuperBraulio13, Tallers gervi, Tortillovsky, Vitamine, Yrithinnd, Zanaqo, 35 ediciones anónimas

Precisión  Fuente: http://es.wikipedia.org/w/index.php?oldid=60515802  Contribuyentes: Acratta, Aparejador, Camilo, Cestuila, Dermot, Diegusjaimes, Digigalos, Dnu72, Dodo, Dorieo,Felipealvarez, GermanX, HUB, Jaraga, Jesuja, Jkbw, Jorge c2010, Lcampospousa, Paintman, Roberto Fiadone, Tano4595, Tortillovsky, Vitamine, 36 ediciones anónimas

Exactitud  Fuente: http://es.wikipedia.org/w/index.php?oldid=57957965  Contribuyentes: Aparejador, Dnu72, Götz, Matdrodes, Portland, Pólux, Savh, Ángel Luis Alfaro, 25 ediciones anónimas

Reproducibilidad  Fuente: http://es.wikipedia.org/w/index.php?oldid=60833823  Contribuyentes: Acratta, Angelito7, Aparejador, Beto29, Digigalos, FAL56, HUB, Pilaf, Shalbat, Ángel LuisAlfaro, 10 ediciones anónimas

Entropía  Fuente: http://es.wikipedia.org/w/index.php?oldid=62381212  Contribuyentes: .José, 2rombos, Aida Ivars, Alefisico, Alejandrovh, Alexav8, Amrespi, Antoncinho, Arcibel,ArielRambo, Aurius, Backmind, Biasoli, CaesarExcelsus, Cdlp, Centroamericano, CleverChemist, Correogsk, Danielba894, Davius, Diegusjaimes, Divalino, Dronkit, Echani, Edslov, Ensada,Furti, Gallowolf, GermanX, HUB, Hac, Halfdrag, Hernan3009, Jjpb1, Jkbw, Jlu85, Jmcalderon, Jorge 2701, Jorge c2010, Jose.fcfraga, Julie, Karshan, Kismalac, Kved, Loqu, M1ss1ontomars2k4,Madalberta, Maldoror, Manuel SH, Matdrodes, Mindeye, Muro de Aguas, Mutari, Nestor Makhno, Nizampop, Oconel, Omega, Ortisa, Pacomeco, Paradoja, Pello, Ploncomi, Pólux, Rafa3040,Rafaellopezfernandez, Raulshc, Rjgalindo, Roberrpm, Savh, Sgiraldoa, Siabef, Taichi, Tano4595, Tostadora, UA31, Unificacion, Urdangaray, Vitamine, Xosema, YOUZEV, Yix, Yonatan smith,Æneas, 257 ediciones anónimas

Segundo principio de la termodinámica  Fuente: http://es.wikipedia.org/w/index.php?oldid=61681358  Contribuyentes: Acratta, Banfield, Bigsus, Cyrano77, DJ Nietzsche, Darsan 23, Davius,Delphidius, Diegusjaimes, Diosa, Doctor C, Dr Juzam, Ensada, Gorka17, Gusgus, Götz, Helmy oved, Hernancarrascoa, Ingolll, Jkbw, Jorge c2010, Joseaperez, LlamaAl, Matdrodes, Nihilo,Pjsw88, Ploncomi, Pérez, RoyFocker, Santiperez, Soulreaper, Sr.ferran, Srbanana, Tano4595, Tirithel, UA31, Wikiléptico, XalD, 112 ediciones anónimas

Constante de Boltzmann  Fuente: http://es.wikipedia.org/w/index.php?oldid=61388856  Contribuyentes: 19jp87, Af3, Anual, BlackBeast, Carlos Quesada, Correogsk, Diegusjaimes, Genba,Grillitus, Halfdrag, Humberto, LP, Mancerinio, Mercenario97, MiGUi, Ninrouter, Oscar ., Raulshc, Ricardogpn, SirSlither, Tamorlan, Xuankar, 31 ediciones anónimas

Neguentropía  Fuente: http://es.wikipedia.org/w/index.php?oldid=61060993  Contribuyentes: Airunp, Alejandrosanchez, Algarabia, Allforrous, Alrik, Atalaia, Davius, Emijrp, Feministo,Gcorreac, GermanX, Gusama Romero, Hprmedina, Julie, Kael, LP, Maldoror, Pa-tovar, Sebasg37, Shevek, Tamorlan, Tomatejc, Tubet, 16 ediciones anónimas

Ciclo de Carnot  Fuente: http://es.wikipedia.org/w/index.php?oldid=61460933  Contribuyentes: Albertofcasuso, Alexquendi, Alhen, Carabás, Claudio hurtado, Diegusjaimes, Digigalos, Espince,Ingolll, Iuliusfox, Jkbw, Ketakopter, Laura Fiorucci, Maldoror, MarcoAurelio, Matdrodes, Mcapdevila, Millars, Nachoj, Netito777, Ortisa, Pólux, Richiguada, Superzerocool, Tano4595,Troodon, Walter closser, 62 ediciones anónimas

Máquina de Carnot  Fuente: http://es.wikipedia.org/w/index.php?oldid=56389241  Contribuyentes: Arkwatem, CommonsDelinker, Dalo86, GermanX, Glenn, Lourdes Cardenal,Mambrumotumbo, Pan con queso, Taichi, Tano4595, Wricardoh, Yeray-muaddib, 11 ediciones anónimas

Energía de Gibbs  Fuente: http://es.wikipedia.org/w/index.php?oldid=61842490  Contribuyentes: .José, .Sergio, Acratta, Andresjk, Aranka, Banfield, BlackBeast, Bryant1410, Chayinator,Chizpa.v, Davius, Diegusjaimes, Dreitmen, Eamezaga, Edgar.lucena, Erik Mora, Estelamargentina12, Ingolll, Jaluj, Javierito92, Jorge c2010, Jurock, Lukadada, Lygeum, MadriCR, Mansoncc,Matdrodes, Mathias536, Muro de Aguas, Mutari, OboeCrack, Pablo R. Ojeda, Raulshc, Ricardogpn, Rizobio, Rjgalindo, Rubpe19, Santiperez, Santisis, Srbanana, Tano4595, Tostadora, 118ediciones anónimas

Código morse  Fuente: http://es.wikipedia.org/w/index.php?oldid=61543395  Contribuyentes: Acratta, Albasmalko, Anagarmol, Angel GN, Annuski, Aofvilla, Aparejador, Armin76, Açipni-Lovrij, Baloo svq, Barrie, Bryanpvz, CASF, Camilo, Chris K, Cobalttempest, Cookie, Ctrl Z, Cuidrouy, Cyber-It, DJ Nietzsche, Daguero, Daniel G., DaveFX, David0811, Diegusjaimes, Donner, Drjackzon, Ea5bcx, Eduardosalg, Efepe, Emijrp, Ente X, FCPB, Fadesga, Felipealvarez, Fokerman, Foundling, Furti, Greek, Gusgus, Halfdrag, Humberto, Igna, Ikaru, Isha, JMCC1, JMPerez, JViejo, Jalber ferney, Javierito92, Jkbw, JorgeGG, Julirc, K19, KErosEnE, Kojie, Kuronokoneko, Laura Fiorucci, Leonpolanco, Lironcareto, Livajo, Lucien leGrey, Ludor, MILEPRI, Mabema1, Magister Mathematicae, Mandramas, Mansoncc, Manuelt15, Manuelvh, Manwë, Masterluke, Matdrodes, Mejler, Mel 23, Mercenario97, Miguel Ángel Corral Peltzer, Miniush,

Page 146: códigos - libro wikipedia

Fuentes y contribuyentes del artículo 143

Mpeinadopa, Muro de Aguas, Mutari, Netito777, Nihilo, Nioger, Nixón, Numbo3, OboeCrack, Oscar ., Ositoster, PACO, Pablogger, Pato360, PeiT, Petruss, Poco a poco, Pólux, Ramjar, Ravave,Rbidegain, Relampague, Ricardogpn, Rosarino, Rubpe19, Rαge, Sanbec, Savh, Sejomagno, SuperBraulio13, Taichi, Takashi kurita, Technopat, Thr41N, Tomatejc, Tortillovsky, Triku, Tripy,VanKleinen, Variable, Vbenedetti, Velual, Vitamine, Wikiléptico, Wilco346, Wilfredor, XalD, Érico Júnior Wouters, 399 ediciones anónimas

Algoritmo de Huffman  Fuente: http://es.wikipedia.org/w/index.php?oldid=56393184  Contribuyentes: CarlosHoyos, Daniel G., Dga-ada08, Diegusjaimes, Farisori, Jac, Jacobo Tarrio, LordT,Ogre, Platonides, Ssola, Tano4595, 9 ediciones anónimas

Deflación (algoritmo)  Fuente: http://es.wikipedia.org/w/index.php?oldid=41051743  Contribuyentes: Atreides2k5, Daniel G., Gothmog, Ninovolador, Niqueco, PabloCastellano, Shooke,Wikisilki, 7 ediciones anónimas

Entropía condicional  Fuente: http://es.wikipedia.org/w/index.php?oldid=57608662  Contribuyentes: Dangelin5, Davius, 1 ediciones anónimas

Teorema de Bayes  Fuente: http://es.wikipedia.org/w/index.php?oldid=61646067  Contribuyentes: ALBERTOPMONT, Aiax, Akma72, Alfredobi, Ascánder, Belgrano, Cgb, Cobalttempest,Creosota, Dianai, Diegusjaimes, Dodo, Est JuanPe Emma, Farisori, Fjcaba, GermanX, Hssalinas, Jkbw, Joseaperez, Juan Mayordomo, Leonpolanco, Matdrodes, Orla725, Revenga10V, Roalag,Rosarino, Rrecillas, Stifax, Stoni, Taichi, Tano4595, Triku, Vitamine, Vivero, 86 ediciones anónimas

Cifrado (criptografía)  Fuente: http://es.wikipedia.org/w/index.php?oldid=61656718  Contribuyentes: Acratta, Chewie, Death Master, Ferbr1, Fercufer, Marco Regueira, Mcapdevila, 6 edicionesanónimas

Criptoanálisis  Fuente: http://es.wikipedia.org/w/index.php?oldid=62166728  Contribuyentes: Acratta, Alexav8, Chewie, Coincazo, Davius, Death Master, Dodo, Fercufer, GermanX, Iqgomez,Jamawano, Javier Carro, Jjvaca, Julianmejio, Lasai, Lecuona, LogC, Luis.osa, Mandramas, Matdrodes, Neodop, Penquista, Poc-oban, RauBn, Raul.lara, Sanbec, SpeedyGonzalez, Swicher,Tano4595, Template namespace initialisation script, XBaDx, Xerox 5B, 17 ediciones anónimas

Distancia de unicidad  Fuente: http://es.wikipedia.org/w/index.php?oldid=56355615  Contribuyentes: Fercufer, 2 ediciones anónimas

Ratio de entropía  Fuente: http://es.wikipedia.org/w/index.php?oldid=56733562  Contribuyentes: Fercufer, Wikielwikingo, 1 ediciones anónimas

Proceso estocástico  Fuente: http://es.wikipedia.org/w/index.php?oldid=62041433  Contribuyentes: Acratta, Akhram, BludgerPan, Correogsk, Davius, Diegusjaimes, Elwikipedista, Fanattiq,Farisori, Gaeddal, GermanX, Grillitus, Hhmb, Hlnodovic, Humbefa, J. A. Gélvez, Javg, Jkbw, Juan Manuel, Kordas, LuchoX, NicolasAlejandro, Paintman, Phirosiberia, Resped, Rsg, Waykicha,45 ediciones anónimas

Distribución de probabilidad  Fuente: http://es.wikipedia.org/w/index.php?oldid=61899671  Contribuyentes: Acratta, Af3, AlfonsoERomero, Artorius, Carlosfran2ceu, Centroamericano,Cflm001, Cgb, CivilianVictim, Ctrl Z, Davius, Diegusjaimes, Dnu72, Dodo, Enen, Evra83, Farisori, Germanrinconrey, Humbefa, Immersia, Interwiki, J.delanoy, JakobVoss, JorgeGG,Joseaperez, Juan Mayordomo, Juanwrs, Juliabis, Kved, Lucien leGrey, Luiswtc73, Maldoror, Manuelt15, Manwë, Maquita, Matdrodes, MegaBlackDad, Miss Manzana, Moriel, Neozonik,Nicoguaro, PabloAlv, PabloCastellano, Paulrc, Peregrino, Petruss, Poco a poco, Rubpe19, Sabbut, Sardur, Sebrev, Tano4595, Tokvo, Umarth8, Vitamine, Zahualli, 124 ediciones anónimas

Aleatoriedad  Fuente: http://es.wikipedia.org/w/index.php?oldid=61567425  Contribuyentes: 333, Acratta, Antipatico, Antón Francho, Armando-Martin, Ary29, Baiji, BlackSalamander, Cgb,Dani goo, Diegusjaimes, Erzbischof, FCA00000, Florendas, Gerwoman, Gizmo II, Gothmog, Hlnodovic, Humbefa, Humberto, Invadinado, Jkbw, Jorge c2010, Josell2, Juan Mayordomo,Lasneyx, Locutus Borg, Magister Mathematicae, Mendozar80, Morza, Nihilo, PatricioAlexanderWiki, Raimundo Pastor, Retama, Roberto Fiadone, Soulreaper, Tortillovsky, Tucto, Varano,Waka Waka, Yrithinnd, 43 ediciones anónimas

Teoría de la computabilidad  Fuente: http://es.wikipedia.org/w/index.php?oldid=59856063  Contribuyentes: AchedDamiman, Acratta, Airunp, Ascánder, Carutsu, Chien, Diegusjaimes, Dodo,Dogor, Elmolinari, FAR, Farisori, Gafotas, Gauleng, Honorio madrigal, Héctor Guido Calvo, Irbian, Isha, JMCC1, Jmm79, Leitzaran, Lucianobello, Marsa, Muro de Aguas, Olea, Oscar ., Richy,Tamorlan, Zanaqo, 32 ediciones anónimas

Teoría de la complejidad computacional  Fuente: http://es.wikipedia.org/w/index.php?oldid=62504979  Contribuyentes: -jem-, AchedDamiman, Alexav8, AlfonsoERomero, Argentumm,Ascánder, Azevedo bandeira, Barcex, Cesarsorm, Elabra sanchez, Farisori, Fer31416, Focojoaco, Gato ocioso, Halfdrag, Ivan.Romero, Jstitch, Juan Mayordomo, LuqueII, Macarse, Martin78B,Maxidigital, Moriel, Naki, Nicolasdiaz, Pablohe, RoyFocker, Ruben.mg, Surscrd, Tano4595, Uruk, V.mendiola, Zild, 68 ediciones anónimas

Teoría de la computación  Fuente: http://es.wikipedia.org/w/index.php?oldid=61819275  Contribuyentes: Alan.lorenzo, Ascánder, Balderai, Cinabrium, DIKSON, Dark, Diegusjaimes,Domaniom, El Pitufo, Elsenyor, Farisori, Fer31416, Ferbrunnen, Gafotas, Helmy oved, Ingenioso Hidalgo, Ivan.Romero, Jorgechp, Jstitch, Julian Mendez, Kn, Mansoncc, Manwë, Mcapdevila,Melocoton, Niceforo, Pabos95, Pólux, Racso, Rauldragon, SharkWolf123, Sir Magician, SpeedyGonzalez, SuperBraulio13, Tano4595, Technopat, UA31, Valentin estevanez navarro, 61ediciones anónimas

Ciencias de la computación  Fuente: http://es.wikipedia.org/w/index.php?oldid=62487754  Contribuyentes: -jem-, 217-126-150-34.uc.nombres.ttd.es, Acratta, Agviquez86, AldanaN,Aledesanfer95, AlfonsoERomero, Andreasmperu, AndyVec, Antonorsi, Antón Francho, Apaz, Aquila ltda, Balderai, Brainup, Cedecomsa, Chester269, Chien, Cmonzonc, Comae, Cookie,Correogsk, Cratón, Cristianrock2, DIANA ALCANTARA, Damian cf, Davidzodelin, Death Master, Diegusjaimes, Djblack!, Dromero, EL Willy, Edc.Edc, Eduardosalg, Edulix, El loko,Emiduronte, Er Komandante, Ezarate, Farisori, Furti, Greek, Greenbreen, HIPATIA2006, Helmy oved, Hidoy kukyo, Isha, JMCC1, Janus, Jarlaxle, Jefrcast, Jesuja, Jim88Argentina, Jkbw, JoseAragon, Jstitch, Jtico, Juan.res, Kn, Kulos, Kved, LMLM, Lapaxangacity, Lautaroo, Leonpolanco, Leugim1972, Mafores, ManuelGR, Marcoantoniothomas, Matdrodes, Maury11rock,Maveric149, McMalamute, Mdd, MercurioMT, Miguelo on the road, Muro de Aguas, Natalia Villarroel, Netito777, Ortisa, Paintman, Pedro Nonualco, Pinar, Poco a poco, Pólux, Rafael.heras,Rastrojo, Rodrigouf, RonaldoExtreme, Ruy Pugliesi, Rαge, Sabbut, Seasz, Sergio Andres Segovia, Slastic, Smileegar, Sosqartxa, SuperBraulio13, Tano4595, Taragui, Technopat, Thorongil,Tirithel, Trylks, UA31, Vitamine, Vubo, Walter closser, Xavier, Youssefsan, conversion script, Ál, 313 ediciones anónimas

Clase de complejidad  Fuente: http://es.wikipedia.org/w/index.php?oldid=60795952  Contribuyentes: AchedDamiman, Argentumm, Ascánder, Ezarate, Farisori, Narayan82, Superzerocool, 11ediciones anónimas

Problema de decisión  Fuente: http://es.wikipedia.org/w/index.php?oldid=57537482  Contribuyentes: Acratta, Ascánder, Cek, Eduardosalg, Farisori, GermanX, Guille.hoardings, Julie, Lluvia,Mariana de El Mondongo, Marsa, Netito777, Tomatejc, Trylks, 7 ediciones anónimas

Problema computacional  Fuente: http://es.wikipedia.org/w/index.php?oldid=60369188  Contribuyentes: Jkbw, Kn, Ruber.badias, 5 ediciones anónimas

Código genético  Fuente: http://es.wikipedia.org/w/index.php?oldid=61832887  Contribuyentes: ADRIANHDZ, Acratta, Adrianhdzh, Andrés Cortina, AngelHerraez, Antur, Banfield, Beta15,Bsea, Cri99sti99an99, Danielgamez, David0811, Diegusjaimes, Eduardosalg, Equi, Gcaruso, Gerwoman, Greek, Grillitus, HUB, Helmy oved, Humbefa, Ialad, Igna, J3D3, Jcfidy, Jkbw,Jmvkrecords, Jordi domenech, Joseaperez, KnightRider, LP, Laura Fiorucci, Leonpolanco, Lune bleue, MadriCR, Manuelt15, Matdrodes, Mel 23, Moriel, Neodop, Netito777, Nuen, Opinador,Orgullomoore, Otacon, PaleoFreak, Pólux, Queninosta, Retama, Rlebron88, RoyFocker, Rsg, Sabbut, Sauron, Savh, SuperBraulio13, Taichi, Tirithel, UA31, UPO649 1011 clmilneb, Vitamine,Wilfredor, Ylmer, 221 ediciones anónimas

Page 147: códigos - libro wikipedia

Fuentes de imagen, Licencias y contribuyentes 144

Fuentes de imagen, Licencias y contribuyentesArchivo:Ebbinghaus2.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Ebbinghaus2.jpg  Licencia: Public Domain  Contribuyentes: Atamari, Avron, DO11.10, Elya, Magog theOgre, Milgesch, Pierre AuditéArchivo:Facevase.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Facevase.png  Licencia: GNU Free Documentation License  Contribuyentes: Emil, Nevit, Paulo Cesar-1,TommyBee, 2 ediciones anónimasArchivo:ProcesamientoDatos.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:ProcesamientoDatos.svg  Licencia: Public Domain  Contribuyentes: ProcesamientoDatos.png:Moriel derivative work: GeysirArchivo:Commons-logo.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Commons-logo.svg  Licencia: logo  Contribuyentes: SVG version was created by User:Grunt andcleaned up by 3247, based on the earlier PNG version, created by Reidab.Archivo:Spanish Wikiquote.SVG  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Spanish_Wikiquote.SVG  Licencia: logo  Contribuyentes: James.mcd.nzArchivo:Esquema de comunicación Shannon.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Esquema_de_comunicación_Shannon.png  Licencia: Creative CommonsAttribution-Sharealike 3.0  Contribuyentes: User:NicoletisArchivo:Entropiaudem.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Entropiaudem.jpg  Licencia: Public Domain  Contribuyentes: gabojorArchivo:Binary entropy plot.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Binary_entropy_plot.svg  Licencia: GNU Free Documentation License  Contribuyentes: Brona andAlessio DamatoArchivo:Entropy-mutual-information-relative-entropy-relation-diagram.svg  Fuente:http://es.wikipedia.org/w/index.php?title=Archivo:Entropy-mutual-information-relative-entropy-relation-diagram.svg  Licencia: Public Domain  Contribuyentes: KonradVoelkelArchivo:Explosions.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Explosions.jpg  Licencia: Public Domain  Contribuyentes: Kotasik, Lupo, Red devil 666, 1 edicionesanónimasArchivo:Wykres Gibbsa.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Wykres_Gibbsa.svg  Licencia: Public Domain  Contribuyentes: FraximusArchivo:Carnot engine scheme.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Carnot_engine_scheme.svg  Licencia: Creative Commons Attribution 2.5  Contribuyentes: KetaArchivo:Carnot cycle p-V diagram.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Carnot_cycle_p-V_diagram.svg  Licencia: Creative Commons Attribution-ShareAlike 3.0Unported  Contribuyentes: Dake, Keta, 3 ediciones anónimasArchivo:CarnotCycle1.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:CarnotCycle1.png  Licencia: Public Domain  Contribuyentes: Bigbluefish, Dake, PAR, Perhelion, SmiehArchivo:Carnot-engine-1824.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Carnot-engine-1824.png  Licencia: Public Domain  Contribuyentes: User Sadi Carnot onen.wikipediaArchivo:Intcode.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Intcode.png  Licencia: Public Domain  Contribuyentes: Rhey T. Snodgrass and Victor F. CampArchivo:SOS.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:SOS.svg  Licencia: Creative Commons Attribution-Sharealike 3.0  Contribuyentes: Dr. SchorschArchivo:David morse.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:David_morse.jpg  Licencia: Public Domain  Contribuyentes: FokermanArchivo:ArbolCodigoHuffman.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:ArbolCodigoHuffman.svg  Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported Contribuyentes: Of this SVG, Roland Geider (Ogre); of the original, Jacobo TarrioImage: OneTimePadExcerpt.agr.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:OneTimePadExcerpt.agr.jpg  Licencia: GNU Free Documentation License  Contribuyentes:User:ArnoldReinholdArchivo:Al-kindi-cryptanalysis.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Al-kindi-cryptanalysis.png  Licencia: Public Domain  Contribuyentes: Bjh21, Duesentrieb, Mu,Sador, SissssouArchivo:Bombe-wh.700px.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Bombe-wh.700px.jpg  Licencia: GNU Free Documentation License  Contribuyentes: User:TedColesArchivo:Zimmermann-telegramm-offen.jpg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Zimmermann-telegramm-offen.jpg  Licencia: Public Domain  Contribuyentes: NationalArchivesArchivo:TelekomAustriaAktie.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:TelekomAustriaAktie.png  Licencia: Creative Commons Attribution-Sharealike 2.5 Contribuyentes: EvaK, It Is Me Here, Pieter Kuiper, Piotrus, Tangopaso, Thalion77, TommyBeeArchivo:Standard deviation diagram.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Standard_deviation_diagram.svg  Licencia: Creative Commons Attribution 2.5 Contribuyentes: MwtoewsArchivo:Binomial Distribution.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Binomial_Distribution.svg  Licencia: GNU Free Documentation License  Contribuyentes: cflm(talk)Archivo:Normal distribution pdf.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Normal_distribution_pdf.png  Licencia: GNU General Public License  Contribuyentes:Ardonik, Gerbrant, Grendelkhan, Inductiveload, Juiced lemon, MarkSweep, Wikiwide, 10 ediciones anónimasArchivo:Closest pair of points.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Closest_pair_of_points.svg  Licencia: Creative Commons Zero  Contribuyentes: QefImage:Wikiquote-logo.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Wikiquote-logo.svg  Licencia: Public Domain  Contribuyentes: -xfi-, Dbc334, Doodledoo, Elian, Guillom,Jeffq, Krinkle, Maderibeyza, Majorly, Nishkid64, RedCoat, Rei-artur, Rocket000, 11 ediciones anónimasArchivo:Bundesarchiv Bild 183-S1024-016, VEB Robotron Elektronik Dresden, Computer EC 1040.jpg  Fuente:http://es.wikipedia.org/w/index.php?title=Archivo:Bundesarchiv_Bild_183-S1024-016,_VEB_Robotron_Elektronik_Dresden,_Computer_EC_1040.jpg  Licencia: Creative CommonsAttribution-Sharealike 3.0 Germany  Contribuyentes: Jed, Lotse, YMSArchivo:Wikiversity-logo-Snorky.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Wikiversity-logo-Snorky.svg  Licencia: desconocido  Contribuyentes: -Archivo:solidLine.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:SolidLine.png  Licencia: Public Domain  Contribuyentes: Ascánder, StuxArchivo:dottedLine.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:DottedLine.png  Licencia: Public Domain  Contribuyentes: Ascánder, Kajk, Rocket000Archivo:Codones-ARN.png  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Codones-ARN.png  Licencia: Public Domain  Contribuyentes: Andrés Samael Cortina RamírezArchivo:GeneticCode21-version-2.svg  Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:GeneticCode21-version-2.svg  Licencia: Public domain  Contribuyentes: Edited by SethMiller User:arapacana, Original file designed and produced by: Kosi Gramatikoff User:Kosigrim, courtesy of Abgent, also available in print (commercial offset one-page: original version of theimage) by Abgent

Page 148: códigos - libro wikipedia

Licencia 145

LicenciaCreative Commons Attribution-Share Alike 3.0 Unported//creativecommons.org/licenses/by-sa/3.0/