290 likes | 512 Views
Información. Pontificia Universidad Católica del Perú. Eduardo M assoni. Entropia Termodinamica S. L eyes de la Termodinámica. Primera Ley. Conservación de la Energía. Segunda Ley. Entropía del Universo siempre crece. Tercera Ley. No se puede Alcanzar el cero Absoluto.
E N D
Información Pontificia Universidad Católica del Perú Eduardo Massoni
Leyes de la Termodinámica Primera Ley Conservación de la Energía Segunda Ley Entropía del Universo siempre crece Tercera Ley No se puede Alcanzar el cero Absoluto
Ciclo de Carnot Carnot Isotermico Eficiencia Adiabatico
Carnot: “Nadie Le Gana A Mi Motor” Motor reversible Motor Refrigerador C C C M 2C
Carnot: “Nadie Le Gana A Mi Motor” Un motor reversible que trabaja a dos temperaturas tiene la misma eficiencia que un motor de carnot Postulado Es imposible un proceso cuyo único resultado sea la transferencia de energía en forma de calor de un cuerpo de menor temperatura a otro de mayor temperatura.Enunciado de Clausius M 2C
Postulado Es imposible todo proceso cíclico cuyo único resultado sea la absorción de energía en forma de calor procedente de un foco térmico (o reservorio o depósito térmico), y la conversión de toda ésta energía en forma de calor en energía en forma de trabajo».Enunciado de Kelvin-Planck.
Hay una cantidad asocianda al sistema que llamaremos S tal que : Para el ciclo de Carnot Para cualquier ciclo cerrado el cambio de entropia S es nulo S es una funcion de estado
Segunda Ley Universo es un sistema cerrado S2 S3 S1 T1 T1 Q Q T2 T2 Procesos que no aumentan la entropia del universo no son posibles Postulado Es imposible un proceso cuyo único resultado sea la transferencia de energía en forma de calor de un cuerpo de menor temperatura a otro de mayor temperatura.Enunciado de Clausius
¿ Que es esta variable S ? Boltzmann I D W= # de formas 1) IIIIIIIIIIIIIII W=1 2) IIIIIIDIIIIIIII W=N I D 3) IDIDIDIDIDIDID W=2N I D
En este sistema aislado, cualquier configuracion o estado tiene la misma probabilidad Segunda Ley • La entropia mide el desorden medido • como el numero de estados posibles • Procesos en el universo aumentan la entropia I D
Principio de Landauer (1961) El calor necesario para borrar un bit de informacion es:
La informacion se guarda en sistemas fisicos, por lo el manejo de informacion se rige bajo leyes fisicas Demonio de Maxwell ¿Entropia decrece?
NO Universo La entropia total del sistema +universo crece!!
¿Como cuantificamos la informacion? Teoria de la Informacion ( 1948) Lord Shannon A mathematicaltheory of communication Fuente Receptor Canal Codificador Decodificador Codificador comprime la informacion y codifica la transmision Medimos la cantidad de informacion por la cantidad de recursos que necesitamos para mandar un mensaje
¿Como cuantificamos la informacion? Teoria de la Informacion ( 1948) Lord Shannon A mathematicaltheory of communication Fuente Receptor Canal Codificador Decodificador Codificador comprime la informacion y codifica la transmision Medimos la cantidad de informacion por la cantidad de recursos que necesitamos para manadr un mensaje
Redundancia “ Si hay redundancia podemos comprimir un mensaje” “La redundancia es buena en el sentido que permite corregir errores” “ El idioma Ingles tiene un factor de compresion 2” “ Mientras mayor redundancia , Mayor compresion y menor cantidad de recursos paraenviar la informacion” “ Mayor redundancia Menos informacion”
Ejemplo Central de apuestas Hipodromo Codificador ¿Para ocho caballos necesitamos 3 bits? # promedio de bits para mandar resultados en un año
Con esta codificacion el numero promedio de bits se puede escribir como: Con esta codificacion el numero promedio de bits se puede escribir como:
AL numero promedio de bits necesario para mandar la informacion esta dada por Entropia de Shannon Eventos menos frecuentes necesitan mas bits Eventos mas frecuentes necesitan menos bits
¿Como interpretamos la informacion en un evento? Si consideramos la variable aleatoria Con probabilidades Diremos que la cantidad de informacion en el evento “i” estara dado por: Unidades Bits o Nats Que es consistente con:
Sourcecodetheorembyshannon El maximo de compresion posible esta dado por El maximo de compresion mide la cantidad de informacion
¿Hay alguna Relacion entre la entropia S y H? Como en el estado inicial y final de equilibrio termico la probabilidad de cada estado es 1/W Informacion del universo crece!!!
Entropia de Von Neumann • Q uantum bits • Enmarañamiento • Teleportacion • Criptografiacuantica • Decoherencia • Informacion accesible Quantum Information es mas complicada
Conclusiones Von Newmann a Shannon “Debes llamarlo entropía por dos razones. En primer lugar tu función de incertidumbre ha sido usada en mecánica estadística bajo ese nombre, por tanto, ya tiene un nombre. En segundo lugar, y más importante, nadie sabe realmente qué es la entropía, por tanto, en un debate siempre tendrás esa ventaja. Las tres leyes de la termodinámica : 1) No puedes ganar. 2) No puedes empatar. 3) No puedes abandonar el juego. Gracias!!