1 / 22

L’information c’est physique ou comment exorciser les Démons

L’information c’est physique ou comment exorciser les Démons. David Poulin Département de physique et DIRO Université de Montréal. 1. Introduction. Manipulation. Physique Information. États quantiques Craie Feynman: problème quantique, info quantique Ordinateur analogique.

ronnie
Download Presentation

L’information c’est physique ou comment exorciser les Démons

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. L’information c’est physique ou comment exorciser les Démons David Poulin Département de physique et DIRO Université de Montréal 1. Introduction Manipulation Physique Information • États quantiques • Craie • Feynman: problème quantique, info quantique • Ordinateur analogique Prédictions Physique Information • Méthode d’entropie maximale • Thermodynamique = minimiser I avec • contraintes macroscopiques Physique Information

  2. Information -i i. Information ??? intuition. But: Déterminer les 4 variables Pab. À notre disposition: 4 équations linéaires dont 3 indépendantes. Solution: Choisir celle qui introduit le moins d’information.  Multiplicateurs de Lagrange. Il nous reste à trouver I !!!

  3. Information -2 2. Information Information contenue en moyenne dans un message An {Ai}i=1..N ? Pr(An) = pn, Cas extrêmes 1) pn=1 , pi=0 , i j  Information=0 2) pi= , i=1..N  Information maximale Cas général (Entropie de Shannon, 1949) k > 0 (k =1 et ln = log2 bits)

  4. Information -3 Information = # minimal de bits par message Exemple trivial: Exemple moins trivial:

  5. Information -4 On trouve bien <l> = 7/4. On est contraint à trouver une représentation qui ne présente aucune ambiguïté: 1 0 1 1 0 1 0 0 1 1 1 0 ... B C B A D A De façon générale, Jaynes, 1954. Faire de la thermodynamique, c’est trouver les probabilités pi, associées à chaque état microscopique i, qui minimisent l’information I tout en respectant les contraintes macroscopiques tels le volume, la pression, ... Les résultats obtenus sont identiques aux résultats établis depuis longtemps ...

  6. Thermodynamique -5 3. Thermodynamique • Les lois de la thermodynamique: • 0. L’équilibre thermodynamique existe. • 1. L’énergie est conservée. • 2. L’entropie ne peut qu’augmenter. • 3. L’entropie tend vers une constante quand T 0. • 1. You cannot win, you can only get even. • 2. You can only get even at absolute zero. • 3. You cannot reach absolute zero! • L’impossibilité de construire une machine à • mouvement perpétuel est une conséquence des • 3 lois. • Machines à vapeur (thermiques) • Centrales nucléaires • Moteurs à combustion • Disque dur (but de l’exposé!)

  7. Thermodynamique -6 Toutes les machines à vapeur ont le même principe de fonctionnement: Chaud T1 Q1 W Q2 T2 Froid Par conservation de l’énergie: Q1 = Q2 + W Note: Si W <0, c’est un réfrigérateur! Définition opérationnelle de l’ENTROPIE: S est connue à une constante additive près.

  8. Thermodynamique -7 De la deuxième loi, on obtient L’efficacité d’une machine thermique est “=“  S = 0  Réversible. Une efficacité de 1 signifie que toute la chaleur Q1 tirée du réservoir chaud sert à faire un travail W.

  9. Entropie -8 4. Entropie Carnot 1830 & Clausius 1850 Boltzmann ~1870-80  = # d’états accessibles Gibbs ~1910 La formulation de Boltzmann est un cas particulier de la forme générale de Gibbs:

  10. Entropie -9 C’est la même formule mathématique que l’information de Shannon!!! Coïncidence? Note1. Pourquoi une constante additive?  ’= n La mécanique quantique nous indique comment séparer correctement l’espace de phase: on compte les états orthogonaux.

  11. Entropie -10 Note 2. Pourtant, les équations de la physique sont parfaitement symétriques dans le temps: t  -t La deuxième loi de la thermodynamique est la seule loi de la physique qui introduit une asymétrie du temps. Un réfrigérateur ne diffère d’une machine à vapeur que par le sens de l’écoulement du temps.

  12. Le Démon de Maxwell -11 5. Le Démon de Maxwell T1 T2 Q1 Q2 Illustration Darling et Hulburt: Q1+Q2=0 (1ere loi) Le Démon enfrein la seconde loi, il peut donc construire une machine à mouvement perpétuel !

  13. Trouver la faille -12 6. Trouver la faille Szilard 1929 Pour être efficace, la Démon doit prendre une mesure sur le système. Ansatz: La mesure augmente l’entropie du système Démon-Boîte de kBln2J/K. Machine de Szilard: Particule dans une boîte. Met une cloison et mesure. Extrait du travail du système. État initial. S=kB ln S=kB ln( /2 ) +Sm =kB (ln - ln2 + ln2) S = 0 W C’est une machine de Carnot !!! Réversible.

  14. Irréversibilité logique -13 Brillouin 1950 L’entropie augmente lors de l’acquisition (mesure) d’information. S = I. Trouve des exemples pour justifier. 7. Irréversibilité logique Landauer Les opérations logiquement irréversibles ont un coût thermodynamique. 01=0 -1(0)=(?,?) L’information, peu importe sa forme et son contenu, doit être supportée (représentée) par un système physique. • Disque dur: moments magnétiques. • Mémoire humaine: neurones. • Signaux lumineux: amplitude, fréquence, ... • etc.

  15. Irréversibilité logique -14 Exemple d’opération logiquement irréversible: remise à 0 ou “reset”. Support physique: particule dans une boîte. 0 = 1 = 1. Si la boîte ne contient pas d’information, c’est parce que nous savons, avec probabilité 1, où se trouve la particule. i.e. Notre cerveau possède une copie du contenu. L’effacer n’est donc pas irréversible. 0  Laisse tel quel. 1  Aucun coût thermodynamique.

  16. Irréversibilité logique -15 2. Si la boîte contient de l’information (on ignore son contenu), on doit utiliser un piston afin de contraindre la particule à se situer dans la partie de gauche. ? W Je fournis un travail ? Une opération logiquement irréversible coûte au moins kBT ln2 J d’énergie. Cet exemple est généralisable à tout système physique, le volume devient l’espace de phase.

  17. Irréversibilité logique -16 Bennett 1982, Pour en revenir au Démon ... Mémoire Gain Système 0 ? ? 0 0 W kBT ln2 ? 0 W ? -kBT ln2

  18. Complexité algorithmique -17 8. Complexité algorithmique Kolmogorov, Solomonoff, Chaitin. Définition Soit alors • U est une machine de Turing universelle. • p est une chaîne de 0 et de 1 servant de programme. • |p| est la longueur de p. • U(p) est le résultat de l’exécution de p sur U. La complexité d’une chaîne x est la longueur du plus petit programme qui donne x lorsqu’exécuté sur une machine de Turing universelle.  K est donc défini à une constante additive près. Définitionx est aléatoire  K(x) = |x|.

  19. Complexité algorithmique -18 Exemplex = 00000...0 (1,267  1030 fois) p: BEGIN PROGRAM DO I=1,1.126E30 WRITE 0 END DO END PROGRAM |p|100 = longueur binaire de 1,267  1030 =2100. 100 << 1,267  1030 , non aléatoire. Exemplex = 001101010011101011110... p: BEGIN PROGRAM WRITE 00110101001110... END PROGRAM |p||x| , x est aléatoire.

  20. Complexité algorithmique -19 Exemplex = 1100100100001111110110... Est-ce-que x est aléatoire? NON, x = , un simple programme peut le générer. • K est bien défini, mais incalculable la plupart • du temps. • Connaître p = connaître x • I(p) = I(x) • Possibilité de compresser réversiblement x. • Le Démon peut encore enfreindre la seconde loi si: • il possède une mémoire pouvant storer N >1 bits. • il répète N fois • Mesure la particule • Extrait du travail • compresse sa mémoire • efface la mémoire compressée Gain =

  21. Complexité algorithmique -20 Zurek 1984 L’entropie physique est la somme de l’entropie de Gibbs (thermodynamique) et de la complexité algorithmique du système. Il existe beaucoup plus de chaînes aléatoires que de chaînes algorithmiquement simples dans la nature. Grossièrement, l’information de Shannon est l’équivalent de la complexité pour un système statistique. Puisque l’information de Shannon est une fonction de la distribution de probabilité, elle ne peut pas être calculée pour une seul objet, on utilise donc la complexité Pour un ensemble statistique:

  22. L’information c’est physique -21 9. L’information c’est physique Shumacher Démon lecteur Démon effaceur Information 01101010 01101010   T1 T2 Eextraie Erequise Esurplux Machine de Carnot L’énergie est envoyé par un fil électrique et l’entropie par un fil téléphonique...

More Related