Einf hrung in die informationsverarbeitung teil thaller stunde i der informationsbegriff
Download
1 / 52

Einführung in die Informationsverarbeitung Teil Thaller Stunde I: Der Informationsbegriff - PowerPoint PPT Presentation


  • 95 Views
  • Uploaded on

Einführung in die Informationsverarbeitung Teil Thaller Stunde I: Der Informationsbegriff. Köln 18. Oktober 2012. I. Häufige Missverständnisse 1. Wissensexplosion.

loader
I am the owner, or an agent authorized to act on behalf of the owner, of the copyrighted work described.
capcha
Download Presentation

PowerPoint Slideshow about ' Einführung in die Informationsverarbeitung Teil Thaller Stunde I: Der Informationsbegriff' - lauren


An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -
Presentation Transcript
Einf hrung in die informationsverarbeitung teil thaller stunde i der informationsbegriff

Einführung in die InformationsverarbeitungTeil ThallerStunde I: Der Informationsbegriff

Köln 18. Oktober 2012



Wissensexplosion

Print, film, magnetic, and optical storage media produced about 5 exabytes of new information in 2002. Ninety-two percent of the new information was stored on magnetic media, mostly in hard disks.


Wissensexplosion

How big is five Exabytes? If digitized, the nineteen million books and other print collections in the Library of Congress would contain about ten terabytes of information; five Exabytes of information is equivalent in size to the information contained in half a million new libraries the size of the Library of Congress print collections.


Wissensexplosion

University of California at Berkely, School of Information Management and Systems: How much Information? 2003

http://www.sims.berkeley.edu/research/projects/how-much-info-2003/printable_report.pdf "Executive Summary" auf Seite 1


Wissensexplosion

19 Millionen Bücher 10 TB

10 x 2 40 Bytes

10 000 000 000 000 Bytes

1 Buch 10 000 000 000 000 /

19 000 000

526,315.79 Bytes

1 Seite 3000 Zeichen

1 Buch 175 Seiten




Wissensexplosion

1 Seite 128 000 000 Bytes

1 Buch 22 400 000 000 Bytes

19 Millionen Bücher 22 400 000 000 x

19 000 000

425 600 000 000 000 000 B

425 Petabyte


Wissensexplosion

Print, film, magnetic, and optical storage media produced about 5 exabytes of new information in 2002. Nintey-two percent of the new information was stored on magnetic media, mostly in hard disks.


Wissensexplosion

How big is five exabytes? If digitized, the nineteen million books and other print collections in the Library of Congress would contain about 0.5 exabytes of information; five exabytes of information is equivalent in size to the information contained in ten new libraries the size of the Library of Congress print collections


Wissensexplosion

Seite 17: Ein gedrucktes Buch aus rezenter Produktion wird mit 7,8 MB bewertet (ca. 10 mal so gross, wie bei der Abschätzung der Größe der Library of Congress).

*


Information

  • Es ist schön in Köln zu Ihnen zu sprechen.

  • Es ist schön in Kln zu Ihnen zu sprechen.

  • Es ist schön in Kön zu Ihnen zu sprechen.

  • Es ist schn in Kön zu Ihnen zu sprchen.

  • S'is schö in Kölle zu Ihnen zu sprchen.


Information

Luat enier sidtue an eienr elgnhcsien uvrsnäiett, ist es eagl in wcheler rhnfgeeloie die bstuchbaen in eniem wrot snid. Das eniizg whictgie ist, dsas der etrse und der lztete bstuchbae am rtigeichn paltz snid. Der rset knan tatol deiuranchnedr sien und man knan es ienrmomch onhe porbelm lseen. Das legit daarn, dsas wir nhcit jeedn bstuchbaen aeilln lseen, srednon das wrot als gzanes.


Information

Claude Shannon: "A MathematicalTheoryof Communication", Bell System Technical Journal, 1948.

Enthält eine quantitative Definition von Information.

Zweck: Wie kann ein Signal zwischen einem Sender und einem Empfänger mit dem geringstmöglichen Aufwand "korrekt" übertragen werden.


Information

Shannon hat also eine technische Definition von "Information", die die Bedeutungsebene völlig ausklammert. Er betont, dass "die semantischen Aspekte der Kommunikation für die ingenieurwissenschaftliche Seite irrelevant sind".


Information

Nahezu alle mir bekannten Lehrbücher der Informatik beginnen mit Shannons Definition der Information.

Räumen aber ein, dass die ingenieurwissenschaftliche Definition von Information defizitär sei. Insbesondere:


Information

(1) Bildet sie nur einen Teil des intellektuellen Umfanges des Konzepts "Information„ (syntaktisch, semantisch, pragmatisch) ab.

(2) Gibt es dagegen keine operable Definition die dieses Konzept in seiner vollen Breite abdeckt.

Aber: Die vorhandenen Konzepte reichen aus, um Information auf einem Digitalrechner so darzustellen, dass man sie sinnvoll verarbeiten kann.

*



Informationsebenen

Syntax: Beziehungen der „Zeichen“ untereinander.

Semantik: Beziehungen zwischen „Zeichen“ und „Gegenständen“.

Pragmatik: Beziehungen zwischen „Zeichen“ und ihren „Benutzern“.


Information und Wissen

Bernard Favre-Bulle

Information und Zusammenhang. Informationsfluß in Prozessen der Wahrnehmung, des Denkens und der Kommunikation.

Springer: 2001


Information und Wissen

Daten sind speicherbare Angaben - 22°C.

Information stellt Daten in einen Kontext:

"In diesem Hörsaal herrscht eine Temperatur von 22°C".

Dieser Kontext ist jedoch noch fest (und für alle Informationsempfänger identisch).


Information und Wissen

Wissen ist das Ergebnis von Erkenntnisprozessen. Es bezieht die praktische Anwendung der Daten und Informationen ein. Es muss nicht "absolut wahr" sein, sondern adäquates Handeln zu ermöglichen.

Z.B. die Entscheidung einen Pulli (nicht) auszuziehen, um sich angenehm zu fühlen, ohne sich zu erkälten.


„Ladder of Knowledge“

*

Weisheit

Wissen

Information

Daten


III. Häufige Missverständnisse 2

… und was heisst “Information darstellen?”


Wahrheit

George Bool (1815-1864), "The Laws of Thought". Formales Rechnen mit logischen Ausdrücken, die nur die Zahlenwerte "1" (wahr) und "0" (falsch) kennen.

Aussage: Computer kennen nur wahr oder falsch, keine "Zwischentöne".


Wahrheit

Umgesetzt in Programmiersprachen als:

if (aussage == 1) nimm an, dass Aussage wahr.

else nimm an, dass Aussage falsch.


Wahrheit

… aber auch als:

if (aussage == 0) nimm an, dass Aussage falsch.

else nimm an, dass Aussage wahr.


Wahrheit

Z.B. in folgendem Programm:

int aussage; aussage=bewerteZustandDerWelt(); if (aussage == 0) nimm an, dass Aussage falsch.

else nimm an, das Aussage wahr.


Wahrheit

Z.B. in folgendem Programm:

int aussage;

"int" kennzeichnet eine ganze Zahl, die die Zahlenwerte von 0 bis 232

-1 annehmen kann.

aussage=bewerteZustandDerWelt(); if (aussage == 0) nimm an, dass Aussage falsch.

else nimm an, das Aussage wahr.


Wahrheit

Z.B. in folgendem Programm:

int aussage;

"int" kennzeichnet eine ganze Zahl, die die Zahlenwerte von 0 bis 232

-1 annehmen kann.

aussage=bewerteZustandDerWelt(); if (aussage == 0) nimm an, dass Aussage falsch.

else nimm an, das Aussage wahr.

Es gibt also genau eine Art "falsch" auszudrücken, aber 4.294.967.294 Varianten von "wahr"?


Wahrheit

Unabhängig von dem, was George Bool gesagt hat, gilt also in Wirklichkeit nicht

"0" = falsch. "1" = wahr.


Wahrheit

... sondern in Wirklichkeit:

"0" = falsch.

"1" bis "4.294.967.295" = wahr.


Wahrheit

dann könnte aber genau so gut gelten:

"0" = falsch. "1" bis "4.294.967.294" = unklar. "4.294.967.295" = wahr.


Wahrheit

oder genauso willkürlich:

"0" bis "255" = falsch. "256" bis "4.294.967.039" = unklar. "4.294.967.040" bis "4.294.967.295" = wahr.


Wahrheit

oder auch:

"0" = sicher falsch. "20.000" = ziemlich sicher falsch. "100.000" = ziemlich sicher falsch, aber mit fünfmal größerer Wahrscheinlichkeit richtig als "20.000". "4.000.000.000" = ziemlich sicher richtig. "4.294.967.295" = sicher wahr.


Wahrheit - Begriffe

Binäre Logik

Kennt nur "wahr" und "falsch".

n-äre oder mehrwertige Logik

Kennt n Wahrheitswerte.

Kontinuierliche Wahrheitsfunktionen

Nehmen unendlich viele Wahrheitswerte an.

*


IV. Häufige Missverständnisse 3

… oder: Die Mystik des Digitalen


Digital - Analog

Das korrekte Begriffspaar in der Informatik:

„diskret“ v. „kontinuierlich“.


Digital - Analog

1,00134… + 0,48723… = 1,48857…

Eine Addition kontinuierlicher Zahlenwerte.


Digital - Analog

Nach diesem Prinzip – heute nur mehr für Spezialanwendungen – verwendete Computer, die z.B. Spannungen oder Stromstärken „addieren“ heißen „Analogrechner“.


Digital - Analog

4,00000 + 2,00000 = 6,00000

Eine Addition diskreter Zahlenwerte.


Digital - Analog

0,00004 + 0,00002 = 0,00006

Ebenfalls eine Addition diskreter Zahlenwerte.


Digital - Analog

0,00004 + 0,00002 = 0,00006

Auch eine Addition diskreter Zahlenwerte.


Digital - Analog

0,00004 + 0,00002 = 0,00006

Kontinuierlich oder diskret?


Digital - Analog

Ob eine Darstellung „analog“ oder „digital“ ist, hängt in erster Linie von der Meßgenauigkeit ab.

Merke: Digitaluhren sind analoger als analoge mechanische Uhren!

*



Der Informationsbegriff

Shannon, C.E.: A Mathematical Theory of Communiction. The Bell Systems Technical Journal, 27 (1948), 379-423

Informationsgehalt als Wahrscheinlichkeit dass eine bestimmte Angabe zufällig zustande kommt.

Wird in der Signaltheorie verwendet um beispielsweise das korrekte Übertragen von Bildern zu beurteilen.


Der Informationsbegriff

Problem: Bezieht sich ausschließlich auf syntaktischen Aspekt von Zeichen. (= Beziehung zwischen Zeichen.) Zeichen stehen aber nicht nur zu anderen Zeichen in Beziehung, sondern auch:

  • zu ihren Bedeutungen. (Semantischer Aspekt.)

  • zu den bezeichneten Objekten. (Sigmatischer Aspekt.)

  • zu den Systemen / Teilsystemen (zu deren Zielen, Zwecken, etc.) zwischen denen Zeichen übermittelt werden.

    So schon: Wörterbuch der Kybernetik, hrsg. v. G. Klaus / H. Liebscher, Berlin, 41976, Artikel "Information", p. 281.


Der Informationsbegriff

Daher in der Informatik "Information" meist als nicht weiter definierter Grundbegriff.

Z.B.: U. Rembold / P. Levi: Einführung in die Informatik für Naturwissenschaftler und Ingenieure, München etc., 3 1999.

Informatik als Wissenschaft, die sich damit beschäftigt, wie dieser "Rohstoff" in Rechnern

  • dargestellt (Strukturen) und

  • verarbeitet (Algorithmen) wird.


„Arten“ von Information

  • "Selbstabbildende Information". Es kann "gerechnet" werden. Bilder.

  • "Kodierte Information". Zeichenketten und Teilketten können verglichen werden. Texte.

  • "Symbolische Information". Terme können verglichen werden. Terminologien, "Ontologien" u.ä.

    *



ad