1 / 51

Analogtechnik und Digitalisierung von Audio und Video

Analogtechnik und Digitalisierung von Audio und Video. Grundlagen. Allgemein. Physikalische Größen Schall, Helligkeit oder Temperatur Umwandlung in Spannungswerte die den physikalischen Größen proportional sind (analoge Signale). Diese analogen Signale müssen dann digitalisiert werden.

powa
Download Presentation

Analogtechnik und Digitalisierung von Audio und Video

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Analogtechnik und Digitalisierung von Audio und Video Grundlagen

  2. Allgemein • Physikalische Größen • Schall, Helligkeit oder Temperatur • Umwandlung in Spannungswerte die den physikalischen Größen proportional sind (analoge Signale). • Diese analogen Signale müssen dann digitalisiert werden.

  3. Audio • Der Begriff Audio stammt von dem lateinischen Wort audire (hören) und dient als Sammelbegriff für akustisch wahrnehmbare Signale.

  4. Töne • Es existieren viel mehr Töne, als wir hören können, aber wir nehmen nur ein Teil dieser Töne wirklich wahr. • Was sind Töne und wie werden sie dargestellt und digitalisiert ?

  5. Physikalische Grundlagen • Wenn Luft schwingt, entstehen Schallwellen. • Treffen diese Schallwellen auf unser Ohr, neben wir diese als Töne wahr

  6. Physikalische Grundlagen • Tonquelle erzeugt Schallwellen • Alle vibrierende Objekte erzeugen Schallwellen. • Durch die Vibration wird das Medium stoßweise verdichtet. • Schallwellen werden durch ein Medium transportiert (Luft, Wasser, Holz). • In Luft ist die Schallgeschwindigkeit: 330m/s = 1188 km/h. • Ohr wandelt diese in Abhängigkeit von Stärke und Häufigkeit in Töne durch das Trommelfell in Reize um. • Der hörbare Bereich eines Menschen liegt zw. 20Hz und 20kHz.

  7. Physikalische Grundlagen • Transport von Schallwellen ist im Prinzip bei jedem Medium gleich • Moleküle sind normaler Weise gleichweit voneinander entfernt. • Nachdem verdichten, versuchen sie alten Abstand wieder herzustellen. • Dabei bewegen sie sich vorwärts und rückwärts und verdichten dabei das Gebiet ihrer Nachbarn usw.

  8. Physikalische Grundlagen

  9. Physikalische Grundlagen • Ein einzelnes Molekül bewegt sich nur ein Stück vorwärts. • Betrachtet man das Gebiet, der Komprimierung, sieht man eine sich fortbewegende Schallwelle.

  10. Physikalische Grundlagen • Die einfachste Schwingung ist die Sinuskurve. • Eine periodische Schwingung. • Periodische Schwingungen sind alle Töne, die man als Klänge bezeichnen kann. • Klavier, Glocke • Nicht periodische Schwingungen erzeugen Geräusche • Wasserrauschen

  11. Erzeugung von komplexeren Schwingungen • Nur sehr wenige Töne sind periodisch. • Jeder Ton kann aber zerlegt werden in eine Reihe von Sinuskurven und andersherum.

  12. Frequenzspektrum • Da jeder Ton zerlegt werden kann, existiert eine Möglichkeit ein Spektrum anzugeben, der einen Ton charakterisiert. • Einfach gesagt bestimmt die stärkste Frequenz die Tonhöhe.

  13. Zusammenhänge von Schwingungen und Tönen • Lautstärke und Amplitude • Dass wir Töne in verschiedenen Lautstärken wahrnehmen, liegt daran, dass die Druckwellen unterschiedlich stark auf das Ohr treffen. • Die Stärke der Schwingungen ist erkennbar an ihrer Amplitude. • Damit bestimmt die Amplitude einer Schwingung die Lautstärke eines Tones. • Die Schallintensität wird definiert als Leistung/Fläche. • Als Schallpegel bezeichnet man den 10fachen dekadischen Logarithmus vom Verhältnis zweier Schallintensitäten. Er wird in Dezibel angegeben.

  14. Umwandlung • Die Umwandlung von Schallwellen bzw. Druckwellen in elektrische Signale.

  15. Umwandeln von Schallwellen in Elektrizität • Beim Auftreffen einer Druckwelle auf das Papier wird Spule je nach Stärke der Druckwelle in Richtung Magnet gedrückt. • Dabei wird ein Impuls induziert. • Je stärker die Druckwelle, desto stärker der Impuls.

  16. Umwandeln von Elektrizität in Schallwellen • Andersherum funktioniert es ebenso. • Durch Induzieren eines Stromes in der Spule, erzeugt die Vor- und Zurückbewegung des Blattes Schwingungen. • Mikrophone und Lautsprecher funktionieren nach diesem Prinzip.

  17. Digitalisierung • So wie es möglich ist Schallwellen in elektrische Signale umzuwandeln, kann man diese auch in digitale Werte konvertieren: • Zwei Prozesse: • Abtasten (Sampling) • Periodisches Abtasten des kontinuierlichen analogen Signals • Quantisierung • Das Runden der ermittelten unbegrenztgenauen Werte analogen Werten auf einen digitalen Wertebereich.

  18. Digitalisierung

  19. Umwandlung von elektrischen Signalen in digitale Signale • Dabei entstehen zwei Hauptprobleme, die für Informationsverlust sorgen: • Die aufeinander folgenden digitalen Werte entsprechen einem bestimmten Intervall. Dieses Intervall hat eine bestimmte Breite. • Digitale Werte sind diskrete, dass heißt, sie können nur einen bestimmten Wert annehmen.

  20. Umwandlung von elektrischen Signalen in digitale Signale

  21. Umwandlung von elektrischen Signalen in digitale Signale • Diese beiden Probleme bestimmen den Hauptfehler digitaler Töne. Er kann kontrolliert werden durch die Änderung der Signalrepräsentation. Man kann den Fehler durch immer kleinere Intervalle verkleinern, aber niemals vollständig eliminieren. • Faktoren wie Speicherplatz und Prozessorgeschwindigkeit setzen Grenzen. Daher ist es wichtig zu entscheiden, welche Fehler man tolerieren kann und welche Fehler verringert werden müssen - auf Kosten anderer Probleme.

  22. Digitalisierung (technisch) • Möglichkeiten ein Tonsignal abzutasten • Pulsamplitudenmodulation ( PAM ) • Pulsbreitenmodulation (PWM) • Pulscodemodulation (PCM)

  23. PAM • Die analoge Signale werden übermittelt durch einen Serie von Impulsen, deren Amplitude die Soundstärke repräsentieren.

  24. PAM • Vorteil: • Es ist einfach ein analoges Signal in ein PAM - Signal zu umzuwandeln und anderes herum. • Folge: • Die meisten ADCs und DACs benutzen PAM als ein Zwischenformat.

  25. PWM • Die analoge Signale werden übermittelt durch einen Serie von Impulsen, deren Länge die Soundstärke repräsentieren.

  26. PWM • Vorteil: • In der Praxis werden die Amplituden der Signale oft zerstört. Die Umwandlung eines analogen Signals vor dem Transport durch Kabel oder Radioverbindungen in PWM, vermindert die Schwächung des Signals.

  27. PCM • Die analoge Signale werden übermittelt durch einen Serie von Impulsen, die den binären Daten des Samples entsprechen.

  28. Sampling-Effekte • Digitalisierte Daten werden charakterisiert durch die Abtastrate (Sampling-Rate ) • Sampling-Rate • Anzahl der Abtastungen/Messungen des analogen Signals / pro Sekunde • Beispiele • Audio – CDs : 44100 mal / pro Sekunde • Telefonsysteme : 8000 mal / pro Sekunde

  29. Sampling-Effekte • Wichtige Entdeckung • Harry Nyquist (1889 – 1976) • Ein analoges Signal kann exakt reproduziert werden, wenn die Abtastrate doppelt so hoch ist, wie die höchste Frequenz des analogen Signals. • Claude E. Shannon • 1948/49 mathematischer Beweis, dass es wirklich so ist • Die selben Entdeckungen ? • Nyquist-Limit, Abtasttheorem, Shannon-Theorem

  30. Sampling-Effekte • Ist die Abtastrate nicht doppelt so hoch, wie die höchste Frequenz – kann es zu Nebeneffekten kommen: • Frequenz - Überlappungen (Aliasing) • Quantisierungsrauschen • Verzerrungen (Clipping)

  31. Aliasing • Beispiel: • Aufnahme mit einer Abtastrate von 8 kHz • Das Nyquist-Limit liegt damit bei 4 kHz • Versucht man nun ein Signal mit 5 kHz aufzunehmen, erhält man beim Abspielen nur ein Signal von 3 kHz. • Dies führt zu einem der wichtigsten Probleme in der Arbeit mit digitalem Sound.

  32. Aliasing • Das Problem: • Ein digitales Sample kann durch mehrere Sinuswellen repräsentiert werden. • Beim Abspielen kann es passieren, dass der DAC nicht das Signal auswählt, dass man gerne möchte. • Er wählt immer nur Signale unterhalb der Nyquest-Limits.

  33. Quantisierungsrauschen • Quantisierung ist der Vorgang des Rundens von genauen analogen zu weniger genauen digitalen Werten. • Digitale Daten werden repräsentiert durch diskrete Werte ( 8 Bit Integer oder auch 16 Bit Integer ) • Originale analoge Werte sind aber keine Integer-Werte. • Als Quantisierungsrauschen bezeichnet man den Fehler der beim Runden entsteht. • Der entstehende Fehler ist zufällig und wird als eine Art des Rauschens wahrgenommen.

  34. Quantisierungsrauschen • Wie laut ist dieses Rauschen? • Die Amplitude des Rauschens wird als „noise floor“ bezeichnet. • Je kleiner sie ist, desto leiser ist das Rauschen. • Bei einem 8 Bit-Sample haben wir Werte zwischen +127 bis -128 und der Fehler ist max. 0,5 ! • Bei einem 16 Bit-Sample sind die Schritte wesentlich kleiner, dadurch wird das Rauschen leiser.

  35. Quantisierungsrauschen • Noch wichtiger ist die Frage, wie laut ist das Rauchschen im Verhältnis zum eigentlichen Ton. • Das Verhältnis bezeichnet man als „signal-to-noise ratio“ ( SNR ) • Je größer dieses Verhältnis ist, desto besser.

  36. Beheben von Verzerrungen (Dithering) • Das menschliche Ohr nimmt Verzerrung eher als Rauschen. • Deshalb wird versucht, verschiedene Arten von Verzerrung in Hochfrequenzrauschen umzuwandeln. • Diesen Prozess nennt man Dithering. • Idee: „error – diffusion“ • Wird beim Konvertieren von höher-auflösenden in niedriger-auflösende Signal angewandt. • Man merkt sich den auftretenden Fehler und vermischt ihn mit den nachfolgenden Werten.

  37. Clipping • Eine Art der Verzerrung • Die Spitzen der Sinuskurven werden abgeschnitten. • Tritt auf, wenn Verstärkerschaltkreise gesättigt sind. • In der Digitaltechnik, wenn es zu Variablenüberläufen kommt.

  38. Video • Der Begriff Video stammt von dem lateinischen Begriff videre (sehen) und bezeichnet Sequenzen von bewegten Bildern, die zur Bildschirmausgabe geeignet sind.

  39. Physikalische Grundlagen • Wie sieht der Mensch? • Die 3-dimensionalen Welt wird auf die Netzhaut des Auges als ein 2-dimensionales Bild projeziert. • Fotorezeptoren registrieren Lichtwellen zwischen 400 nm und 700 nm. • Wie speichert eine Kamera ein Bild? • Der Film besteht aus einer dünnen Schicht kleinster Teilchen, die eine chemische reagiere, je nach dem mit welcher Lichtintensität sie bestrahlt werden. • Je dichter die Teilchen angeordnet sind, desto besser kann das Original reproduziert werden.

  40. Allgemeines Digitalisieren • Ein Bild aus der physikalischen Welt, wird in zwei Schritten digitalisiert. • Sampling • 2-dimensionaler Raum wird in kleine diskrete Regionen (Pixel oder auch Pel) unterteilt. • Auch hier gilt Nyquist-Theorem – die Abtastrate sollte mindestens doppelt so groß sein, wie die höchste räumliche Frequenzkomponente. • Quantisierung • Jeder Region wird ein diskreter Wert zugewiesen, der der Amplitude des Signals ( z.B. der Helligkeit und/oder dem Farbwert ) entspricht.

  41. Was wird abgetastet? • Zweifarbtonbild (z.B.: Text in einem Buch): • Es reicht ein Bit pro Pixel. • Helligkeit und Farbe werden nicht verändert. • Schwarzweißbild: • Es wird nur der Luminanzwert zu jedem Pixel gespeichert. • Die Farbe ist für das ganze Bild konstant, nur der Helligkeitswert wird abgespeicher. • Farbbilder: • Zu jedem Pixel werden 3 Komponenten gespeichert.

  42. Farbschemata • Licht ist die Mischung elektromagnetischer Wellen verschiedener Wellenlängen. • Theoretisch ist es möglich, jede beliebige Farbe unter Verwendung von drei Grundkomponenten darzustellen. • Praktisch gibt es einige Einschränkungen, der Farbquellen. • Gängige Farbschemata: • RGB ( Rot, Grün, Blau ) • CMY ( Cyan, Magenta, Gelb ) • YUV ( Luminanz, U und V sind Chrominanz-Komponenten ) • YIQ ( ähnlich zu YUV ) • HSV ( Hue (Farbton), Saturation (Sättigung), Value (Wert) )

  43. Definitionen • Chroma Chrominanz, C, Cr, Cb, U, V • Farbanteil des Videosignals. • Komponentensignale enthalten ein Signal für die Differenz weiss-rot (Cr oder U) und weiss-blau (Cb oder V). • Luma Luminanz, Y • Helligkeitsanteil des Videosignals. • Aus den drei Signalen RGB der Kamera wird ein gewichtetes Mittel berechnet, welches die Eigenschaften des menschlichen Auges berücksichtigt • Grün 59%, Rot 30%, Blau 11%.

  44. Sampling • Wie wird abgetastet? • Videobilder werden horizontal, vertikal und temporal abgetastet. • Ein Bild besteht aus einer bestimmten Anzahl von Zeilen. • Fernsehbilder (PAL – Standard für Europa) bestehen z.B. aus 625 Zeilen, von denen aber nur ca. 580 sichtbar sind. • Die restlichen Zeilen sind scanning-overhead. Er wird genutzt für Blanking-Intervalle und zur Synchronisierung des Signals.

  45. Analoges Video • Es gibt unterschiedliche Fernsehformate, die sich unter anderem in der Frequenz der Bildwiederholungen und der Anzahl der Zeilen eines Bildes unterscheiden. • Die bekanntesten sind: • Pal / Secam • Europa • NTSC • USA

  46. PAL / SECAM • 1966/67 Einführung in Deutschland • 25 Voll- bzw. 50 Halbbilder / Sekunde • PAL: QAM (Quadratur-Amplituden-Modulation) • SECAM: FM (Frequenzmodulation) • Verwendet zusätzl. Synchronisation für Farbtreue • Dimension: • 625 Zeilen(580 sichtbar) • Seitenverhältnis 4:3 • Bandbreite ist: 6.5 MHz • Abtastrate liegt bei: 13.5 MHz

  47. NTSC • 1954 Einführung in den USA (Kanada, Japan) • 30 Voll- bzw. 60 Halbbilder / Sekunde • QAM ( Quadratur-Amplituden-Modulation) • „Nether the same color“ – Farbverfälschung durch unkorrigierte Übertragungsfehler z. B. Hautfarbe als Olivgrün oder Knallrosa. • NTSC-Fernsehgeräte haben einen Regler, um entsprechende Korrekturen vorzunehmen • Dimension: • 525 Zeilen(480 sichtbar) Seitenverhältnis 4:3 • Bandbreite: 5.5 MHz

  48. Digitalisierung • Im Gegensatz zu den Druckwellen eines akustischen Signals kann eine diskrete Folge von Einzelbildern als kontinuierliche Sequenz wahrgenommen werden. • Die Grenzfrequenz liegt bei etwa 16 Hz. Allerdings entsteht bis etwa 50 Hz ein Flimmereffekt durch die unvollkommene Speicherwirkung des Auges für optische Reize. • Bei Fernsehgeräten wird ein Vollbild in zwei zeilenweise ineinandergeschachtelte Halbbilder geteilt. Es wird jeweils ein Halbbild nach dem anderen im Zeilensprungverfahren übertragen (Interlace-Verfahren). • Zuerst werden alle ungeraden Zeilen übertragen, dann die geraden. • Jedes Halbbild wird 25mal pro Sekunde dargestellt, also beträgt die Vertikalfrequenz eines Vollbildes 50 Hz, die Zeit zwischen zwei Halbbildern 20 msec.

  49. Abtastmethoden • Verschiedene Abtastmethoden • 4:1:1 • das Farbsignal wird nur bei jedem vierten Pixel, dafür aber in beiden Halbbildern horizontal verschoben abgetastet. • 4:2:0 • das Farbsignal wird nur bei jedem zweiten Halbbild und nur in halber Auflösung abgetastet • 4:2:2 • für professionelles digitales Video • Jedes Pixel wird nach Luminanz (Y) und jedes zweite nach den Rot- und Blaudifferenzen (Cr und Cb) abgetastet. • Dabei wird die Tatsache ausgenützt, dass das Auge weniger empfindlich auf die Farbe ist als auf die Helligkeit. • 4:4:4 • Hochqualitatives digitales Format • Jedes Pixel, sowohl in Luminanz wie in den Blau- und Rotdifferenzen wird abgetastet • Wird nur in Effektgeräten verwendet

  50. Quantisierung • Auch in der Videodigitalisierung werden kontinuierliche Signale in diskrete Werte umgewandelt. • Für ein einpoliges Signal wie Luminanz, wird Quantisierung genutzt. • Für ein zweipoliges Signal wie zum Beispiel die Farbdifferenz (Cb, Cr) wird mid-tread Quantisierung angewandt. Das sichert, dass der Nullwert nicht von Fehlern betroffen wird.

More Related