Digitales Video: Funktionsweise, Geschichte und Formate

Digitales Video

Digitales Video ist die elektronische Darstellung von audiovisuellen Inhalten in kodierten Binärdaten – Nullen und Einsen. Digitales Video besteht aus einer Reihe von digitalen Bildern, die in schneller Folge mit unterschiedlichen fps (frames per second) angezeigt werden.

Bei der Erstellung eines digitalen Videos wird Licht durch den Sensor einer Kamera eingefangen, das dann in elektrische Signale umgewandelt wird. Diese Signale werden anschließend mit einem Analog-Digital-Wandler (ADC) in digitale Daten umgewandelt. Diese digitalen Daten haben in der Regel ein großes Volumen, insbesondere bei hochauflösenden Inhalten, was den Einsatz von Komprimierungs- und Kodierungstechniken erforderlich macht, um die Dateigrößen für die praktische Speicherung und Übertragung zu reduzieren.

Digitales Video wurde erstmals mit der Erfindung des allerersten DVR (digitaler Videorekorder) von Ampex im Jahr 1977 eingeführt. Die digitale Form setzte sich jedoch erst in den frühen 1990er Jahren durch, nachdem 1986 das weltweit erste rein digitale Format – Sony D1 – erfunden worden war.

Komprimierung und Kodierung sind in der digitalen Videotechnologie von entscheidender Bedeutung. Sie reduzieren die Dateigröße und bemühen sich gleichzeitig, die Qualität beizubehalten. Zu den gängigen Komprimierungsmethoden gehören die verlustbehaftete Komprimierung, bei der die Dateigröße durch Eliminierung einiger Daten verringert wird, und die verlustfreie Komprimierung, bei der die Daten ohne Informationsverlust komprimiert werden.

Zu den wichtigsten Codierungsstandards für digitales Video gehören:

  • MPEG (Moving Picture Experts Group): Einschließlich MPEG-1 (verwendet in CDs), MPEG-2 (verwendet in DVDs), MPEG-4 (weit verbreitet in digitalen Medien) und MPEG-H.
  • H.264 oder AVC (Erweiterte Videokodierung)
  • H.265 oder HEVC (Hocheffiziente Videokodierung)

Zu den wichtigsten digitalen Videodateierweiterungen gehören:

  • .mp4 (MPEG-4 Teil 14): Weit verbreitet und mit vielen Geräten kompatibel.
  • .avi (Audio Video Interleave): Wurde von Microsoft eingeführt und unterstützt mehrere Audio- und Video-Streams.
  • .mov: Entwickelt von Apple, wird oft in der professionellen Videobearbeitung verwendet.
  • .wmv (Windows Media Video): Entwickelt von Microsoft für Streaming-Anwendungen.
  • .mkv (Matroska Video): Unterstützt eine unbegrenzte Anzahl von Video-, Audio-, Bild- oder Untertitelspuren in einer Datei.

 

Unterschiede zwischen Digitalvideo und Analogvideo

Digitales Video Analoges Video
Signal Typ Diskret (Binärcode) Kontinuierliche Wellenformen
Qualität & Auflösung Höhere Auflösung; gleichbleibende Qualität Geringere Auflösung; verschlechtert sich mit der Zeit
Bearbeitung von Nicht-linear; Software-Tools Linear; physisch schneidende Bänder
Lagerung Digitale Medien Magnetische Bänder
Langlebigkeit Baut sich mit der Zeit nicht ab Verschlechtert sich mit Alter und Gebrauch
Übertragung Einfach digital übertragen Anfällig für Störungen

Was ist digitales Video?

Digitales Video bezieht sich auf die Methode der Aufnahme, Verarbeitung, Speicherung und Übertragung von bewegten Bildern in einem digitalen Format. Im Gegensatz zu analogem Video, das Bilder als kontinuierliche Signale aufzeichnet, wandelt digitales Video diese Bilder in digitale Daten um, die oft in binärem Code (eine Reihe von 0s und 1s) dargestellt werden. Die Umstellung auf das digitale Format hat erhebliche Fortschritte in der Videotechnologie ermöglicht, die eine höhere Qualität, eine einfachere Bearbeitung und eine effizientere Speicherung und Verteilung bietet.

Die Erstellung eines digitalen Videos beginnt mit der Aufnahme von bewegten Bildern mit einer Digitalkamera. Das in die Kamera einfallende Licht wird dann von einem Bildsensor in elektrische Signale umgewandelt. Die elektrischen Signale, die noch in analoger Form vorliegen, werden mit einem Analog-Digital-Wandler (ADC) in digitale Daten umgewandelt. Der ADC tastet das analoge Signal in regelmäßigen Abständen ab und quantisiert es in einen digitalen Wert.

Digitale Rohvideos sind in der Regel groß und müssen daher komprimiert werden, um sie für die Übertragung und Speicherung handlicher zu machen. Es gibt zwei Arten der Komprimierung: verlustbehaftete Komprimierung, bei der einige Daten verloren gehen, um die Dateigröße zu verringern, und verlustfreie Komprimierung, bei der keine Daten verloren gehen, aber die Komprimierungsrate geringer ist.

Das digitale Video wird dann in ein bestimmtes Format oder einen Standard kodiert, z.B. MPEG-4, H.264 (Advanced Video Coding) oder H.265 (High Efficiency Video Coding). Diese Standards legen fest, wie die Videodaten komprimiert und gespeichert werden.

Digitales Video wird auf verschiedenen digitalen Medien gespeichert, z.B. auf Festplatten, Solid-State-Laufwerken, optischen Discs (wie DVDs und Blu-ray Discs) oder Flash-Speichern (wie SD-Karten). Das kodierte Video kann in verschiedenen digitalen Formaten gespeichert werden, wie z.B. .mp4, .avi, .mov, .wmv oder .mkv.

Wie funktioniert digitales Video?

Der Prozess der Erstellung eines digitalen Videos umfasst die Aufnahme von bewegten Bildern, die Codierung des Videos und schließlich die Speicherung.

Digital Video Capture

Bei der digitalen Videoaufnahme wird eine Kamera mit einem digitalen Sensor verwendet, z. B. einem CCD- (Charge-Coupled Device) oder CMOS- (Complementary Metal-Oxide-Semiconductor) Sensor. Diese Sensoren wandeln eingehendes Licht in elektronische Signale um. Die vom Sensor erzeugten analogen Signale werden durch einen Analog-Digital-Wandler (ADC) in digitale Daten umgewandelt. Bei diesem Prozess wird das Signal in regelmäßigen Abständen abgetastet und jede Abtastung in einen digitalen Wert quantisiert. Das Ergebnis ist ein digitaler Datenstrom, der das aufgenommene Bild darstellt.

Digitale Videokodierung

Da digitale Videorohdaten sehr groß sind, werden sie komprimiert, um die Dateigröße für den praktischen Gebrauch zu verringern. Die Komprimierung kann verlustbehaftet sein, d.h. einige Daten werden verworfen, um die Dateigröße zu verringern, oder verlustfrei, d.h. alle Originaldaten bleiben erhalten, aber die Dateigröße wird weniger effektiv reduziert. Die komprimierten Daten werden dann in ein digitales Videoformat kodiert. Gängige Kodierungsstandards wie MPEG-4, H.264 (Advanced Video Coding) und H.265 (High-Efficiency Video Coding) geben vor, wie Videodaten komprimiert und gespeichert werden müssen. Diese Formate schaffen einen Ausgleich zwischen dem Bedarf an Qualität und der Notwendigkeit, die Dateigröße zu reduzieren.

Lagerung

Im Gegensatz zu analogem Video, das auf Magnetbändern gespeichert wird, wird digitales Video auf verschiedenen digitalen Medien gespeichert. Dazu gehören Festplatten, optische Discs (wie DVDs und Blu-ray Discs), Solid-State-Laufwerke (SSDs) und tragbare Flash-Speicherkarten wie SD-Karten. Das kodierte digitale Video wird in Dateiformaten wie .mp4, .avi, .mov oder .mkv gespeichert. Jedes Format hat seine eigenen Eigenschaften in Bezug auf Komprimierung, Kompatibilität und Verwendung, so dass der Benutzer je nach seinen spezifischen Bedürfnissen wählen kann.

Der Prozess der Aufnahme, Kodierung und Speicherung von digitalem Video unterscheidet sich von dem des analogen Videos auf folgende Weise:

  • Bei der analogen Videoaufnahme werden die Bilder als kontinuierliche elektrische Signale auf Medien wie Magnetbändern aufgezeichnet, ohne dass eine Umwandlung in digitale Daten erforderlich ist.
  • Analoges Video wird nicht auf die gleiche Weise digital kodiert oder komprimiert. Die Qualität kann sich im Laufe der Zeit und bei Kopien verschlechtern, während digitales Video seine Qualität beibehält.
  • Die Speicherung im analogen Format ist sperriger und weniger effizient im Vergleich zu den kompakten und vielseitigen Optionen, die für digitales Video verfügbar sind.

Geschichte von Digital Video

Die Geschichte des digitalen Videos geht auf das Jahr 1969 zurück, als William S. Boyle den CCD (charge-coupled device) erfand, den ersten praktischen Halbleiter-Bildsensor, der die Grundlage für digitales Video wurde. Der CCD-Sensor wurde Ende der 1970er Jahre bekannt und kommerzialisiert, was zur Erfindung des digitalen Videos führte. Dem Ampex-Team, das 1977 den ersten digitalen Videorekorder erfand, wird die Erfindung und Popularisierung des digitalen Videos zugeschrieben.

In den 1980er Jahren gab es eine bedeutende Entwicklung bei den digitalen Videoformaten. 1986 brachte Sony die Betacam SP auf den Markt, die zwar nicht vollständig digital war, aber mit ihrem überlegenen analogen Format die Qualität von Broadcast-Video deutlich verbesserte. Ein weiterer Meilenstein folgte 1987, als Sony das D1-Format einführte. Die D1 war das erste echte digitale Videoformat, das unkomprimierte Videos in Standardauflösung aufnahm und einen neuen Standard in der Branche setzte.

Die 1990er Jahre waren die Ära, in der sich digitales Video durchsetzte. Zu Beginn dieses Jahrzehnts hielten digitale Videotechnologien zunehmend Einzug in die Verbrauchermärkte. Pionierunternehmen wie Panasonic, JVC und Sony führten diese Entwicklung an und demokratisierten die digitale Videotechnologie. Ein entscheidender Moment kam 1995 mit der Einführung des DV-Formats (Digital Video). DV war ein Gemeinschaftsprojekt, an dem mehrere Branchenriesen beteiligt waren, darunter Sony, Panasonic und JVC. Dieses Format hatte erhebliche Auswirkungen auf den Markt für Camcorder und machte digitales Video zugänglicher und erschwinglicher. Auf diesen Schwung aufbauend wurde 1996 MiniDV eingeführt, ein kompakter Formfaktor, der die Tragbarkeit von digitalen Videokameras verbesserte.

Zu Beginn der 2000er Jahre begann das hochauflösende (HD) Digitalvideo in den Mittelpunkt zu rücken. HD-Videos boten eine deutlich höhere Auflösung als Standard-Definitionsformate und lieferten klarere und detailliertere Bilder. HDCAM von Sony und DVCPRO HD von Panasonic gehörten zu den führenden Formaten, die diese High-Definition-Revolution vorantrieben. Diese Formate richteten sich nicht nur an professionelle Fernsehsender, sondern auch an eine wachsende Zahl von professionellen Videofilmern, die professionelle Qualität mit der Zugänglichkeit für Verbraucher verbanden.

Wann wurde das Video erfunden? (Erstes aufgezeichnetes Video überhaupt)

Das erste aufgezeichnete Video überhaupt wurde 1881 von dem französischen Erfinder Charles-Émile Reynaud erstellt. Reynaud, ein Lehrer für Naturwissenschaften, entwickelte ein Gerät namens „Praxinoscope“, eine Verbesserung des bestehenden Zoetrope, das die Illusion von Bewegung erzeugte, indem es eine Abfolge von Zeichnungen oder Fotografien in progressiven Bewegungsphasen anzeigte.

Das Praxinoskop bestand aus einem Zylinder mit Spiegeln in der Mitte und Streifen mit sequentiellen Bildern drum herum. Wenn sie sich drehten, reflektierten die Spiegel die Bilder und erzeugten so die Illusion von Bewegung. Reynaud entwickelte dieses Konzept weiter, indem er das „Théâtre Optique“ entwickelte, eine größere Version des Praxinoskops, mit dem er seine handgemalten Animationsstreifen auf eine Leinwand projizierte und damit im Grunde die ersten animierten Projektionen schuf.

Im Oktober 1892 stellte Reynaud seine Zeichentrickfilme im Musée Grévin, einem Wachsfigurenkabinett in Paris, öffentlich vor und markierte damit die erste öffentliche Ausstellung von Animationsfilmen. Obwohl Reynauds Arbeit keine Live-Action-Videos aufzeichnete, wie wir sie heute verstehen, waren seine Kreationen grundlegend für die Entwicklung von Kinofilmen und Videos, wie wir sie heute kennen.

Erstes aufgezeichnetes digitales Video

Die erste digitale Videoaufzeichnung wurde mit dem D1-System von Sony realisiert. Die D1 wurde 1986 von Sony eingeführt und markierte den Beginn der Ära der digitalen Videoaufzeichnung in einer professionellen Broadcast-Umgebung.

Das D1-System war das erste, das Video als digitale Daten und nicht als analoge Signale aufzeichnete. Im Gegensatz zu früheren Videoformaten zeichnete die D1 unkomprimiertes digitales Video auf, was zu sehr hochwertigen Bildern führte, ohne den für analoge Formate charakteristischen Qualitätsverlust der Generationen. Sie nahm Videos in Standardauflösung auf und wurde hauptsächlich in professionellen Sendestudios und bei der Postproduktion eingesetzt.

Wie funktioniert die digitale Videokodierung?

Die digitale Videocodierung ist ein Prozess, bei dem Videorohmaterial in ein digitales Format umgewandelt wird, sodass es für die Speicherung, Übertragung und Wiedergabe auf verschiedenen Geräten geeignet ist. Dieser Prozess umfasst mehrere wichtige Schritte: Komprimierung, Kodierungsalgorithmen und digitale Speicherung.

Digitales Rohvideo erzeugt eine enorme Datenmenge, insbesondere bei hochauflösendem Material. Um diese Daten effektiv zu verwalten, wird die Dateigröße durch Komprimierung verringert. Es gibt zwei Arten der Komprimierung:

  • Verlustbehaftete Komprimierung: Bei dieser Methode wird die Dateigröße reduziert, indem ein Teil der Videodaten dauerhaft entfernt wird, was die Bildqualität beeinträchtigen kann. Der Grad des Qualitätsverlustes hängt vom Grad der Komprimierung ab.
  • Verlustfreie Komprimierung: Bei dieser Methode werden die Videodaten ohne Qualitätsverlust komprimiert, aber die Dateigröße wird nicht so stark reduziert wie bei der verlustbehafteten Komprimierung.

Im nächsten Schritt werden die komprimierten Videodaten mit speziellen Algorithmen kodiert. Diese Algorithmen bestimmen, wie das Video verarbeitet und gespeichert wird. Einige der gängigen Kodierungsstandards sind:

  • MPEG (Moving Picture Experts Group): Dazu gehören verschiedene Standards wie MPEG-2 (für DVDs verwendet) und MPEG-4 (für Online-Video und Rundfunk).
  • H.264 (Erweiterte Videokodierung): Bekannt für seine Effizienz, wird es häufig für alles verwendet, von Blu-ray-Discs bis zu Webvideos.
  • H.265 (Hocheffiziente Videokodierung): Der Nachfolger von H.264 bietet eine bessere Komprimierung und ist damit ideal für 4K- und 8K-Videos.

Sobald das Video komprimiert und kodiert ist, wird es in einem digitalen Format gespeichert. Das gewählte Format kann die Kompatibilität, die Qualität und die Größe der Videodatei beeinflussen. Zu den gängigen digitalen Videoformaten gehören:

  • .mp4: Ein vielseitiges Format, das mit vielen Geräten und Plattformen kompatibel ist.
  • .avi: Ein älteres Format, das für seine Flexibilität in Bezug auf Codecs bekannt ist.
  • .mov: Entwickelt von Apple, wird oft in der professionellen Videobearbeitung verwendet.
  • .wmv: Entwickelt von Microsoft, hauptsächlich für Windows-Plattformen.

Das kodierte Video muss mit verschiedenen Wiedergabegeräten und Übertragungsmethoden kompatibel sein. So müssen bei Videos, die für das Streaming über das Internet bestimmt sind, andere Aspekte (wie Bandbreite und Pufferung) berücksichtigt werden als bei Videos, die für die lokale Wiedergabe bestimmt sind.

Wie funktioniert die Videokomprimierung?

Die Videokomprimierung ist eine Technik zur Verringerung der Größe von digitalen Videodateien. Das Hauptziel der Komprimierung besteht darin, Videodateien für die Speicherung, Übertragung und Wiedergabe besser handhabbar zu machen, ohne die Qualität des Videos wesentlich zu beeinträchtigen. Die Prinzipien der Videokompression umfassen mehrere Schlüsselkonzepte:

Techniken zur Datenreduzierung

Die Videokomprimierung funktioniert, indem redundante oder unnötige Daten identifiziert und entfernt werden. Es gibt zwei Haupttypen von Datenreduktionstechniken, die bei der Videokompression verwendet werden:

  • Räumliche Komprimierung: Auch als Intra-Frame-Komprimierung bekannt, reduziert sie die Redundanz innerhalb eines einzelnen Videobildes. Dazu gehören Techniken wie Farb-Subsampling und die Umwandlung der Bilddaten in ein Format, in dem sie effizienter komprimiert werden können.
  • Zeitliche Komprimierung: Auch als Inter-Frame-Komprimierung bekannt, reduziert sie Redundanz über mehrere Frames hinweg. Bei dieser Methode werden nur Änderungen zwischen aufeinanderfolgenden Bildern gespeichert, anstatt jedes Bild in seiner Gesamtheit zu speichern. In einer Szene, in der sich zum Beispiel nur ein kleines Objekt bewegt, wird nur die Bewegung und nicht das gesamte Bild aufgenommen.

Verlustbehaftete vs. verlustfreie Komprimierung

  • Verlustbehaftete Komprimierung: Bei dieser Methode werden Daten komprimiert, indem ein Teil der Daten dauerhaft entfernt wird. Es ist die gängigste Art der Komprimierung für Videodateien, da sie die Dateigröße erheblich reduzieren kann. Der Nachteil ist, dass dies zu einem Qualitätsverlust führen kann, insbesondere wenn das Video zu stark komprimiert ist.
  • Verlustfreie Komprimierung: Bei dieser Methode werden die Daten ohne Verlust komprimiert, so dass das Originalvideo aus den komprimierten Daten perfekt rekonstruiert werden kann. Sie reduziert die Dateigröße zwar nicht so stark wie die verlustbehaftete Komprimierung, ist aber für Anwendungen, bei denen die Erhaltung der ursprünglichen Qualität entscheidend ist, unerlässlich.

Bitratenkontrolle: Die Bitrate bezieht sich auf die Datenmenge, die in einer bestimmten Zeit verarbeitet wird. Eine niedrigere Bitrate verringert zwar die Dateigröße, kann aber auch die Videoqualität beeinträchtigen. Bei der Komprimierung geht es oft darum, einen Ausgleich zwischen der Bitrate und der gewünschten Qualität zu schaffen.

Kodierungsalgorithmen: Die Videokompression wird durch verschiedene Kodierungsalgorithmen erreicht, wobei Standards wie MPEG und H.264 weit verbreitet sind. Diese Algorithmen verwenden komplexe mathematische Formeln, um den effizientesten Weg zur Darstellung von Videodaten zu finden.

Psycho-visuelle Techniken: Diese Techniken machen sich bestimmte Eigenschaften des menschlichen Sehens zunutze. So sind beispielsweise bestimmte Farben oder kleine Details für das menschliche Auge nicht so auffällig, so dass diese stärker komprimiert werden können, ohne die wahrgenommene Videoqualität wesentlich zu beeinträchtigen.

Was ist verlustbehaftete Komprimierung?

Die verlustbehaftete Komprimierung ist eine Datenkodierungsmethode, bei der die Größe einer Datei verringert wird, indem bestimmte Informationen, insbesondere redundante oder weniger wichtige Daten, dauerhaft entfernt werden. Diese Art der Komprimierung wird häufig für digitale Audio-, Bild- und Videodaten verwendet, bei denen eine perfekte Reproduktion der Originaldaten nicht erforderlich ist. Der Hauptvorteil der verlustbehafteten Komprimierung ist die Möglichkeit, die Dateigröße erheblich zu reduzieren, was für eine effiziente Speicherung und schnellere Übertragung, insbesondere über das Internet, entscheidend ist.

Einige gängige verlustbehaftete Komprimierungsstandards:

  • JPEG (Joint Photographic Experts Group): Die JPEG-Komprimierung wird häufig für digitale Bilder verwendet und ermöglicht eine effektive Reduzierung der Dateigröße unter Beibehaltung einer angemessenen Bildqualität.
  • MPEG (Moving Picture Experts Group): Dazu gehören verschiedene Standards für die Video- und Audiokomprimierung, wie z.B. MPEG-1 (für CDs), MPEG-2 (für DVDs) und MPEG-4 (weit verbreitet für digitale Medien, einschließlich Internet-Streaming und Broadcasting).
  • H.264 (Erweiterte Videokodierung): H.264 ist ein Standard für die Videokomprimierung. Er ist für seine hohe Komprimierungseffizienz bekannt und damit ideal für High-Definition-Video-Streaming und -Übertragungen.
  • MP3 (MPEG Audio Layer III): MP3 ist ein beliebtes Audiokomprimierungsformat, mit dem die Größe von Audiodateien reduziert werden kann, wobei die Klangqualität leidet, auch wenn dies für den durchschnittlichen Hörer oft nicht wahrnehmbar ist.

Was ist verlustfreie Komprimierung?

Verlustfreie Komprimierung ist eine Methode der Datenkodierung, die die Größe einer Datei ohne Informationsverlust reduziert. Im Gegensatz zur verlustbehafteten Komprimierung, bei der einige Daten dauerhaft entfernt werden, können bei der verlustfreien Komprimierung die Originaldaten aus den komprimierten Daten perfekt rekonstruiert werden. Diese Art der Komprimierung ist für Anwendungen unerlässlich, bei denen die Erhaltung der Originaldaten von entscheidender Bedeutung ist, z. B. bei Textdokumenten, bestimmten Bildformaten und zu Archivierungszwecken.

Einige gängige verlustfreie Komprimierungsstandards:

  • PNG (Portable Network Graphics): Ein beliebtes Bildformat für das Internet. PNG bietet eine verlustfreie Komprimierung und ist daher ideal für detaillierte Grafiken, bei denen Klarheit und Qualität wichtig sind.
  • FLAC (Free Lossless Audio Codec): Ein weit verbreitetes Audioformat für verlustfreie Kompression. FLAC reduziert die Dateigröße von Audioaufnahmen ohne Qualitätsverlust und ist daher bei Audiophilen und zu Archivierungszwecken beliebt.
  • ZIP: ZIP ist ein weit verbreitetes Dateikomprimierungsformat, mit dem Sie verschiedene Datentypen (Text, Bilder, Anwendungen usw.) verlustfrei komprimieren können. Es wird üblicherweise für die Speicherung und Übertragung von Dateien verwendet.
  • ALAC (Apple Lossless Audio Codec): ALAC wurde von Apple entwickelt und bietet ähnlich wie FLAC eine vollständig verlustfreie Audiokomprimierung. Es ist mit Apple-Geräten und -Software kompatibel.
  • Huffman-Kodierung: Eine häufig verwendete Methode zur verlustfreien Datenkomprimierung. Er wird in verschiedenen Dateiformaten und Komprimierungsstandards verwendet, oft in Verbindung mit anderen Algorithmen.

Was sind Videokodierungsalgorithmen?

Videocodierungsalgorithmen spielen eine entscheidende Rolle bei der digitalen Videoverarbeitung und ermöglichen die effiziente Speicherung und Übertragung von Videodaten. Diese Algorithmen wurden entwickelt, um Videodateien zu komprimieren, so dass sie leichter gespeichert und weitergegeben werden können, ohne übermäßig viel Speicherplatz oder Bandbreite zu verbrauchen.

Das Hauptziel der Videokodierung ist die Komprimierung von Videodaten, um die Dateigröße zu verringern. Daher ermöglichen Videocodierungsalgorithmen vor allem eine effiziente Speicherung von Videos auf digitalen Medien und eine effektive Übertragung, insbesondere über das Internet, wo die Bandbreite begrenzt sein kann. Während die Dateigröße reduziert wird, zielen diese Algorithmen darauf ab, so viel von der ursprünglichen Videoqualität wie möglich zu erhalten. Die Herausforderung besteht darin, ein Gleichgewicht zwischen Komprimierung (kleinere Dateigröße) und Beibehaltung einer hohen Videoqualität zu finden. Die Kodierungsalgorithmen wurden auch entwickelt, um Videodateien für verschiedene Wiedergabeszenarien zu optimieren, z. B. für das Streaming über das Internet, die Ausstrahlung oder die Speicherung auf physischen Medien wie DVDs.

Diese Algorithmen verwenden komplexe Komprimierungstechniken, darunter sowohl verlustbehaftete als auch verlustfreie Komprimierung. Sie identifizieren und eliminieren redundante Daten und entfernen im Falle einer verlustbehafteten Komprimierung auch weniger wichtige Daten, um höhere Komprimierungsraten zu erzielen. Durch die Analyse der Unterschiede zwischen aufeinanderfolgenden Bildern und der Ähnlichkeiten innerhalb eines Einzelbildes kodieren diese Algorithmen Videodaten effizient. In einer Szene, in der der Großteil des Hintergrunds statisch bleibt, werden beispielsweise nur die Veränderungen im Detail kodiert. Einige Algorithmen passen die Bitrate auch an die Komplexität der einzelnen Teile des Videos an. Komplexere Szenen erhalten eine höhere Bitrate (und damit mehr Daten), während einfachere Szenen weniger Daten benötigen.

Einige der wichtigsten Videokodierungsalgorithmen sind:

  • MPEG (Moving Picture Experts Group): Umfasst verschiedene Standards wie MPEG-1 (verwendet für Video-CDs), MPEG-2 (verwendet für DVDs und digitales Fernsehen), MPEG-4 (weit verbreitet für digitale Medien, einschließlich Streaming) und MPEG-H.
  • H.264/AVC (Erweiterte Videokodierung): H.264 ist für seine hohe Komprimierungseffizienz bekannt und wird häufig für alles von Blu-ray-Discs bis hin zu Webvideos verwendet.
  • H.265/HEVC (Hocheffiziente Videokodierung): Der Nachfolger von H.264, der eine noch effizientere Komprimierung bietet und damit für 4K und höher aufgelöste Videos geeignet ist.
  • VP9: VP9 wurde von Google entwickelt und ist ein offenes und lizenzfreies Videocodierformat, das hauptsächlich für das Streaming von Videos im Internet, insbesondere bei YouTube, verwendet wird.
  • AV1: Ein neueres, offenes und lizenzfreies Videocodierungsformat, das von der Alliance for Open Media entwickelt wurde. Es wurde für das Streaming von Videos über das Internet mit einer höheren Komprimierungseffizienz als H.264 und H.265 entwickelt.

Was sind die verschiedenen Arten von digitalen Videokodierungsstandards?

Digitale Videocodierungsstandards sind Spezifikationen oder Richtlinien, die zur Codierung und Komprimierung von digitalem Video verwendet werden. Sie standardisieren, wie Videodaten komprimiert und in ein digitales Format umgewandelt werden, und legen Aspekte wie Bitrate, Auflösung und Kompatibilität mit verschiedenen Geräten und Plattformen fest.

Die wichtigsten digitalen Videocodierungsstandards:

  1. MPEG-2
  2. H.264 (Erweiterte Videokodierung, AVC)
  3. H.265 (Hocheffiziente Videokodierung, HEVC)
  4. VP9
  5. AV1

Diese Standards unterscheiden sich in Bezug auf Komprimierungseffizienz, Qualitätserhalt und Rechenkomplexität, so dass sie für unterschiedliche Anwendungen und Technologien geeignet sind.

  • MOV

MOV ist ein Multimedia-Container-Dateiformat, das hauptsächlich in Apples QuickTime Framework verwendet wird. Es wurde von Apple Inc. entwickelt und 1991 eingeführt. Der bei der MOV-Videokodierung verwendete Algorithmus entspricht dem H.264-Standard. Eine der wichtigsten Verbesserungen des MOV-Formats gegenüber anderen Standards zur Zeit seiner Einführung war seine Fähigkeit, mehrere Medientypen (Audio, Video, Text) in einer einzigen Datei zu speichern und zu synchronisieren.

 

  • H.264/MPEG-4 AVC

H.264, auch bekannt als MPEG-4 AVC (Advanced Video Coding), ist ein weit verbreiteter Videokompressionsstandard, der von der ITU-T Video Coding Experts Group und der ISO/IEC Moving Picture Experts Group entwickelt und 2003 erstmals veröffentlicht wurde. Zu den Vorteilen von H.264 im Vergleich zu früheren Videocodierungsstandards gehören eine höhere Komprimierungseffizienz, die Fähigkeit, eine gute Videoqualität bei wesentlich niedrigeren Bitraten zu liefern, und eine höhere Flexibilität bei der Codierung von Videos über eine breite Palette von Bandbreiten und Auflösungen.

 

  • H.265/MPEG-H Teil 2/HEVC

H.265, auch bekannt als High-Efficiency Video Coding (HEVC) oder MPEG-H Part 2, ist ein Videokompressionsstandard, der als Nachfolger von H.264/MPEG-4 AVC entwickelt wurde. Sie wurde 2013 fertiggestellt und vom Joint Collaborative Team on Video Coding (JCT-VC) entwickelt, einer Zusammenarbeit zwischen der ISO/IEC Moving Picture Experts Group (MPEG) und der ITU-T Video Coding Experts Group. Zu den Verbesserungen von H.265 gegenüber H.264 gehören fortschrittliche Techniken wie eine verbesserte Bewegungskompensation für eine bessere Vorhersage des Bildinhalts und eine größere Flexibilität bei der Aufteilung der Bilder in Blöcke für die Codierung.

  • MPEG-4

MPEG-4 ist ein umfassender Videocodierungsstandard, der von der Moving Picture Experts Group (MPEG), einer Arbeitsgruppe der International Organization for Standardization (ISO) und der International Electrotechnical Commission (IEC), entwickelt wurde. MPEG-4 wurde 1999 offiziell zu einem internationalen Standard. Es verwendet fortschrittliche Kodierungstechniken wie objektbasierte Kodierung, die eine separate Manipulation und Interaktion mit einzelnen Objekten innerhalb einer Szene ermöglicht. Einige der verbesserten Eigenschaften von MPEG-4 sind die verbesserte Kompression, Flexibilität und Vielseitigkeit.

 

  • MPEG-2/H.262

MPEG-2, auch bekannt als H.262, ist ein digitaler Videocodierungsstandard, der in der Rundfunkindustrie weit verbreitet ist, insbesondere für DVDs, Super-VCDs und verschiedene Fernsehformate. Es wurde von der Moving Picture Experts Group (MPEG) entwickelt, einer Zusammenarbeit von Experten der International Organization for Standardization (ISO) und der International Electrotechnical Commission (IEC). MPEG-2 wurde 1995 offiziell standardisiert. Das MPED-2 bietet eine höhere Videoqualität und Unterstützung für Interlaced Video.

 

  • MPEG-1

MPEG-1 ist ein digitaler Videocodierungsstandard, der in erster Linie für Video-CDs (VCD) und digitale Audioübertragungen entwickelt wurde. Sie wurde von der Moving Picture Experts Group (MPEG) ins Leben gerufen, einer Arbeitsgruppe der International Organization for Standardization (ISO) und der International Electrotechnical Commission (IEC). MPEG-1 wurde 1992 offiziell standardisiert. Der MPEG-1-Standard verwendet einen Komprimierungsalgorithmus, der die diskrete Kosinustransformation (DCT) zur Verringerung der räumlichen Redundanz innerhalb von Frames einsetzt.

 

  • Theora

Theora ist ein Open-Source-Videokomprimierungsformat, das zu den freien und offenen Medienprojekten der Xiph.Org Foundation gehört. Es wurde offiziell 2004 veröffentlicht. Theora ist vom VP3-Codec abgeleitet, der ursprünglich von On2 Technologies entwickelt wurde. Der Theora-Codec verwendet einen auf der diskreten Kosinustransformation (DCT) basierenden Videokomprimierungsalgorithmus, ähnlich wie die in Formaten wie MPEG und VP8 verwendeten Methoden. Es wird für Wikipedia-Projekte hauptsächlich wegen seiner Zugänglichkeit verwendet. Theora zeichnet sich dadurch aus, dass es Open-Source und anpassungsfähig ist.

 

  • H.263

H.263 ist ein Videokomprimierungsstandard, der ursprünglich für die Kommunikation mit niedriger Bitrate entwickelt wurde. Es wurde von der ITU-T Video Coding Experts Group (VCEG) entwickelt und erstmals 1996 veröffentlicht. Der in H.263 verwendete Algorithmus basiert auf der diskreten Kosinustransformation (DCT) als Kompressionstechnik. Zu den herausragenden Merkmalen von H.263 gehören verbesserte Komprimierung, Flexibilität und Fehlertoleranz.

 

  • H.261

H.261 ist einer der früheren Videokompressionsstandards, der speziell für Videokonferenzen und Videotelefonie über ISDN-Leitungen (Integrated Services Digital Network) entwickelt wurde. Es wurde von der ITU-T Video Coding Experts Group (VCEG) entwickelt und erstmals 1990 standardisiert. Der in H.261 verwendete Algorithmus basiert auf der diskreten Kosinustransformation (DCT) und der Bewegungskompensation. Ein wesentlicher Vorteil von H.261 war, dass H.261 sowohl CIF- (Common Intermediate Format) als auch QCIF- (Quarter CIF) Auflösungen unterstützte und so unterschiedliche Videoqualitäten und Netzwerkbandbreiten ermöglichte.

 

  • CCIR 601

CCIR 601, jetzt bekannt als ITU-R BT.601, ist ein Standard für digitale Videoübertragungen, insbesondere in Studioumgebungen. Es wurde vom International Radio Consultative Committee (CCIR) entwickelt, das jetzt Teil der Internationalen Fernmeldeunion (ITU) ist. Der Standard wurde erstmals 1982 eingeführt und definiert eine Auflösung von 720×486 Pixeln für NTSC und 720×576 Pixeln für PAL/SECAM mit einem Seitenverhältnis von 4:3. CCIR 601 legte auch Standards für die Digitalisierung analoger Videosignale fest und spezifizierte eine 4:2:2 Chroma-Unterabtastung.

 

  • VC-2 (Dirac Pro)

VC-2, auch bekannt als Dirac Pro, ist ein digitales Videokompressionsformat, das von der BBC (British Broadcasting Corporation) entwickelt wurde. Es wurde 2008 offiziell veröffentlicht. Der Kernalgorithmus von VC-2/Dirac Pro basiert auf der Wavelet-Komprimierung und unterscheidet sich damit von den häufiger verwendeten Codecs, die auf der diskreten Kosinustransformation (DCT) basieren, wie H.264. VC-2 bietet Flexibilität, Open-Source und hochwertige Komprimierung.

 

  • H.120

H.120 war ein früher Videokompressionsstandard für Videokonferenzen und -telefonie. Es wurde Ende der 1970er Jahre von der International Telecommunication Union (ITU) entwickelt und 1984 offiziell standardisiert. Der in H.120 verwendete Algorithmus war die differentielle Pulscodemodulation (DPCM) zur Komprimierung, eine Technik, die die Differenz zwischen aufeinanderfolgenden Abtastwerten und nicht die absoluten Werte kodiert.

Was sind die verschiedenen Arten von digitalen Videodateiformaten?

Digitale Videodateiformate sind Container, in denen digitale Videodaten gespeichert werden, oft einschließlich Audio, Untertiteln und anderen Metadaten. Diese Formate kapseln nicht nur die kodierten Video- und Audioströme, sondern definieren auch, wie diese Daten in der Datei gespeichert und strukturiert werden.

 

Dateiformate unterscheiden sich von Kodierungsstandards dadurch, dass letztere sich mit den technischen Details der Videokomprimierung und -kodierung befassen, während Dateiformate sich mit der Organisation und Speicherung dieser Daten befassen. Ein einziges Dateiformat kann mehrere Kodierungsstandards unterstützen und bietet so Flexibilität bei der Komprimierung und Nutzung von Videodaten.

 

Einige beliebte digitale Video-Dateiformate sind:

  • Ogg Video (.ogg, .ogv): Ogg Video, mit den Dateierweiterungen .ogg und .ogv, ist ein freies, offenes Containerformat, das Teil des Ogg Multimedia-Projekts ist, das 1993 von der Xiph.Org Foundation initiiert wurde. Ogg Video wurde in erster Linie für Streaming-Anwendungen entwickelt und ist bekannt für seine Effektivität bei der Verarbeitung von Video- und Audiodaten innerhalb einer einzigen Datei. Ogg Video wird meist mit dem Kodierungsstandard Theora in Verbindung gebracht, der ebenfalls von der Xiph.Org Foundation entwickelt wurde.
  • QuickTime Dateiformat (.mov, .qt): Das QuickTime Dateiformat, mit den Dateierweiterungen .mov und .qt, wurde von Apple Inc. entwickelt. Es wurde 1991 als Teil des QuickTime Multimedia Frameworks eingeführt. Das QuickTime Dateiformat wurde entwickelt, um eine breite Palette von digitalen Medientypen zu speichern und eignet sich daher besonders gut für die Videobearbeitung und die Erstellung von Inhalten. Einer der am häufigsten in QuickTime verwendeten Videocodecs ist der H.264 (MPEG-4 AVC) Standard, der für seine hohe Komprimierungseffizienz und Qualität bekannt ist.
  • AVI (.avi): Das Audio Video Interleave (AVI) Format mit der Dateierweiterung .avi wurde im November 1992 von Microsoft eingeführt. AVI ist ein Containerformat, das sowohl Audio- als auch Videodaten in einer einzigen Datei enthält und die synchrone Wiedergabe von Audio und Video ermöglicht. Es ist für eine breite Palette von Videoinhalten gedacht, von Videos in Standardqualität auf PCs bis hin zu hochwertigen Filmen. Eine der besonderen Eigenschaften von AVI ist seine Flexibilität in Bezug auf die Video- und Audiocodecs, die es enthalten kann. Es ist nicht auf einen einzigen Kodierungsstandard angewiesen, sondern kann eine breite Palette von Codecs verwenden.
  • MPEG-4 Teil 14 (MP4) (.mp4, .m4p (mit DRM), .m4v): MPEG-4 Part 14, allgemein bekannt als MP4, ist ein digitales Multimedia-Containerformat. Es wurde von der Moving Picture Experts Group (MPEG) entwickelt und im Jahr 2003 offiziell als Standard eingeführt. MP4 ist für die Speicherung von Video, Audio und anderen Daten wie Untertiteln und Standbildern konzipiert. Aufgrund seiner hohen Komprimierungseffizienz und der Kompatibilität mit verschiedenen Geräten und Plattformen ist er besonders gut für das Streaming über das Internet geeignet. Das Format verwendet in der Regel den MPEG-4-Kodierungsstandard für Video und Advanced Audio Coding (AAC) für Audio.
  • Matroska (.mkv): Matroska, allgemein bekannt unter seiner Dateierweiterung .mkv, ist ein flexibles und offenes Standard-Multimedia-Containerformat. Es wurde erstmals im Jahr 2002 veröffentlicht und von einer Gruppe von Softwareentwicklern unter der Leitung von Steve Lhomme entwickelt. Matroska wurde entwickelt, um eine unbegrenzte Anzahl von Video-, Audio-, Bild- oder Untertitelspuren in einer Datei zu speichern, was es ideal für die Speicherung von Filmen, Fernsehsendungen und anderen Multimedia-Inhalten macht. Zu den häufig verwendeten Video-Codecs in MKV-Dateien gehören H.264, H.265 und VP9, während Audio-Codecs wie AAC, DTS und Dolby Digital ebenfalls häufig verwendet werden.
  • Flash Video (FLV) (.flv .f4v .f4p .f4a .f4b): Flash Video, allgemein bekannt unter der Dateierweiterung .flv, ist ein Container-Dateiformat, das für die Bereitstellung digitaler Videoinhalte über das Internet mit dem Adobe Flash Player verwendet wird. FLV wurde von Macromedia, das später von Adobe Systems übernommen wurde, im Jahr 2002 eingeführt. Zu den typischen Kodierungsstandards, die in FLV-Dateien verwendet werden, gehören Sorenson Spark (H.263) für frühe Versionen und später VP6 und H.264 Videocodecs.
  • MPEG Transport Stream (.MTS, .M2TS, .TS): MPEG Transport Stream wurde von der Moving Picture Experts Group (MPEG) entwickelt und erstmals 1995 veröffentlicht. MPEG Transport Stream wurde für Rundfunkanwendungen entwickelt, insbesondere für die Übertragung von Video- und Audiodaten, bei denen es auf Robustheit und Fehlerkorrektur ankommt, wie z.B. bei terrestrischen, Kabel- und Satellitenfernsehübertragungen. Das Format wird auch für die Speicherung von High-Definition-Videos auf Blu-ray-Discs und AVCHD verwendet. MPEG Transport Stream unterstützt verschiedene Kodierungsstandards, darunter MPEG-2 und H.264 Videocodecs.
  • WebM (.webm): WebM ist ein offenes, lizenzfreies Mediendateiformat, das für das Internet entwickelt wurde. Es wurde von Google erstmals im Jahr 2010 angekündigt. WebM wurde speziell für die Verwendung in Webbrowsern als Teil des HTML5-Videostandards entwickelt. Sein Hauptzweck ist die Bereitstellung von qualitativ hochwertigem Video-Streaming über das Internet. Der in WebM verwendete Video-Codec ist VP8 oder VP9.
  • GIF (.gif): Das Graphics Interchange Format (GIF) wurde 1987 von einem Team des amerikanischen Online-Dienstleisters CompuServe unter der Leitung des Informatikers Steve Wilhite erfunden. GIF ist in erster Linie für einfache Animationen und Videoclips mit niedriger Auflösung im Internet gedacht. Der in GIF verwendete Kodierungsstandard ist die LZW-Komprimierung (Lempel-Ziv-Welch), eine verlustfreie Datenkomprimierungstechnik, die die Dateigröße reduziert, ohne die visuelle Qualität des Bildes zu beeinträchtigen.
  • Material Exchange Format (MXF) (.mxf): Das Material Exchange Format (MXF) ist ein Containerformat, das von der Society of Motion Picture and Television Engineers (SMPTE) entwickelt und 2004 erstmals als Standard veröffentlicht wurde. MXF ist für den Einsatz in der professionellen digitalen Videoproduktion, -bearbeitung und -ausstrahlung vorgesehen. MXF ist ein flexibles Format, das eine Reihe von Kodierungsstandards unterstützt
  • Windows Media Video (.wmv): Windows Media Video (WMV) ist eine Reihe von Video-Codecs und entsprechenden Videocodierformaten, die von Microsoft entwickelt und 1999 als Teil des Windows Media Frameworks eingeführt wurden. WMV ist in erster Linie für Streaming-Anwendungen unter dem Windows-Betriebssystem gedacht. Der in WMV verwendete Kodierungsstandard basiert auf dem Microsoft Advanced Systems Format (ASF).
  • MPEG-2 – Video (.mpg, .mpeg, .m2v): MPEG-2 ist ein Standard für die allgemeine Kodierung von bewegten Bildern und zugehörigen Audioinformationen. Es wurde von der Moving Picture Experts Group (MPEG) entwickelt und wurde 1995 offiziell standardisiert. MPEG-2 ist in erster Linie für die Kodierung von digitalen Fernsehsignalen und DVDs gedacht. Der in MPEG-2 Video verwendete Kodierungsstandard basiert auf verlustbehafteten Komprimierungstechniken, die eine Inter-Frame-Komprimierung zur Reduzierung der zeitlichen Redundanz und eine Intra-Frame-Komprimierung zur Reduzierung der räumlichen Redundanz umfassen.
  • MPEG-1 (.mpg, .mp2, .mpeg, .mpe, .mpv): MPEG-1 ist ein Standard für die verlustbehaftete Komprimierung von Video und Audio, der von der Moving Picture Experts Group (MPEG) entwickelt und 1992 als Standard eingeführt wurde. MPEG-1 war in erster Linie für die Videowiedergabe mit einer ähnlichen Auflösung wie bei VHS gedacht und wurde häufig für Video-CDs (VCDs) verwendet. Die MPEG-1-Videokomprimierung basiert auf verlustbehafteten Techniken, insbesondere auf der diskreten Kosinustransformation (DCT) zur Reduzierung der räumlichen Redundanz und dem Bewegungsausgleich zur Minimierung der zeitlichen Redundanz.
  • F4V (.flv): Das F4V-Dateiformat ist eine Variante des ursprünglichen Flash Video (FLV)-Formats, das von Adobe Systems eingeführt wurde. F4V wurde als Teil der Adobe Flash-Technologie entwickelt und wurde erstmals 2007 mit der Veröffentlichung von Adobe Flash Player 9 Update 3 eingeführt. F4V ist für das Streaming von Videoinhalten über das Internet gedacht, vor allem für die Verwendung innerhalb des Adobe Flash Player Frameworks. Der in F4V-Dateien verwendete Kodierungsstandard basiert auf dem H.264-Videocodec.
  • Vob (.vob): Das VOB-Dateiformat (Video Object) ist ein Containerformat, das in DVD-Video-Medien verwendet wird. VOB wurde 1996 zusammen mit dem DVD-Standard eingeführt. VOB-Dateien sind für die Speicherung von Video, Audio, Untertiteln, Menüs und Navigationsinhalten von DVDs gedacht. VOB-Dateien verwenden in der Regel den MPEG-2-Videokodierungsstandard, der der Industriestandard für die DVD-Videokomprimierung war.
  • M4V (.m4v): Das M4V-Dateiformat ist ein Video-Containerformat, das 2003 von Apple Inc. entwickelt wurde. M4V ist in erster Linie für Videoinhalte gedacht, die über den iTunes Store von Apple vertrieben werden. Es wird zum Speichern von Fernsehsendungen, Filmen und Musikvideos verwendet, die von iTunes heruntergeladen und auf Apple-Geräten wie iPhones, iPads und iPods abgespielt werden können. Der in M4V-Dateien verwendete Kodierungsstandard ist H.264 für Video und AAC für Audio.
  • 3GPP2 (.3g2): Das 3GPP2-Dateiformat mit der Erweiterung .3g2 ist ein Multimedia-Containerformat, das im Januar 2004 vom 3rd Generation Partnership Project 2 (3GPP2) entwickelt wurde. Das 3GPP2-Format ist speziell für die Verwendung auf 3G-Mobiltelefonen konzipiert. Es ist eine vereinfachte Version des MPEG-4 Part 14 Containerformats (MP4) und wurde für mobile Umgebungen mit begrenzter Bandbreite und Speicherkapazität entwickelt. Für die Videokodierung verwendet das .3g2-Format in der Regel die Standards H.263 oder MPEG-4 Part 2.
  • Advanced Systems Format (ASF) (.asf): Advanced Systems Format (ASF) ist ein digitales Audio-/Video-Containerformat, das 1996 von Microsoft entwickelt wurde. Es eignet sich besonders gut für Streaming-Anwendungen über Netzwerke wie das Internet. ASF-Dateien sind in der Regel mit den Codecs Windows Media Audio (WMA) und Windows Media Video (WMV) verbunden.
  • RealMedia (RM) (.rm): RealMedia (RM) ist ein von RealNetworks entwickeltes Multimedia-Containerformat. Es wurde erstmals 1997 als Teil der RealSystem Multimedia Suite eingeführt. Das RM-Format ist in erster Linie für das Streaming von Medieninhalten im Internet gedacht. Es wurde entwickelt, um die Bereitstellung und Wiedergabe digitaler Medien über Internetverbindungen mit geringer Bandbreite zu erleichtern, die in den späten 1990er und frühen 2000er Jahren üblich waren. Der im RM-Format verwendete Kodierungsstandard ist RealVideo, der proprietäre Videocodec von RealNetworks.
  • RealMedia Variable Bitrate (RMVB) (.rmvb): RealMedia Variable Bitrate (RMVB) ist eine Erweiterung des RealMedia Multimedia-Containerformats, das 2003 von RealNetworks entwickelt wurde. RMVB wurde speziell für die Speicherung von Multimedia-Inhalten, insbesondere Videos, mit variabler Bitrate entwickelt, was eine effizientere Nutzung von Bandbreite und Speicherplatz ermöglicht. Der in RMVB verwendete Kodierungsstandard ist eine Variante des RealVideo-Codecs.
  • VivoActive (VIV) (.viv): VivoActive, mit der Dateierweiterung .viv, war ein Videoformat, das 1995 von Vivo Software entwickelt wurde. VivoActive wurde speziell für das Streaming von Videoinhalten über das Internet entwickelt. Der in VivoActive-Dateien verwendete Kodierungsstandard waren Vivo-eigene Video- und Audiocodecs.
  • Rohes Videoformat (.yuv): Das Rohvideoformat, das in der Regel durch die Dateierweiterung .yuv dargestellt wird, ist nicht mit einem bestimmten Erfindungsdatum oder Erfinder verbunden, da es sich eher um ein allgemeines Format handelt, das rohe Videodaten darstellt. Es wird häufig bei der Videobearbeitung und -nachbearbeitung sowie in der Forschung und Entwicklung auf dem Gebiet der Videokomprimierung und -verarbeitung verwendet. Im Gegensatz zu typischen Videoformaten, die Kompressionsalgorithmen verwenden, speichern YUV-Dateien rohe, unkomprimierte Videodaten.
  • Video-Alternative zu GIF (.gifv): Die Erweiterung .gifv ist kein traditionelles Dateiformat, sondern eine Namenskonvention, die 2014 von der Bilder-Hosting-Website Imgur eingeführt wurde. Die Erweiterung .gifv bezeichnet in der Regel eine Videodatei, die von einem GIF-Format in ein effizienteres Videoformat wie MP4 oder WebM konvertiert wurde. Die in .gifv-Dateien verwendeten Kodierungsstandards hängen von dem zugrunde liegenden Videoformat ab. Handelt es sich bei einer .gifv-Datei beispielsweise um eine MP4-Datei, wird der H.264-Video-Codec verwendet, während eine WebM-basierte .gifv-Datei den VP8- oder VP9-Codec verwenden würde.
  • AMV-Videoformat (.amv): Das AMV-Videoformat, das durch die Dateierweiterung .amv gekennzeichnet ist, wurde im Jahr 2003 entwickelt. AMV ist für die Wiedergabe von Videos mit niedriger Auflösung auf tragbaren Media-Playern wie MP4-Playern und S1 MP3-Playern mit Videowiedergabe gedacht. Der im AMV-Format verwendete Kodierungsstandard ist eine modifizierte Version des AVI-Videoformats
  • Dirac (.drc): Dirac ist ein Videokompressionsformat und Codec, der von der BBC (British Broadcasting Corporation) entwickelt und erstmals 2004 veröffentlicht wurde. Dirac ist für den Einsatz in einer Vielzahl von Anwendungen vorgesehen, vom Web-Streaming bis hin zu hochauflösenden Fernsehübertragungen. Der in Dirac verwendete Kodierungsstandard basiert auf der Wavelet-Komprimierungstechnologie
  • Multiple-image Network Graphics (.mng): MNG wurde von Mitgliedern der PNG Development Group entwickelt. Die Entwicklung von MNG begann 1996, die Spezifikation wurde 2001 fertiggestellt. MNG ist für die Verwendung mit komplexen animierten Grafiken gedacht und gilt als leistungsfähigere Alternative zum GIF-Format, insbesondere für Animationen, die eine höhere Qualität, Transparenz oder mehr Farben erfordern, als GIFs bieten können. Der in MNG-Dateien verwendete Kodierungsstandard ist eng mit dem von PNG verwandt und verwendet verlustfreie Datenkomprimierungstechniken.
  • Nullsoft Streaming Video (NSV) (.nsv): Nullsoft Streaming Video (NSV) ist ein Mediencontainerformat, das 2003 von Nullsoft entwickelt wurde. NSV wurde in erster Linie für das Streaming von Videoübertragungen über das Internet entwickelt. Für Video verwendet NSV in der Regel die Videocodecs VP3 oder VP6 und für Audio oft MP3 oder AAC.
  • ROQ (.roq): ROQ ist ein Videodateiformat, das 1995 von Graeme Devine, einem Programmierer bei Id Software, für ein Spiel namens The 11th Hour entwickelt wurde. ROQ wurde in erster Linie für Zwischensequenzen und Animationen von Videospielen entwickelt. Der in ROQ-Dateien verwendete Kodierungsstandard ist ein proprietärer Videocodec, der von Id Software
  • SVI (.svi): mit der Dateierweiterung .svi, ist ein Videodateiformat, das 2005 von Samsung Electronics entwickelt wurde. Das SVI-Format ist in erster Linie für die Videowiedergabe auf Samsung-Geräten gedacht. Der in SVI-Dateien verwendete Kodierungsstandard ist in der Regel eine Variante der MPEG-4- oder H.264-Videocodecs, zusammen mit AAC für Audio.

Was ist ein Video Codec?

Ein Videocodec ist eine Software-, Firmware- oder Hardware-Implementierung, die Daten in einem bestimmten Videocodierformat in oder aus unkomprimiertem Video kodieren oder dekodieren kann. Dies unterscheidet sich von einem Videocodierformat selbst, das eine Spezifikation ist, die beschreibt, wie Videodaten komprimiert und strukturiert werden sollten.

Ein Videocodierformat ist wie eine Reihe von Spezifikationen, während ein Codec ein Werkzeug oder eine Reihe von Werkzeugen ist, die zur Ausführung der Spezifikationen verwendet werden. H.264 ist beispielsweise ein Videocodierungsformat (die Spezifikation) und OpenH264 ist ein Codec (eine spezifische Implementierung), der Videos gemäß dem H.264-Format codiert und decodiert.

Das bedeutet, dass für ein bestimmtes Videokodierungsformat, wie z.B. H.264, mehrere Codecs verfügbar sein können, die die Spezifikationen dieses Formats implementieren und jeweils unterschiedliche Funktionen oder Optimierungen bieten.

Was bedeutet digital beim Film?

Im Zusammenhang mit Filmen bezieht sich „digital“ auf die Methode der Erfassung, Verarbeitung, Speicherung und Verteilung von Filminhalten mit digitaler Technologie, im Gegensatz zu traditionellen analogen Methoden wie 35-mm-Filmmaterial.

Digitalkameras werden verwendet, um bewegte Bilder als digitales Video aufzunehmen, anstatt sie auf Film zu bannen. Digitales Filmen ermöglicht die sofortige Wiedergabe und Bearbeitung, flexiblere Aufnahmeoptionen und ist oft kostengünstiger als das Filmen auf Film.

Außerdem werden der Schnitt, die Farbkorrektur, das Hinzufügen von visuellen Effekten und das Sounddesign in digitalen Filmen mit Hilfe von Computersoftware durchgeführt. Dies ermöglicht einen effizienteren und vielseitigeren Postproduktionsprozess im Vergleich zu analogen Bearbeitungsmethoden.

Filme können auch digital über das Internet, auf physischen Medien wie Blu-ray-Discs oder über digitale Kopien vertrieben werden. In den Kinos hat die digitale Projektion die traditionellen Filmprojektoren weitgehend ersetzt. Die digitale Verteilung und Projektion sorgt für eine gleichbleibende Bildqualität und vereinfacht die Handhabung und den Transport.

Digitale Filme werden in verschiedenen digitalen Dateiformaten gespeichert und können auf Servern, Festplatten oder in der Cloud archiviert werden, was im Vergleich zu Filmrollen effizientere und langlebigere Speicherlösungen bietet.

Unterschiede zwischen Digitalvideo und Analogvideo

Analoges Video Digitales Video
Signal Typ Kontinuierliche elektronische Signale. Digitale Daten, typischerweise Binärcode (0s und 1s).
Qualität und Verschlechterung Anfällig für Qualitätseinbußen im Laufe der Zeit und bei Kopien. Bewahrt eine gleichbleibende Qualität über einen längeren Zeitraum und ist weniger anfällig für Verschlechterungen.
Bearbeitung und Speicherung Lineare Bearbeitung; physische Manipulation von Bändern. Sperrigere Aufbewahrung (Bänder, Spulen). Nicht-lineare Bearbeitung mit Software; flexibler. Kompakte digitale Speichermedien (Festplatten, SSDs).

Gemeinsamkeiten zwischen digitalem und analogem Video

Trotz ihrer Unterschiede zielen sowohl digitale als auch analoge Videosysteme grundsätzlich darauf ab, bewegte Bilder für die Betrachtung zu erfassen und wiederzugeben. Während sich die Methoden zur Erfassung, Speicherung und Verarbeitung der Bilder unterscheiden, können beide Arten von Videos ähnliche Kodierungsmethoden zur Darstellung der visuellen Inhalte verwenden. So können beide beispielsweise Farbkodierungssysteme (wie YUV oder RGB) verwenden, um Farbinformationen im Video darzustellen.

Unterschiede zwischen digitalen Videosignalen und analogen Videosignalen

Analoge Videosignale Digitale Videosignale
Art der Signale Kontinuierliche Wellenformen variieren mit der Zeit. Diskrete Binärdaten (0s und 1s).
Qualität und Verschlechterung Anfällig für Rauschen und Verschlechterung über die Entfernung und bei Kopien. Unempfindlich gegen Verschlechterung, gleichbleibende Qualität über Entfernungen und Kopien.
Speicherung und Übertragung Gespeichert und übertragen in der ursprünglichen Wellenform; oft auf Magnetbändern oder über Radiowellen. Leicht zu komprimieren und zu verschlüsseln für die Speicherung und Übertragung; nutzt digitale Medien wie optische Fasern, digitale Geräte oder Internet-Streaming.

Gemeinsamkeiten zwischen digitalen und analogen Videosignalen

Sowohl digitale als auch analoge Videosignale dienen im Grunde demselben Zweck: der Erfassung, Speicherung und Übertragung visueller Informationen. Unabhängig von ihrem Format stellen sie beide denselben Inhalt (das Video) dar, allerdings auf unterschiedliche Weise, je nach der jeweiligen Technologie. Die Kodierung von Farb- und Helligkeitsinformationen kann bei beiden Arten ähnlich sein, aber die Art und Weise, wie diese Informationen übertragen werden (kontinuierlich bei analogen, diskret bei digitalen), unterscheidet sich erheblich.

Unterschiede zwischen digitalem Videomedium und analogem Videomedium

Analoges Video-Medium Digitales Video-Medium
Speicherformat Kontinuierliche Signale auf Medien wie Magnetbändern oder Filmspulen. Digitale Daten werden auf Medien wie Festplatten, DVDs, Solid-State-Laufwerken oder Cloud-Speicher gespeichert.
Qualität und Verschlechterung Anfällig für eine Verschlechterung im Laufe der Zeit; die Qualität nimmt mit dem Alter und dem Gebrauch ab. Höhere Auflösung und Qualität; gleichbleibend über die Zeit, keine Verschlechterung durch Alterung oder Kopieren.
Editieren und Zugänglichkeit Lineare Bearbeitung mit physischer Manipulation; schwieriger zu kopieren und zu verbreiten. Nicht-lineare, softwarebasierte Bearbeitung; einfache Vervielfältigung und Verteilung ohne Qualitätsverlust.
Vertrieb Erfordert eine physische Verteilung, was umständlicher und kostspieliger ist. Einfacher elektronischer Versand, effizient und kostengünstig.
Fehlerkorrektur Begrenzte Fehlerkorrekturmöglichkeiten; anfällig für Rauschen und Signalverschlechterung. Enthält Algorithmen zur Fehlerkorrektur, die eine höhere Originaltreue und geringere Fehleranfälligkeit gewährleisten.

 

Ähnlichkeit zwischen digitalem und analogem Videomedium

Trotz dieser Unterschiede dienen sowohl digitale als auch analoge Videomedien dem grundlegenden Zweck der Speicherung und Übermittlung von Videoinhalten. Sie sind Werkzeuge, um visuelle Geschichten und Informationen zu erfassen, zu bewahren und darzustellen, wenn auch mit unterschiedlichen technologischen Mitteln.

 

Unterschiede zwischen digitaler Videobearbeitung und analoger Videobearbeitung

 

Unterschiede zwischen digitaler Videobearbeitung und analoger Videobearbeitung

Analoge Videobearbeitung Digitale Videobearbeitung
Prozess der Bearbeitung Physisches Schneiden und Verbinden von Bändern; linearer Schnittprozess. Nicht-linearer Schnitt mit einer Software, die einen beliebigen Zugriff auf jeden Teil des Materials ermöglicht.
Werkzeuge und Ausrüstung Benötigt physische Geräte wie Tapedecks und Edit-Controller. Verwendet Computersoftware und -hardware; die Bearbeitung erfolgt über eine digitale Schnittstelle.
Flexibilität Begrenzte Flexibilität; Bearbeitungen sind dauerhaft und Änderungen erfordern oft eine erneute Aufnahme. Äußerst flexibel; Bearbeitungen können problemlos rückgängig gemacht oder geändert werden, ohne dass das Originalmaterial beeinträchtigt wird.
Effekte und Manipulation Beschränkt auf Schnitte, Überblendungen und einfache Effekte; komplexe Effekte sind schwierig oder unmöglich. Große Auswahl an digitalen Effekten und Manipulationen verfügbar; einfachere Integration von visuellen Effekten und Grafiken.
Qualität bewahren Jede Bearbeitung kann die Qualität verschlechtern; mit jeder Kopie entsteht ein Generationenverlust. Kein Qualitätsverlust über Generationen hinweg; die digitalen Kopien sind mit dem Original identisch.

 

Ähnlichkeiten zwischen digitaler Videobearbeitung und analoger Videobearbeitung

Trotz der Unterschiede haben digitale und analoge Videobearbeitung eine wesentliche Gemeinsamkeit: Beide sind kreative Prozesse, bei denen es darum geht, Videomaterial zu montieren und zu manipulieren, um eine Geschichte zu erzählen oder eine Botschaft zu vermitteln. Unabhängig vom Medium erfordert die Videobearbeitung eine Mischung aus technischem Können und künstlerischer Vision, um das Material so auszuwählen, zu sequenzieren und zu verbessern, dass die kreative Absicht des Projekts erfüllt wird. Dieser grundlegende Aspekt des Geschichtenerzählens mit Hilfe von Video bleibt bestehen, unabhängig davon, ob es durch das physische Zusammenfügen von analogen Bändern oder durch die softwarebasierte Manipulation von digitalen Dateien erreicht wird.

Nach oben scrollen