Datenkomprimierung

Veröffentlicht in: Articles | 0

ImageEdit

Hauptartikel: Bildkomprimierung

Die Entropie–Codierung entstand in den 1940er Jahren mit der Einführung der Shannon-Fano-Codierung, der Grundlage für die 1950 entwickelte Huffman-Codierung. Transform Coding geht auf die späten 1960er Jahre zurück, mit der Einführung der Fast Fourier Transform (FFT) Codierung in 1968 und der Hadamard Transform in 1969.

Eine wichtige Bildkomprimierungstechnik ist die diskrete Kosinustransformation (DCT), eine Technik, die in den frühen 1970er Jahren entwickelt wurde., DCT ist die Grundlage für JPEG, ein verlustbehaftetes Komprimierungsformat, das 1992 von der Joint Photographic Experts Group (JPEG) eingeführt wurde. JPEG reduziert die Datenmenge, die zur Darstellung eines Bildes erforderlich ist, erheblich auf Kosten einer relativ geringen Verringerung der Bildqualität und ist zum am weitesten verbreiteten Bilddateiformat geworden. Sein hocheffizienter DCT-basierter Kompressionsalgorithmus war maßgeblich für die breite Verbreitung digitaler Bilder und digitaler Fotos verantwortlich.

Lempel-Ziv-Welch (LZW) ist ein 1984 entwickelter verlustfreier Kompressionsalgorithmus. Es wird im GIF-Format verwendet, das 1987 eingeführt wurde., DEFLATE, ein 1996 spezifizierter verlustfreier Komprimierungsalgorithmus, wird im PNG-Format (Portable Network Graphics) verwendet.

Die Wavelet-Komprimierung, die Verwendung von Wavelets bei der Bildkomprimierung, begann nach der Entwicklung der DCT-Codierung. Der JPEG 2000-standard wurde im Jahr 2000 eingeführt. Im Gegensatz zum DCT-Algorithmus, der im ursprünglichen JPEG-Format verwendet wird, verwendet JPEG 2000 stattdessen diskrete Wavelet-Transform-Algorithmen (DWT). Die JPEG 2000-Technologie, die die Motion JPEG 2000-Erweiterung enthält, wurde 2004 als Videocodierungsstandard für digitales Kino ausgewählt.,

AudioEdit

Siehe auch: Audiocodierungsformat und Audiocodec

Audiodatenkomprimierung, nicht zu verwechseln mit Dynamikbereichskomprimierung, hat das Potenzial, die Übertragungsbandbreite und den Speicherbedarf von Audiodaten zu reduzieren. Audiokomprimierungsalgorithmen werden in Software als Audio-Codecs implementiert. Sowohl bei der verlustbehafteten als auch bei der verlustfreien Komprimierung wird die Informationsredundanz reduziert, wobei Methoden wie Codierung, Quantisierung, Kosinustransformation und lineare Vorhersage verwendet werden, um die Informationsmenge zu reduzieren, die zur Darstellung der unkomprimierten Daten verwendet wird.,

Verlustbehaftete Audiokomprimierungsalgorithmen bieten eine höhere Komprimierung und werden in zahlreichen Audioanwendungen einschließlich Vorbis und MP3 verwendet. Diese Algorithmen basieren fast alle auf Psychoakustik, um die Wiedergabetreue von weniger hörbaren Geräuschen zu eliminieren oder zu verringern, wodurch der zum Speichern oder Übertragen erforderliche Platz reduziert wird.

Der akzeptable Kompromiss zwischen Verlust der Audioqualität und Übertragung oder Speichergröße hängt von der Anwendung ab., Zum Beispiel hält eine 640 MB Compact Disc (CD) ungefähr eine Stunde unkomprimierte High-Fidelity-Musik, weniger als 2 Stunden verlustfreie Musik oder 7 Stunden Musik, die im MP3-Format mit einer mittleren Bitrate komprimiert wurde. Ein digitaler Tonaufnehmer kann in der Regel rund 200 Stunden klar verständliche Sprache in 640 MB speichern.

Die verlustfreie Audiokomprimierung erzeugt eine Darstellung digitaler Daten, die auf ein exaktes digitales Duplikat des Originals dekodiert werden können. Die Komprimierungsraten liegen bei etwa 50-60% der ursprünglichen Größe, was denen für die generische verlustfreie Datenkomprimierung ähnelt., Verlustfreie Codecs verwenden Kurvenanpassung oder lineare Vorhersage als Grundlage für die Schätzung des Signals. Parameter, die die Schätzung und die Differenz zwischen der Schätzung und dem tatsächlichen Signal beschreiben, werden separat codiert.

Es gibt eine Reihe verlustfreier Audiokomprimierungsformate. Siehe Liste der verlustfreien Codecs für eine Auflistung. Einige Formate sind mit einem bestimmten System verbunden, z. B. Direct Stream Transfer, das in Super Audio CD und Meridian Lossless Packing verwendet wird und in DVD-Audio, Dolby TrueHD, Blu-ray und HD DVD verwendet wird.,

Einige Audiodateiformate verfügen über eine Kombination aus einem verlustbehafteten Format und einer verlustfreien Korrektur; Dies ermöglicht es der Korrektur, leicht eine verlustbehaftete Datei zu erhalten. Solche Formate umfassen MPEG-4 SLS (Skalierbar auf verlustfrei), WavPack und OptimFROG DualStream.

Wenn Audiodateien entweder durch weitere Komprimierung oder zur Bearbeitung verarbeitet werden sollen, ist es wünschenswert, von einem unveränderten Original (unkomprimiert oder verlustfrei komprimiert) aus zu arbeiten., Die Verarbeitung einer verlustbehafteten komprimierten Datei zu einem bestimmten Zweck führt normalerweise zu einem Endergebnis, das der Erstellung derselben komprimierten Datei aus einem unkomprimierten Original unterlegen ist. Zusätzlich zur Tonbearbeitung oder-mischung wird häufig eine verlustfreie Audiokomprimierung für die Archivierung oder als Masterkopien verwendet.

Verlustbehaftete Audiokompressionedit

Vergleich von Spektrogrammen von Audio in einem unkomprimierten Format und mehreren verlustbehafteten Formaten., Die verlustbehafteten Spektrogramme zeigen Bandbegrenzung höherer Frequenzen, eine übliche Technik, die mit verlustbehafteter Audiokomprimierung verbunden ist.

Verlustbehaftete Audiokomprimierung wird in einer Vielzahl von Anwendungen verwendet. Neben eigenständigen Audio-Only-Anwendungen der Dateiwiedergabe in MP3-Playern oder Computern werden digital komprimierte Audio-Streams in den meisten Video-DVDs, digitalem Fernsehen, Streaming-Medien im Internet, Satelliten-und Kabelradio sowie zunehmend in terrestrischen Radiosendungen verwendet., Verlustbehaftete Komprimierung erreicht typischerweise eine weitaus größere Komprimierung als verlustfreie Komprimierung, indem weniger kritische Daten basierend auf psychoakustischen Optimierungen verworfen werden.

Die Psychoakustik erkennt, dass nicht alle Daten in einem Audiostream vom menschlichen Hörsystem wahrgenommen werden können. Die meisten verlustbehafteten Komprimierungen reduzieren die Redundanz, indem sie zuerst wahrnehmungsrelevante Geräusche identifizieren, dh Geräusche, die sehr schwer zu hören sind. Typische Beispiele sind hohe Frequenzen oder Töne, die gleichzeitig mit lauteren Tönen auftreten. Diese irrelevanten Geräusche werden mit verminderter Genauigkeit oder gar nicht codiert.,

Aufgrund der Art verlustbehafteter Algorithmen erleidet die Audioqualität einen digitalen Erzeugungsverlust, wenn eine Datei dekomprimiert und neu komprimiert wird. Dies macht verlustbehaftete Komprimierung ungeeignet für die Speicherung der Zwischenergebnisse in professionellen Audio-Engineering-Anwendungen, wie Tonbearbeitung und Multitrack-Aufnahme. Verlustbehaftete Formate wie MP3 sind jedoch bei Endbenutzern sehr beliebt, da die Dateigröße auf 5-20% der ursprünglichen Größe reduziert wird und ein Megabyte Musik in angemessener Qualität von etwa einer Minute speichern kann.,

Codierungsmethodenedit

Um zu bestimmen, welche Informationen in einem Audiosignal wahrnehmlich irrelevant sind, verwenden die meisten verlustbehafteten Kompressionsalgorithmen Transformationen wie die modifizierte diskrete Kosinustransformation (MDCT), um Zeitdomänen abgetastete Wellenformen in eine Transformationsdomäne umzuwandeln, typischerweise die Frequenzdomäne. Nach der Transformation können Komponentenfrequenzen priorisiert werden, je nachdem, wie hörbar sie sind., Die Hörbarkeit spektraler Komponenten wird anhand der absoluten Hörschwelle und der Prinzipien der gleichzeitigen Maskierung beurteilt-dem Phänomen, bei dem ein Signal durch ein anderes Signal maskiert wird, das durch Frequenz getrennt ist—und in einigen Fällen durch eine zeitliche Maskierung, bei der ein Signal durch ein anderes Signal maskiert wird durch Zeit getrennt. Gleichlautbarkeitskonturen können auch verwendet werden, um die Wahrnehmungsbedeutung von Komponenten zu gewichten. Modelle der menschlichen Ohr-Gehirn-Kombination, die solche Effekte beinhalten, werden oft als psychoakustische Modelle bezeichnet.,

Andere Arten von verlustbehafteten Kompressoren, wie die lineare prädiktive Codierung (LPC), die mit Sprache verwendet wird, sind quellbasierte Codierer. LPC verwendet ein Modell des menschlichen Stimmtraktes, um Sprachlaute zu analysieren und die Parameter abzuleiten, die das Modell verwendet, um sie von Moment zu Moment zu erzeugen. Diese sich ändernden Parameter werden übertragen oder gespeichert und verwendet, um ein anderes Modell im Decoder anzutreiben, das den Ton wiedergibt.

Verlustbehaftete Formate werden häufig für die Verteilung von Streaming-Audio oder interaktiver Kommunikation (z. B. in Mobilfunknetzen) verwendet., In solchen Anwendungen müssen die Daten als Datenflüsse dekomprimiert werden, anstatt nachdem der gesamte Datenstrom übertragen wurde. Nicht alle Audio-Codecs können für Streaming-Anwendungen verwendet werden.

Die Latenz wird durch die Methoden zum Codieren und Dekodieren der Daten eingeführt. Einige Codecs analysieren ein längeres Segment, das als Frame bezeichnet wird, um die Effizienz zu optimieren, und codieren es dann so, dass ein größeres Datensegment gleichzeitig dekodiert werden muss., Die inhärente Latenz des Kodierungsalgorithmus kann kritisch sein; Wenn beispielsweise eine bidirektionale Übertragung von Daten erfolgt, beispielsweise bei einem Telefongespräch, können erhebliche Verzögerungen die wahrgenommene Qualität erheblich beeinträchtigen.

Im Gegensatz zur Komprimierungsgeschwindigkeit, die proportional zur Anzahl der vom Algorithmus benötigten Operationen ist, bezieht sich die Latenz hier auf die Anzahl der Samples, die analysiert werden müssen, bevor ein Audioblock verarbeitet wird. Im minimalen Fall ist die Latenz Nullabtastwerte (z. B. wenn der Codierer/Decoder einfach die Anzahl der Bits reduziert, die zur Quantisierung des Signals verwendet werden)., Zeitbereichsalgorithmen wie LPC weisen häufig auch geringe Latenzen auf, weshalb sie bei der Sprachcodierung für die Telefonie beliebt sind. Bei Algorithmen wie MP3 muss jedoch eine große Anzahl von Samples analysiert werden, um ein psychoakustisches Modell im Frequenzbereich zu implementieren, und die Latenz liegt in der Größenordnung von 23 ms (46 ms für die bidirektionale Kommunikation).

Sprachcodierungedit

Die Sprachcodierung ist eine wichtige Kategorie der Audiodatenkomprimierung. Die Wahrnehmungsmodelle, mit denen geschätzt wird, was ein menschliches Ohr hören kann, unterscheiden sich im Allgemeinen etwas von denen, die für Musik verwendet werden., Der Frequenzbereich, der benötigt wird, um die Klänge einer menschlichen Stimme zu vermitteln, ist normalerweise viel enger als der für Musik benötigte, und der Klang ist normalerweise weniger komplex. Infolgedessen kann Sprache mit einer relativ niedrigen Bitrate in hoher Qualität codiert werden.

Wenn die zu komprimierenden Daten analog sind (z. B. eine Spannung, die mit der Zeit variiert), wird die Quantisierung verwendet, um sie in Zahlen (normalerweise ganze Zahlen) zu digitalisieren. Dies wird als Analog-Digital-Wandlung (A/D) bezeichnet., Wenn die durch Quantisierung erzeugten Ganzzahlen jeweils 8 Bit betragen, wird der gesamte Bereich des analogen Signals in 256 Intervalle unterteilt und alle Signalwerte innerhalb eines Intervalls werden auf die gleiche Anzahl quantisiert. Wenn 16-Bit-Ganzzahlen erzeugt werden, wird der Bereich des analogen Signals in 65.536 Intervalle unterteilt.

Diese Beziehung veranschaulicht den Kompromiss zwischen hoher Auflösung (eine große Anzahl von analogen Intervallen) und hoher Kompression (kleine Ganzzahlen erzeugt). Diese Anwendung der Quantisierung wird von mehreren Sprachkomprimierungsmethoden verwendet., Dies wird im Allgemeinen durch eine Kombination von zwei Ansätzen erreicht:

  • Codiert nur Klänge, die von einer einzigen menschlichen Stimme erzeugt werden könnten.
  • Mehr Daten im Signal wegwerfen-gerade genug, um eine“ verständliche “ Stimme und nicht den gesamten Frequenzbereich des menschlichen Gehörs zu rekonstruieren.

Vielleicht waren die frühesten Algorithmen, die bei der Sprachcodierung (und Audiodatenkomprimierung im Allgemeinen) verwendet wurden, der A-Law-Algorithmus und der μ-Law-Algorithmus.,

Geschichtedit

Solidyne 922: Die weltweit erste kommerzielle Audio-Bit-Kompressions-Soundkarte für PC, 1990

Perceptual Coding wurde erstmals für die Sprachcodierungskomprimierung mit Linear Predictive Coding (LPC) verwendet. Erste Konzepte für LPC gehen auf die Arbeit von Fumitada Itakura (Universität Nagoya) und Shuzo Saito (Nippon Telegraph and Telephone) im Jahr 1966 zurück. In den 1970er Jahren, Bishnu S. Atal und Manfred R., Schroeder bei Bell Labs entwickelte eine Form von LPC namens Adaptive Predictive Coding (APC), ein Wahrnehmungscodierungsalgorithmus, der die Maskierungseigenschaften des menschlichen Ohrs ausnutzte, gefolgt in den frühen 1980er Jahren mit dem Code-Excited Linear Prediction (CELP) Algorithmus, der ein signifikantes Kompressionsverhältnis für seine Zeit erreichte. Wahrnehmungscodierung wird von modernen Audiokomprimierungsformaten wie MP3 und AAC verwendet.

Das weltweit erste kommerzielle Audiokomprimierungssystem zur Automatisierung von Rundfunksendungen wurde von Oscar Bonello, einem Ingenieurprofessor an der Universität von Buenos Aires, entwickelt., 1983 begann er unter Verwendung des 1967 erstmals veröffentlichten psychoakustischen Prinzips der Maskierung kritischer Bänder mit der Entwicklung einer praktischen Anwendung, die auf dem kürzlich entwickelten IBM PC-Computer basiert, und das Broadcast-Automatisierungssystem wurde 1987 unter dem Namen Audicom eingeführt. Zwanzig Jahre später verwendeten fast alle Radiosender der Welt eine ähnliche Technologie, die von einer Reihe von Unternehmen hergestellt wurde.

Im Februar 1988 wurde im IEEE ‚ s Journal on Selected Areas in Communications (JSAC) ein Literaturkompendium für eine Vielzahl von Audiocodierungssystemen veröffentlicht., Während es einige Papiere aus vor dieser Zeit gab, dokumentierte diese Sammlung eine ganze Reihe von fertigen, funktionierenden Audiocodierern, von denen fast alle Wahrnehmungs-(dh Maskierungs -) Techniken und eine Art Frequenzanalyse und geräuschlose Back-End-Codierung verwendeten. In mehreren dieser Artikel wurde auf die Schwierigkeit hingewiesen, gutes, sauberes digitales Audio für Forschungszwecke zu erhalten. Die meisten, wenn nicht alle Autoren der JSAC-Edition waren auch im MPEG-1 Audio Committee aktiv, das das MP3-Format erstellt hat.,

VideoEdit

Siehe auch: Videocodierungsformat und Videocodec

Videokomprimierung ist eine praktische Implementierung der Quellcodierung in der Informationstheorie. In der Praxis werden die meisten Videocodecs neben Audiokomprimierungstechniken verwendet, um die separaten, aber komplementären Datenströme als ein kombiniertes Paket unter Verwendung sogenannter Containerformate zu speichern.

Unkomprimiertes video erfordert eine sehr hohe Datenrate. Obwohl verlustfreie Videokomprimierungscodecs mit einem Kompressionsfaktor von 5 bis 12 arbeiten, hat ein typisches H. 264-Kompressionsvideo einen Kompressionsfaktor zwischen 20 und 200.,

Die beiden wichtigsten Videokomprimierungstechniken, die in Videocodierungsstandards verwendet werden, sind die diskrete Kosinustransformation (DCT) und die Bewegungskompensation (MC). Die meisten Videocodierungsstandards, wie die H. 26x-und MPEG-Formate, verwenden typischerweise bewegungskompensierte DCT-Videocodierung (Block Motion Compensation).

Codierungstheoreedit

Videodaten können als eine Reihe von Standbildern dargestellt werden. Solche Daten enthalten in der Regel reichlich räumliche und zeitliche Redundanz. Videokomprimierungsalgorithmen versuchen, Redundanz zu reduzieren und Informationen kompakter zu speichern.,

Die meisten Videokomprimierungsformate und-codecs nutzen sowohl räumliche als auch zeitliche Redundanz (z.B. durch Differenzcodierung mit Bewegungskompensation). Ähnlichkeiten können codiert werden, indem nur Unterschiede zwischen z. B. zeitlich benachbarten Frames (Interframe-Codierung) oder räumlich benachbarten Pixeln (Intra-Frame-Codierung) gespeichert werden.Die Interframe-Komprimierung (eine zeitliche Delta-Codierung) ist eine der leistungsstärksten Komprimierungstechniken. Es (re)verwendet Daten aus einem oder mehreren früheren oder späteren Frames in einer Sequenz, um den aktuellen Frame zu beschreiben., Die Intra-Frame-Codierung hingegen verwendet nur Daten aus dem aktuellen Frame, wodurch die Standbildkomprimierung effektiv ist.

Eine Klasse spezialisierter Formate, die in Camcordern und Videobearbeitung verwendet werden, verwendet weniger komplexe Komprimierungsschemata, die ihre Vorhersagetechniken auf die Intra-Frame-Vorhersage beschränken.

Normalerweise verwendet die Videokomprimierung zusätzlich verlustbehaftete Kompressionstechniken wie die Quantisierung, die Aspekte der Quelldaten reduzieren, die (mehr oder weniger) für die menschliche visuelle Wahrnehmung irrelevant sind, indem Wahrnehmungsmerkmale des menschlichen Sehens ausgenutzt werden., Zum Beispiel sind kleine Farbunterschiede schwieriger wahrzunehmen als Helligkeitsänderungen. Kompressionsalgorithmen können eine Farbe in diesen ähnlichen Bereichen durchschneiden, um den Platz zu reduzieren, ähnlich wie bei der JPEG-Bildkomprimierung. Wie bei allen verlustbehafteten Komprimierungen gibt es einen Kompromiss zwischen Videoqualität und Bitrate, Kosten für die Verarbeitung der Komprimierung und Dekomprimierung sowie Systemanforderungen. Hochkomprimierte Videos können sichtbare oder störende Artefakte darstellen.,

Andere Methoden als die vorherrschenden DCT-basierten Transformationsformate, wie fraktale Komprimierung, Matching und die Verwendung einer diskreten Wavelet-Transformation (DWT), waren Gegenstand einiger Untersuchungen, werden jedoch in der Regel nicht in praktischen Produkten verwendet (mit Ausnahme der Verwendung von Wavelet-Codierungen als Standbildcodierer ohne Bewegungskompensation). Das Interesse an der fraktalen Kompression scheint abzunehmen, da jüngste theoretische Analysen eine vergleichende mangelnde Wirksamkeit solcher Methoden zeigen.,

Interframe-Codedit
Hauptartikel: Interframe
Weitere Informationen: Bewegungskompensation

Die Interframe-Codierung vergleicht jedes Frame im Video mit dem vorherigen. Einzelne Frames einer Videosequenz werden von einem Frame zum nächsten verglichen, und der Videokomprimierungscodec sendet nur die Unterschiede an den Referenzrahmen. Wenn der Frame Bereiche enthält, in denen sich nichts bewegt hat, kann das System einfach einen kurzen Befehl ausgeben, der diesen Teil des vorherigen Frames in den nächsten kopiert., Wenn sich Teile des Rahmens auf einfache Weise bewegen, kann der Kompressor einen (etwas längeren) Befehl ausgeben, der den Dekomprimierer anweist, die Kopie zu verschieben, zu drehen, aufzuhellen oder abzudunkeln. Dieser längere Befehl bleibt immer noch viel kürzer als die Intraframe-Komprimierung. Normalerweise überträgt der Encoder auch ein Rückstandssignal, das die verbleibenden subtileren Unterschiede zu den Referenzbildern beschreibt. Unter Verwendung der Entropiecodierung haben diese Rückstandssignale eine kompaktere Darstellung als das Vollsignal., In Videobereichen mit mehr Bewegung muss die Komprimierung mehr Daten codieren, um mit der größeren Anzahl von Pixeln Schritt zu halten, die sich ändern. Häufig bei Explosionen, Flammen, Tierherden und bei einigen Schwenkschüssen führt das Hochfrequenzdetail zu Qualitätsabnahmen oder zu einer Erhöhung der variablen Bitrate.,

Hybride blockbasierte Transformationsformatsedit

Weitere Informationen: Diskrete Kosinustransformation

Verarbeitungsstufen eines typischen Videocodierers

Heute haben fast alle gängigen Videokomprimierungsmethoden (z. B. diejenigen in Standards, die von der ITU-T oder ISO genehmigt wurden) dieselbe grundlegende Architektur, die auf H. 261 zurückgeht, das standardisiert wurde. 1988 von der ITU-T., Sie stützen sich hauptsächlich auf die DCT, die auf rechteckige Blöcke benachbarter Pixel angewendet wird, und die zeitliche Vorhersage unter Verwendung von Bewegungsvektoren sowie heutzutage auch einen In-Loop-Filterschritt.

In der Vorhersagephase werden verschiedene Deduplizierungs-und Differenzcodierungstechniken angewendet, die helfen, Daten zu dekorieren und neue Daten basierend auf bereits übertragenen Daten zu beschreiben.

Dann werden rechteckige Blöcke von (Rückstands -) Pixeldaten in den Frequenzbereich transformiert, um irrelevante Informationen bei der Quantisierung und für eine gewisse räumliche Redundanzreduktion zu erleichtern., Die diskrete Kosinustransformation (DCT), die in dieser Hinsicht weit verbreitet ist, wurde 1974 von N. Ahmed, T. Natarajan und K. R. Rao eingeführt.

In der verlustbehafteten Hauptverarbeitungsstufe werden diese Daten quantisiert, um Informationen zu reduzieren, die für die visuelle Wahrnehmung des Menschen irrelevant sind.

In der letzten Stufe wird die statistische Redundanz durch einen Entropie-Codierer weitgehend eliminiert, der häufig eine Form der arithmetischen Codierung anwendet.

In einer zusätzlichen In-Loop-Filterstufe können verschiedene Filter auf das rekonstruierte Bildsignal aufgebracht werden., Durch die Berechnung dieser Filter auch innerhalb der Codierungsschleife können sie der Komprimierung helfen, da sie auf Referenzmaterial angewendet werden können, bevor es im Vorhersageprozess verwendet wird, und sie können unter Verwendung des Originalsignals geführt werden. Das beliebteste Beispiel sind Deblocking-Filter, die blockierende Artefakte aus Quantisierungsunterbrechungen an Transformationsblockgrenzen verwischen.

HistoryEdit

Hauptartikel: Video coding format § History

1967, A. H. Robinson und C., Cherry schlug ein Lauflängencodierungsbandbreitenkompressionsschema für die Übertragung analoger Fernsehsignale vor. Die diskrete Kosinustransformation (DCT), die für die moderne Videokomprimierung von grundlegender Bedeutung ist, wurde 1974 von Nasir Ahmed, T. Natarajan und K. R. Rao eingeführt.

H. 261, das 1988 debütierte, führte kommerziell die vorherrschende Grundarchitektur der Videokomprimierungstechnologie ein. Es war das erste Videocodierungsformat, das auf der DCT-Komprimierung basierte und später zum Standard für alle wichtigen Videocodierungsformate wurde. H.,261 wurde von einer Reihe von Unternehmen entwickelt, darunter Hitachi, PictureTel, NTT, BT und Toshiba.

Die beliebtesten Videocodierungsstandards für Codecs waren die MPEG-Standards. MPEG-1 wurde 1991 von der Motion Picture Experts Group (MPEG) entwickelt und wurde entwickelt, um Videos in VHS-Qualität zu komprimieren. Es wurde 1994 von MPEG-2/H. 262 erfolgreich, die von einer Reihe von Unternehmen entwickelt wurde, vor allem Sony, Thomson und Mitsubishi Electric. MPEG-2 wurde zum Standardvideoformat für digitales DVD – und SD-Fernsehen. 1999 folgte MPEG-4 / H.,263, was ein großer Fortschritt für die Videokomprimierungstechnologie war. Es wurde von einer Reihe von Unternehmen entwickelt, vor allem Mitsubishi Electric, Hitachi und Panasonic.

Das am häufigsten verwendete Videocodierungsformat ist H. 264 / MPEG-4 AVC. Es wurde 2003 von einer Reihe von Organisationen entwickelt, vor allem Panasonic, Godo Kaisha IP Bridge und LG Electronics. AVC kommerziell eingeführt, die moderne context-adaptive binary arithmetic coding (CABAC) und context-adaptive variable-length coding – (CAVLC) algorithmen., AVC ist der Hauptstandard für die Videocodierung von Blu-ray-Discs und wird häufig von Streaming-Internetdiensten wie YouTube, Netflix, Vimeo und iTunes Store, Websoftware wie Adobe Flash Player und Microsoft Silverlight sowie verschiedenen HDTV-Sendungen über terrestrisches und Satellitenfernsehen verwendet.,

Genetikedit

Siehe auch: Komprimierung von genomischen Re-Sequenzierungsdaten

Kompressionsalgorithmen für Genetik sind die neueste Generation verlustfreier Algorithmen, die Daten (typischerweise Nukleotidsequenzen) komprimieren, wobei sowohl herkömmliche Kompressionsalgorithmen als auch genetische Algorithmen verwendet werden, die an den spezifischen Datentyp angepasst sind. Im Jahr 2012 veröffentlichte ein Team von Wissenschaftlern der Johns Hopkins University einen genetischen Kompressionsalgorithmus, der kein Referenzgenom für die Kompression verwendet., HAPZIPPER wurde auf HapMap-Daten zugeschnitten und erreicht eine über 20-fache Komprimierung (95% Reduzierung der Dateigröße), die eine 2 – bis 4-fach bessere Komprimierung und viel schnellere Zeit bietet als die führenden universellen Komprimierungsdienstprogramme. Zu diesem Zweck führten Chanda, Elhaik und Bader eine MAF-basierte Codierung (MAFE) ein, die die Heterogenität des Datensatzes verringert, indem SNPs nach ihrer geringen Allelfrequenz sortiert und so der Datensatz homogenisiert wird. Andere Algorithmen in 2009 und 2013 (DNAZip und GenomeZip) haben Kompressionsverhältnisse von bis zu 1200-fach—so dass 6 Milliarden Basepair-diploide menschliche Genome in 2 gespeichert werden können.,5 megabyte (relativ zu einem Referenzgenom oder gemittelt über viele Genome). Ein Benchmark in der Genetik / Genomik-Datenanalyse finden Sie unter

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.