Es begann am Anfang der achtziger Jahre, der PC war gerade aus den Kinderschuhen heraus und die Compact Disc (CD), das neue Trägermedium für Musik, war gerade eingeführt worden. Zu dieser Zeit begannen einige Forscher darüber nachzudenken, wie die neuen digitalen Tonsignale komprimiert werden könnten. Das Ziel war, die Menge der Daten für Speicherung und für drahtlose Übertragung zu reduzieren, ohne dass die neue digitale Qualität beeinträchtigt würde. Von Anfang an dabei waren Detlef Krahé an der Universät Duisburg, Karlheinz Brandenburg an der Universität Erlangen und eine kleine Gruppe unter der Leitung von Ernst F. Schröder im Thomson Corporate Research Labor in Hannover. Zuerst arbeitete man getrennt und in Konkurrenz zueinander, aber bereits 1985 gab es erste Kontakte, und als 1986 das Europäische EUREKA (EU-147) Projekt "Digital Audio Broadcasting" begann, da fand man sich schnell in der gleichen Arbeitsgruppe wieder.
Zwei konkurrierende Gruppen bildeten sich, das Fraunhofer IIS Institut in Erlangen mit der Universität Erlangen, und Thomson Corporate Research mit der Universität Duisburg, und beide entwickelten konkurrierende Systeme. Die Arbeit war nicht einfach, man versuchte die Eigenschaften des menschlichen Ohres elektronisch nachzubilden, aber mit der damals zur Verfügung stehenden Computertechnologie dauerte die Verarbeitung von 3 Minuten Musik manchmal eine ganze Nacht. Wie sollte man da die Arbeitsergebnisse für viele unterschiedliche Musikstücke überprüfen, damit die gewünschte Qualität auch tatsächlich und sicher eingehalten wurde? Ein Musikstück stellte sich als ideal heraus: Die Originalversion von "Tom's Diner", a capella gesungen von Suzanne Vega. Dieser Song stellte sich als der am schwierigsten zu verarbeitende heraus, so dass jeder beteiligte Ingenieur ihn sicherlich einige tausend mal intensiv abgehört hat.
So etwa ab 1988 rückten schließlich Echtzeitsysteme in den Bereich der Möglichkeiten. Das war
endlich die Chance, den ewigen Skeptikern die rote Karte zu zeigen. Im selben Jahr wurde dann
auch ein internationales Standardisierungskommittee gegründet: Die "Moving Pictures Expert Group" oder kurz MPEG. Ziel war es, einen internationalen Standard für die Übertragung und Speicherung von digitalen Audio- und Videosignalen festzulegen.
Das vierte Treffen dieser Gruppe fand statt in Hannover, sowohl bei Thomson als auch in der Technischen Universität Hannover. Dieses Treffen war das erste, bei dem eine Arbeitsgruppe zum Thema Audio zusammentrat.
In der Zwischenzeit hatten weitere Forscher die Idee der Komprimierung von Audio- und Videosignalen aufgegriffen. Daher lagen schließlich 14 unterschiedliche Vorschläge auf dem Tisch.
Daraufhin organisierte MPEG einen aufwendigen Vergleich der Vorschläge, aus dem schließlich zwei Favoriten hervorgingen: einerseits "MUSICAM", vorgeschlagen von Philips, CCETT und dem Institut für Rundfunktechnik (IRT) in München, und andererseits "ASPEC", vorgeschlagen von Fraunhofer IIS, Thomson, der Universität Duisburg und AT&T. Nach weiteren aufwendigen Vergleichen und Tests, die vom Schwedischen Rundfunk in Stockholm durchgeführt wurden, stellte sich heraus, dass die Unterschiede tatsächlich äußerst gering waren. Die beobachteten Qualitätsunterschiede beruhten mehr auf einer unterschiedlichen Sicht auf die Anforderungen als auf tatsächlichen fundamentalen Unterschieden.
Daher kamen schließlich alle Beteiligten im September 1990 in Murray Hill in New Jersey zu einem "historischen" Treffen zusammen und beschlossen, beide Lösungsansätze zu vereinen und einen einzigen gemeinsamen Standard zu definieren, der allerdings Raum für ein paar Unterschiede ließ.
Der sogenannte "Layer 2" ist eine solche Variante des MPEG Standards ISO/IEC 11172-3 und machte schnell Karriere bei den Europäischen Rundfunkanstalten. "Layer 3", eine andere Variante, deren Wurzeln auf die Arbeiten von Krahé, Brandenburg und Schroeder zurückgehen, wurde dort verwendet, wo eine höhere Kompression erforderlich war.
Musik im "Layer 3" Format ist ungefähr elfmal kompakter als Musik im CD Format, deahalb kann man auf einem Speicherchip mit 256 Megabyte Kapazität anstelle von 8 Musikstücken tatsächlich über 88 Musikstücke speichern.
Inzwischen haben wir das Jahr 1995 erreicht und der PC ist zu einem universellen Arbeitsmittel geworden. Dateien erhalten Namen, die mit einem Punkt und drei weiteren Buchstaben enden. Leider hat es niemand festgehalten, aber irgendjemand im Fraunhofer Institut in Erlangen fand eine viel kürzere Namensgebung für die "MPEG Layer 3" Dateien auf seinem PC: er benannte sie mit ".mp3". Das war die Geburtsstunde einer legendären Erfolgsgeschichte, die vom gerade erwachenden Internet weitergetragen wurde. Die ersten integrierten Schaltkreise mit Decodern für mp3 erschienen 1996 und der erste tragbare mp3-Spieler erschien 1997.
Der Rest der Geschichte sollte noch bekannt sein. Man schätzt, dass einige hundert Millionen mp3 Decoder produziert worden sind, und dass praktisch jedes digitale Musikstück schon einmal im mp3 Format encodiert worden ist.
Hier sitzen die drei zusammen auf der Tonmeistertagung 2002 in Hannover.
Von links:
Karlheinz Brandenburg,
Ernst F. Schröder,
Detlef Krahé.
Foto durch Martin Link
Dies ist die korrigierte Version vom 2013-10-16.
Die ursprüngliche Version wurde zuerst veröffentlicht am 2009-03-11.