IT-Academy Logo
Sign Up Login Help
Home - Internet - Politik/Gesetze - Technische Möglichkeiten der Verbreitung von Werken



Technische Möglichkeiten der Verbreitung von Werken

Werke konnten schon immer kopiert werden, jedoch nie so leicht und so fehlerfrei wie heute. Die digitale Kopie bietet noch nie dagewesene Möglichkeiten, Werke schnell, billig und fehlerfrei zu vervielfältigen. Die Medienindustrie versucht, dem legalen und illegalen Kopieren durch Einführung von Rechtekontrollmechanismen Einhalt zu gebieten. Die Gefahren solcher Rechtskontrollmechanismen für die geistige Weiterentwicklung unserer Gesellschaft sind jedoch enorm.


Autor: Anton Geist (ageist)
Datum: 24-12-2002, 22:31:13
Referenzen: keine
Schwierigkeit: Fortgeschrittene
Ansichten: 5050x
Rating: 8 (1x bewertet)

Hinweis:

Für den hier dargestellte Inhalt ist nicht der Betreiber der Plattform, sondern der jeweilige Autor verantwortlich.
Falls Sie Missbrauch vermuten, bitten wir Sie, uns unter missbrauch@it-academy.cc zu kontaktieren.

[Druckansicht] [Als E-Mail senden] [Kommentar verfassen]



1. Ziel und Aufbau dieser Arbeit
Wir leben heute in einer Informationsgesellschaft. Wissen stellt einen ihrer wichtigsten Rohstoffe dar, der meist in digitaler Form vorliegt. Die Verteilkämpfe um diesen Rohstoff digitale Information haben bereits begonnen und werden mit zunehmender Bedeutung des Rohstoffes Wissen immer härter und erbarmungsloser.

Kopiert werden konnten Werke schon immer, es war jedoch noch nie so leicht und so fehlerfrei möglich wie heute. Diese technische Weiterentwicklung stellt die Protagonisten im skizzierten Informationskampf vor große Probleme: Auf das Internet bezogen soll die Medienindustrie nun beispielsweise gleichzeitig gegen (aus ihrer Sicht) nicht erlaubte Kopien vorgehen, das Internet jedoch gleichzeitig als neue Vertriebsart nutzen. Dieses Vorhaben gestaltet sich sehr schwierig, der Verlass auf das Recht als Ordnungs- und Lenkungsinstanz ist nur sehr bedingt gegeben.

Erster Teil: Geschichte der Kopierbarkeit, MP3 als Beispiel der Themenentwicklung
Der erste Teil dieser Arbeit zeichnet den Verlauf der Entwicklung der Kopierbarkeit von Werken nach und verdeutlicht diese Entwicklung mit einer Darstellung der Geschichte des MP3-Audioformates. Die Darstellung der Entwicklung dieses Audioformates soll gleichzeitig Beweise für Parallelen und Thesen liefern, die später in der Arbeit aufgeworfen werden.
Es ist nicht verwunderlich, dass die Medienindustrie in ihrer schwierigen Situation zur Selbsthilfe greift und nach Möglichkeiten sucht, eine aus ihrer Sicht unerlaubte Nutzung ihrer Werke schon auf technischer Ebene unmöglich zu machen.

Zweiter Teil: Selbsthilfe der Medienunternehmen - Rechtekontrollsysteme
Die Erläuterung der auf diesem Gedanken aufbauenden Rechtekontrollmechanismen und der zu ihrer Umsetzung notwendigen Technologien widmet sich der zweite Teil dieser Arbeit. Die leichte Kopierbarkeit von Werken veranlasst die Content-Industrie, nach Möglichkeiten zu suchen, wieder zu einer Situation zurückzukehren, in der sie die Verbreitung ihrer Werke noch kontrollieren konnten.

Dritter Teil: Gegenbewegung - freie Software
Die Einführung derartiger Rechtekontrollsysteme führt unter anderem dazu, dass das Internet viel von seinem Potential einbüßt. Gerade im Netz haben sich aber Modelle entwickelt, die jeder Art von Rechtekontrolle und auch traditionellen kommerziellen Vorstellungen entgegen laufen. Der dritte Teil dieser Arbeit beschäftigt sich mit der Darstellung dieser Free Software - Bewegung.

Das Ziel dieser Arbeit besteht einerseits - gemäß dem Titel - darin, einen Überblick über die technischen Möglichkeiten einer Verbreitung von Werken im Internet zu geben. Andererseits habe ich jedoch versucht - und diesem Zweck dient auch die Darstellung der Gegenbewegung Free Software - die Implikationen, Gefahren und Alternativen derartiger Kontrollsysteme darzustellen.

2. Die Kopierbarkeit von Werken
2.1. Die Kopierbarkeit von Werken im Laufe der Geschichte
Bis zur Mitte des vorigen Jahrhunderts stellte Schwarzkopieren kein nennenswertes Problem dar, da teure Geräte notwendig waren, um Kopien von Werken anzufertigen: Druckmaschinen, Plattenpresswerke oder Filmkopieranlagen.

Geändert hat sich dies durch das in den 1960er Jahren eingeführte Tonband sowie das 1964 von der Firma Philips eingeführte "Compact Cassetten"-Format. Nunmehr war es erstmals möglich, zu erschwinglichen Preisen Kopien von Tonträgern herzustellen . Die Musikindustrie versuchte zunächst, gegen das neue Medium vorzugehen, konnte aber den Gesetzgeber zu keiner Regelung bewegen. Bald begann sie nunmehr selbst, Musik auf Kassette zu vertreiben. In den 1980er Jahren kamen mit den Fotokopiergeräten sowie den Videorekordern weitere Geräte hinzu, die zur Vervielfältigung von Werken geeignet sind. Das Urheberrecht der Erzeuger sah sich nun nicht mehr einigen "schwarzen Schafen" innerhalb der eigenen Reihen, sondern vielmehr einer nicht überblickbaren Gruppe von Konsumenten gegenüber, die alle in der Lage waren, schnell und billig Kopien von Werken herzustellen. Aus Praktikabilitätsgründen kam es nunmehr zur Einführung von Pauschalgebühren für Aufzeichnungs- und Kopiergeräte sowie Leermedien. Natürlich kommt es durch diese Art der Abgeltung zu Unschärfen, aber es handelt sich um einen Kompromiss, der einen Ausgleich der Interessen zwischen Urhebern und Kunden darstellen soll.

2.2. Das Recht auf private Kopie
Die grundlegende Entscheidung im Bereich der Privatkopie auf Videokassette fällte das US-amerikanische Verfassungsgericht 1984. Universal City Studios und Walt Disney Corporation reichten 1976 eine Klage gegen Sony Corporation ein. Der Vorwurf der Klägerin lautete, dass Sony den Nutzern durch die von ihnen hergestellten Betamax-Videorekorder ermöglichen würde, unberechtigterweise Fernsehprogramme aufzeichnen zu können. In erster Instanz gewann Sony den Prozess, das Berufungsgericht hob dieses Urteil jedoch auf. Der Supreme Court entschied schließlich 1984 zugunsten von Sony und begründete somit ein Recht auf private Kopie.

Die Idee der Verhinderung bestimmter Nutzungen durch technische Einrichtungen, die - wie gezeigt werden wird - bei digitalen Medien essentiell ist, gab es auch schon bei analogen Medien. Eine derartige technische Rechtekontrolle stellt die Firma Macrovision zur Verfügung : Das Kopieren geschützter Videobänder wird durch das Zusammenspiel von bestimmten Markierungen auf den Bändern und durch diese Markierungen angesprochene Schaltkreise in gängigen Videorekordern verhindert.

3. Änderungen durch Digitalisierung und Internet
Bei analogen Kopierverfahren nahm die Qualität der Kopie von Datenträgergeneration zu Datenträgergeneration rapide ab. Jede digitale Kopie ist hingegen ein Master, also qualitativ gleichwertig mit dem Original. Der einzige Vorteil, den die kommerzielle Kopie gegenüber der privaten Kopie qualitativ insofern noch bietet, ist der Aufdruck auf der CD selbst sowie das originale CD-Booklet. Wird ein Inhalt ins Internet eingespeist, ist er Millisekunden später von jedem Computer aus abrufbar, der irgendwo an das Netzwerk angeschlossen ist. Abgesehen von den Grenzen der eingesetzten technischen Mittel (Computer, Leitungen) gibt es grundsätzlich keinerlei Beschränkungen, wie oft oder wie schnell ein Inhalt kopiert werden kann und darf.

3.1. Das Dilemma der Medienindustrie
Das Internet bietet die Möglichkeit, Werke mit einem Schlag überall im Netzwerk verfügbar zu machen und digital ohne Qualitätsverlust kopieren zu lassen. Dies ist für die Medienindustrie ein massives Argument, das Internet als Vertriebsweg nutzen zu wollen.
Die Medienindustrie hat jedoch gegenüber einer Verbreitung von Werken über das Internet vor allem zwei Vorbehalte, die sich in gewisser Hinsicht wiederum gegenseitig verstärken:

Einerseits besteht die Schwierigkeit, die Verbreitung der im Internet zur Verfügung gestellten Werke zu kontrollieren. Das ist der Grund, warum nach Möglichkeiten der sicheren technischen Verbreitung von Werken gesucht wird. Andererseits bereitet die immer noch geringe Bandbreite im Internet Probleme beim Transfer großer Datenmengen, wie sie vor allem im Video-Bereich benötigt werden: Den Inhalt einer CD unkomprimiert über eine normale Telefonleitung zu schicken, dauert über einen Tag lang .

Die Lösung des Bandbreitenproblems liegt in der Komprimierung von Daten. Genau diese Verkleinerung der Datenmengen führt jedoch wiederum dazu, dass auch das Verbreiten von widerrechtlich vervielfältigten Werken erleichtert wird.

Nach Auskunft der Business Software Aliance, einem internationalen Interessenverband für den Schutz von Software als geistiges Eigentum, erreichte der weltweite Schaden durch die Softwarepiraterie erreichte im Jahr 2000 weltweit 11,8 Milliarden US-Dollar.
Das angesprochene Dilemma der Medienindustrie lässt sich gut anhand der Geschichte des MP3-Format illustrieren. Die Entwicklungen rund um dieses revolutionäre Audio-Komprimierungsformat verdeutlichen das Spannungsfeld zwischen leichter technischer Verbreitbarkeit und mangelnder Kontrollierbarkeit. Außerdem wird die Leserin / der Leser nach Lektüre der gesamten Arbeit hoffentlich feststellen, dass die Geschichte von MP3 auch bis zu einem gewissen Grad die Geschichte der Auseinandersetzung zwischen proprietären und offenen Dateiformaten, zwischen kommerzieller und freier Software ist.

4. Die Geschichte von MP3
Die Forschungen, die zur Entwicklung des MP3-Formats führten, begannen 1987 in der Forschungseinrichtung des Frauenhofer Instituts für Integrierte Schaltungen (FII) in Erlangen (Deutschland). Das Ziel der Forschungsarbeit bestand darin, ein hochwertiges Kompressionssystem zu erstellen, das Dateigrößen massiv reduziert und dabei die Wahrnehmungsschwächen des menschlichen Gehörs ausnutzt.
1989 wurde in Deutschland ein Patent angemeldet und erteilt, und 1992 wurde es von der ISO (International Standards Organization) akzeptiert und in die Spezifikation der Moving Pictures Expert Group (MPEG) integriert. Die MPEG ist eine Arbeitsgruppe der ISO und der International Electrotechnical Commission (IEC). Sie beschäftigt sich mit der Entwicklung und Standardisierung von digitalen Audio- und Videodaten. Bereits 1988 wurde MPEG-I entwickelt, ein Videokomprimierungsverfahren, das zum Beispiel auf Video-CDs verwendet wird.

Da das Frauenhofer Institut ein Patent an der MP3-Technologie erhalten hat, hätte es grundsätzlich Lizenzgebühren für die Nutzung der Technologie verlangen können. Auf diese Nutzung der Patentrechte hat das Institut jedoch bisher verzichtet, auch bei der ISO-Standardisierung ging man sehr untypisch vor.

Mitte 1997 setzte MP3 zu seinem Siegeszug im Internet an. Das Frauenhofer Institut für Integrierte Schaltungen hatte, entgegen der üblichen Praxis der ISO-Standardisierung, auch eine Referenzimplementation seines Encoders auf seinen Webseiten zur Verfügung gestellt. In dieser Vorgangsweise und dem Verzicht auf die Geltendmachung von Lizenzgebühren liegt der eigentliche Schlüssel zum Erfolg von MP3 . Mit Hilfe der freigegebenen Spezifikation konnten sowohl unabhängige als auch in Unternehmen angestellte Programmierer Software für das MP3-Format entwickeln. Bald erschienen im Internet eine Fülle von En- und Decodern sowie eine große Anzahl an Musikstücken im MP3-Format. Tomislav Uzelac von Advanced Multimedia Products entwickelte den ersten MP3-Player, "AMP", der später auch als Vorbild für den heutigen Standard-Player "WinAmp" diente. Nach etwa einem Jahr begann das Institut, Abmahnungen an all jene zu verschicken, die im Netz freie MP3-Encoder anboten.

Die Musikindustrie begann sich nunmehr über immer häufigere Verletzungen ihrer verwertungsrechtlichen Ansprüche zu beklagen, da viele der im MP3-Format angebotenen Musikstücke nicht von den Anbietern, sondern von kommerziell vertriebenen Musik-CDs stammten. Bis Mitte 1999 war es vor allem anonym registrierter Webspace bei Anbietern wie Geocities, auf dem MP3-Dateien zum Download angeboten wurden. Die Musikindustrie beauftragte eigene MP3-Sucher, die das Internet nach solchen Angeboten durchforsteten und die jeweiligen Webspace-Anbieter informierten, um die MP3-Dateien sperren zu lassen.

Die Recording Industry Association of America (RIAA), eine Industrievereinigung der amerikanischen Plattenfirmen, führte und führt Prozesse gegen fremde Firmen und Institutionen, die die Verbreitung von MP3-Dateien in irgendeiner Form unterstützen. So wurden Prozesse gegen den ersten Erzeuger von MP3-Playern genauso geführt wie gegen die Betreiber der Suchmaschine Lycos, die eine eigene MP3-Suchmaschine betreibt.

Eine neue Dimension erreichte der MP3-Tausch via Internet durch das Aufkommen von so genannten Peer-to-Peer (P2P) Tauschbörsen:

Nimmt man den Begriff "Peer-to-Peer" wörtlich, so handelt es sich dabei um Server, die sich miteinander unterhalten . Versucht man sich dem Begriff genereller zu näher, erkennt man schnell, was P2P wirklich ausmacht. Während die PCs der Internet-User bislang bisher hauptsächlich "dumme" Clients waren, die den Rand des Internet ausgemacht haben, geben ihnen P2P-Netze die Möglichkeit, ihre Ressourcen zur Verfügung zu stellen und die anderer PCs zu nutzen.
Im Juni 1999 ging die Tauschbörse Napster online, die zum Inbegriff der P2P-Architektur wurde, obwohl sie streng genommen gar keine P2P-Anwendung war . Napster ermöglichte es, Dateien in einem Netzwerk von "normalen" Internet-Benutzern zu tauschen.
Napster hat inzwischen den Kampf gegen die Medienindustrie verloren und ist offline. Auch viele der Nachfolgemodelle von Napster sind bereits in gerichtliche Konflikte mit der Musikindustrie geraten und müssen ihre Services wieder einstellen. Faktum bleibt jedoch, dass die bislang nicht einzuschränkenden P2P-Technologien den Austausch von Werken in digitalisierter Form im Internet in einer völlig neuen Dimension ermöglichen.

Das MP3-Format verfügt von sich aus über keinerlei Rechtekontrollmechanismus, wie sie in dieser Arbeit noch ausführlich dargestellt werden. Die Medienindustrie wäre natürlich an der Verbreitung von Dateiformaten interessiert, die es ihr erleichtern, das Kopieren ihrer Werke zu erschweren. Microsoft hat mit dem Windows Media Format versucht, ein Dateiformat einzuführen, das - gemeinsam mit dem Windows Media Player - geeignet wäre, die Möglichkeiten des Kopierens einzuschränken. Nach wie vor dominieren jedoch MP3 und der überhaupt patentfreie Audio-Codec Ogg Vobis das Feld.

Im Mai 2002 konnte sich die Musikindustrie dazu durchringen, erstmals eine unverschlüsselte MP3-Datei zum Herunterladen anzubieten . Gegen eine Gebühr von 99 US-Cents war es möglich, einem Song aus der kurz darauf erscheinenden CD von Meshell Ndegeocello herunterzuladen. Ob man diesem Verhalten wirklich die Erkenntnis unterstellen kann, das sowohl die unzähligen Prozesse als auch das versuchte Einführen neuer Kopierschutztechniken gescheitert sind, ist fraglich. Fest steht jedoch, dass es mit diesem Angebot der Musikindustrie erstmals möglich war, eine gekaufte Datei ohne jeden Zwischenschritt weiterzukopieren selbst zu vertreiben.

5. Code as Code
Die Medienindustrie ist in ihrem Kampf gegen das unerlaubte Kopieren ihrer Werke bislang auf die Hilfe von Rechtsnormen angewiesen. Die weltweite Abrufbarkeit von Internet-Inhalten einerseits und die territoriale Anknüpfung des Urheberrechts andererseits bringen aus ihrer Sicht jedoch große Unsicherheiten mit sich.

Es ist daher nicht verwunderlich, dass die Industrie in dieser Situation zur Selbsthilfe greift: "Code as Code" wurde zum Schlagwort für diese Entwicklung, im Zuge derer der Programmiercode zur Kodifikation wird. Das Schlagwort stammt vom Lawrence Lessig, der bereits vor Jahren argumentiert hat, dass das Internet unter dem Einfluss der Wirtschaft jegliche Freiheit verlieren könnte, wenn wir die Netzfreiheit nicht beschützen. Die unsichtbare Hand des Handels würde eine Infrastruktur erzeugen, die Kontrolle perfektionieren könnte.

Diese Infrastruktur der Kontrolle hat nun nichts mehr mit rechtlichen Regelungen zu tun, sondern bezieht sich auf die Architektur des Internet, auf den Programm-Code von Software. Eine unerlaubte Bearbeitung oder Kopie von vornherein technisch unmöglich zu machen ist aus der Sicht des Vertreibers immer sinnvoller als Schutz bei der Justiz zu suchen.

Dieser Denkweise der Content-Industrie entspringt folgender Ansatzpunkt:

Wieso soll es nicht möglich sein, einer Information mitzugeben, wann sie von wem wie oft geöffnet und allenfalls kopiert werden darf? Auf dieser Idee bauen die so genannten Digital Rights Management Systeme auf. Es geht hier - wie oben bereits angedeutet wurde - darum, eine geeignete Infrastruktur aufzubauen, in der ein Grad an Kontrolle über Werknutzungen möglich wäre, der bisher nicht einmal ansatzweise erreicht werden konnte. Die Bezeichnung Digital Rights Management ist irreführend, da es hierbei keineswegs um irgendeine Art von Verwaltung geht.

Eine Vorreiterrolle bei der Entwicklungsarbeit kommt auf diesem Gebiet sicherlich - aufgrund der immanenten Bedrohung durch das MP3-Format - der Musikindustrie zu. Im Filmbereich kam es zu ähnlichen Entwicklungen bezüglich der DVD (Digital Versatile Disc), bei Text hat sich das PDF (Portable Dokument Format) -Format durchgesetzt.

Allen Systemen ist gemein, dass Kryptografie bei der Verhinderung ungewollter Nutzung von Werken eine entscheidende Rolle spielt. Die eigentliche Kontrolle der Werke beruht auf ihrem kryptografischen Verschluss, der ausschließlich unter den Bedingungen geöffnet wird, die die Rechteinhaber definiert haben.

6. Kryptografie und Digitale Signaturen
Will man im Internet die Vertraulichkeit einer Nachricht bewahren, so kann man von Verschlüsselungstechniken Gebrauch machen. Wendet der Empfänger der Nachricht dasselbe Verschlüsselungsverfahren sowie denselben Schlüssel an wie der Sender, kann er so die empfangene Nachricht wieder entschlüsseln.

Konventionelle oder symmetrische Kryptosysteme funktionieren auf diese Art und Weise. In offenen Systemen wie dem Internet ist der Einsatz derartiger Verfahren jedoch nur bedingt sinnvoll: Der geheime Schlüssel muss ja nach wie vor vom Sender an den Empfänger geschickt werden, was das Vertraulichkeitsproblem nicht behebt, sondern lediglich auf den Transport des Schlüssels verlagert .

Bei den so genannten asymmetrischen Kryprosystemen besitzt jeder Teilnehmer zwei komplementäre Schlüssel, einen öffentlichen und einen geheimen. Jeder dieser beiden Schlüssel kann das Chiffrat entschlüsseln, das mit dem anderen Schlüssel hergestellt wurde. Die beiden Schlüssel stehen in keinerlei Beziehung zu einander, insbesondere können sie nicht aus einander abgeleitet werden. Daher kann der öffentliche Schlüssel ohne Probleme über öffentliche Netze wie das Internet verteilt und publiziert werden. Der Sender einer Nachricht kann diese mit dem öffentlichen Schlüssel des Empfängers kodieren, und nur dieser Empfänger kann die Nachricht mit seinem geheimen Schlüssel wieder entschlüsseln und lesen. Nicht einmal der Sender selbst ist in der Lage, das von ihm erstellte Chiffrat nach der Verschlüsselung wieder zu entschlüsseln.

Kryptografieanwendungen sind meist so genannte Hybridsysteme, die die hohe Verschlüsselungsleistung von symmetrischen Kryptosystemen mit den Vorteilen der asymmetrischen Systeme, was die Handhabung der Schlüssel betrifft, verbinden.
Mit einem asymmetrischen Kryprosystem ist es auch möglich, die Authentizität einer Nachricht zu überprüfen. Der Sender verschlüsselt den Inhalt seiner Nachricht mit seinem geheimen Schlüssel und erzeugt somit eine Digitale Signatur. Der Empfänger kann mit Hilfe des Öffentlichen Schlüssels des Senders überprüfen, ob der Sender der wirkliche Urheber dieser Nachricht ist. Verwendet man den so genannten RSA-Algorithmus , kann man die Techniken der Digitalen Signatur mit denen der Verschlüsselung kombinieren, indem man die Nachricht als Sender zunächst mit dem eigenen privaten Schlüssel signiert. Dann verschlüsselt man sie mit dem öffentlichen Schlüssel des Empfängers, während der Empfänger nach Erhalt der Nachricht die umgekehrten Schritte anwendet.

7. Digitale Wasserzeichen
Neben der Zugangskontrolle durch Verschlüsselung der Inhalte und Authentifikation durch digitale Signaturen stellen digitale Wasserzeichen einen dritten digitalen kryptografischen Schutzmechanismus dar.

Zwar kann mittels Digitaler Wasserzeichen das unlizensierte Kopieren und Verteilen von Daten nicht verhindert werden, das Verfahren kann jedoch zum technischen Nachweis eines Missbrauchs vom Inhaber des Urheberrechtes eingesetzt werden.
Die Steganographie als Zweig der Kryptografie beschäftigt sich mit dem Verstecken von Informationen in Bildern oder Klängen. Copyright-Informationen mit Wasserzeichen sollen auf eine Art und Weise in die Inhaltsdaten des Werkes selbst eingefügt werden, dass sie nicht entfernt werden können, ohne das Werk selbst zu zerstören. In diesem Sinne gehen viele Wasserzeichensysteme dazu über, das Anbringen des Wasserzeichens direkt in die Hardware zu integrieren.
Selbst wenn es einem Kopierwilligen gelingt, die gesicherte Datei zu entschlüsseln und sie aus dem Rechtekontrollsystem zu entnehmen, bleibt die Copyright-Information im versteckten digitalen Wasserzeichen dennoch in den Kopien enthalten. So kann später der technischer Nachweis einer nicht erlaubten Kopie erbracht werden.

Es existieren im Internet bereits spezielle Suchmaschinen, die das Netz nach mit Wasserzeichen markierten Dateien durchsuchen können. Beispielsweise bietet die Firma Digimarc ihre WasserzeichenTechnologie unter dem Motto "Connect and Protect Your Content" an und stellt mit der Digimarc MarcSpider image tracking Technologie eine Suchmaschine zur Verfügung, die entsprechend markierte Dateien im Internet auszuspüren versucht.

Eine Unterkategorie der Digitalen Wasserzeichen sind die Fingerabdrücke. Hier wird, wenn ein Kunde eine Datei erwirbt, seine persönliche Kennung in die Datei geschrieben. Bei unauthorisiertem Gebrauch lässt sich anhand des Fingerabdrucks leicht feststellen, wer die Datei in Umlauf gebracht hat. Aus datenschutzrechtlichen Gründen sind die Fingerabdrücke verschlüsselt und können nur vom Rechteinhaber wieder ausgelesen werden. Weiters ist durch Vergleich der Dateien vor und nach dem Transfer jede Veränderung leicht festzustellen.

Man unterscheidet sichtbare beziehungsweise hörbare Wasserzeichen und unsichtbare Wasserzeichen. Sichtbare Wasserzeichen werden dort verwendet, wo es darum geht, vor unautorisierter Weiterverbreitung abzuschrecken. Bei fast allen Fernsehsendern wird zum Beispiel ein Senderlogo in einer Ecke des Filmes eingeblendet. Bei Radiosendern wird mitunter der Sendername am Beginn oder beim Refrain von Liedern eingesungen, was auch ein sichtbares Wasserzeichen darstellt. In anderen Fällen wird jedoch der rechtmäßige Besitzer nicht daran interessiert sein, ein durch ein sichtbares beziehungsweise hörbares Wasserzeichen verfremdetes Werk zu erhalten. Folglich werden digitale Wasserzeichen im Rauschanteil von Bild- oder Klangdateien angebracht, wo sie für den Besitzer nicht erkennbar sind. Die Markierung wird heute bevorzugt in den detailreichsten Bereichen eines Bildes angebracht und ist - im Gegensatz zu früheren Technologien - praktisch unsichtbar.

Eine weitere Unterscheidung bei digitalen Wasserzeichen ist jene zwischen robusten und zerbrechlichen Wasserzeichen. Sie unterscheiden sich dadurch, dass robuste Wasserzeichen einen Bearbeitungsvorgang des Werkes üblicherweise überstehen, zerbrechliche Wasserzeichen nicht. Damit die versteckte Information auch dann noch enthalten bleibt, wenn nur ein Ausschnitt eines Bildes oder eine Sequenz einer Audio- oder Videodatei entnommen wird, wird das Wasserzeichen in vielen Kopien über die gesamte Information verteilt. Das versteckte Wasserzeichen soll weiters selbst Bearbeitungsvorgänge und sogar einen analogen Audruck auf Papier oder eine Kopie auf Kassette überstehen, damit sich entsprechend ausgerüstete Fotokopierer oder Kassettenrekorder weigern, diese Information zu kopieren.

Auch bei digitalen Wasserzeichen ist ein einheitlicher Standard derzeit noch nicht in Sicht. Was die Videokomprimierung betrifft, so sind freilich in den neuen Generationen der MPEG-Familie von vornherein Rechtekontrollmechanismen enthalten. Was den Grafikbereich betrifft, so soll mit einer Weiterentwicklung des JPEG-Formates auch dieses neue Format die Möglichkeit zur Implementierung digitaler Wasserzeichen besitzen.

Der Informatiker Fabien Patitcolas hat bisher die Verwundbarkeit von jeder vorgestellten Wasserzeichentechnologie aufgezeigt. Paticolas entwickelte ein Werkzeug namens StirMark, das in seiner einfachsten Version einfach den Audruck und das erneute Scannen eines Dokumentes simuliert. Dabei wird das Bild geringfügig verzerrt und verdreht, wobei sich diese Veränderungen unterhalb der Wahrnehmungsschwelle bewegen. Nahezu alle Experten haben inzwischen zugegeben, dass bisher keines der vorgestellten Systeme sicher ist. In einem Aufsatz zum Wasserzeichen-Verfahren SDMI kommt Professor Felten von der Universität Princeton zum Schluss : "Ultimately, if it is possible for a consumer to hear or see protected content, then it will be technically possible for the consumer to copy that content."

8. Trusted Systems
Ich werde die Idee von "Trusted Sytems" oder Digital Rights Management-Systemen, wie sie wohl besser genannt werden sollten, anhand eines Modelles von Mark Stefik erläutern. Stefiks Modell der Trusted Systems ziehe ich deswegen heran, weil es eines der wenigen ist, das ein Gesamtsystem bildet und in sich schlüssig ist . Mark Stefik ist Leiter der Secure Documents Systems-Gruppe am Xerox Palo Alto Research Center.

Trusted Systems sind Infrastrukturen, in denen digitale Information sicher zum Verkauf angeboten werden kann. Im Gegensatz zu den derzeitigen Computern, die versuchen, Allzweckmaschinen zu sein, sollen Trusted Systems nur den Urheberschutz gewährleisten. Stefik schlägt vor, eine ganze Hierarchie von solchen Mechanismen aufzubauen, um wirklich jede Art von Information in ihrer Verwendung durch den Abnehmer völlig kontrollieren zu können. Alle digitalen Werke sollen eine Liste mit erlaubten und verbotenen Nutzungsmöglichkeiten gespeichert haben, um jede unerlaubte Nutzung zu unterbinden.

Der Begriff "Trusted Systems" bedeutet nicht, dass ein Vertrauensverhältnis zwischen der Rechteindustrie und den Kosumenten aufgebaut werden soll. Vertrauen sollen diese Systeme lediglich bei den Informationsanbietern schaffen. Auch der Begriff der Digital Rights Management-Systeme ist eigentlich ungenügend, da diese Infrastrukturen - wie bereits erwähnt - nichts mit Verwaltung zu tun haben. Eine möglichst wenig euphemistische und wirklichkeitsnahe Begriffsbestimmung führt zu dem Begriff Right Control Systems oder Rechtekontrollsysteme , der auch in dieser Arbeit als deutscher Begriff benutzt wird.

Bei Trusted Systems denkt Stefik nicht nur an Computer, sondern auch an Unterhaltungsgeräte wie Fernsehgeräte oder Videorekorder sowie Spielkonsolen. Ein verschweißtes Gehäuse, das das Eindringen in ein Trusted System verhindert, stellt laut Stefik die niedrigste Sicherheitsstufe dar. Ein Rechtekontrollsytem auf höchster Sicherheitsstufe würde bei einem Fehlverhalten von Seiten des Benutzers einen Alarm auslösen sowie sich selbst zerstören. Stefik sieht in seinem Modell eine eigene Definitionssprache für Nutzungsrechte vor, die Copyright Markup Language, ähnlich der Hypertext Markup Language (HTML) für Hypertext.

Den Schlüssel zur Kontrolle sieht auch Stefik in der Kryptografie. Diese und Zertifizierung würden die Daten eines Trusted System vor unerwünschten Zugriffen beim Transport im Internet schützen. Zur generellen Legitimation von Rechtekontrollsystemen argumentiert er, dass es auch im Interesse der Konsumenten läge, Systeme zu schaffen, in denen keine Urheberverletzungen mehr möglich seien: Solange es solche Trusted Systems nämlich nicht gäbe, würde die Medienindustrie auch keine hochwertigen Informationen im Internet anbieten.

Stefik ist bewusst, dass man das analoge Kopieren von digitalen Werken nicht wird verhindern können. Sobald man das Abspielen einer Video- oder Audiodatei zulässt, kann diese analog kopiert werden. Da die Qualität einer solche analogen Kopie jedoch immer deutlich unter jener des Originals liegt, ist diese Kopiermöglichkeit laut Stefik zu verschmerzen. Das wirkliche digitale Kopieren eines Werkes will Stefik technisch verhindern. Der derzeitige "Kopierbedarf", wie er zum Beispiel im Rahmen von Bibliotheken besteht, soll durch ein "Transferrecht" gestillt werden. Ein solches Recht würde das Ausleihen von Werken gestatten, allerdings würde die Zahl der im Umlauf befindlichen Kopien eines Werkes immer gleich bleiben. Das Ausleihen eines Werkes hätte zur Folge, dass das Werk beim Verleiher zwar immer noch vorhanden wäre, dieser aber während der Entlehnfrist nicht darauf zugreifen könnte. Der Entleiher wiederum könnte zwar während der Entlehnfrist auf das Werk zugreifen, danach würde es aber automatisch gelöscht.

Einen großen Vorteil seines Systems sieht Stefik darin , dass jeder Konsument die Weiterverbreitung des Werkes unterstützen könnte. Bei Interesse an einer digitalen Kopie könnte ein mit entsprechenden Rechten versehenes Werk die Abbuchung der Kopiergebühr beim Konsumenten veranlassen, ohne dass der Rechteinhaber selbst Werbung für das Produkt machen musste. Wenn es darum geht, alle an der Entstehung eines Werkes beteiligten Gruppen entsprechend zu entschädigen, schlägt Stefik ein System von ineinander geschachtelten Nutzungsrechten vor. Jeder Beteiligte an der Wertschöpfungskette kapselt sein Werk in eine digitale Hülle, durch die er auch den Preis für seine Leistungen festsetzt. Der Kunde muss nun, Hülle für Hülle, die Kapseln durch Entrichten der jeweiligen Gebühren entfernen, bis er das Werk nutzen kann.

Eine eigene Art von Nutzungsrechten neben der bloßen Wiedergabe und der Vervielfältigung stellt die Erstellung von abgeleiteten Werken dar. Jemand, der zum Beispiel ein Skriptum zu Unterrichtszwecken zusammenstellen will, kann hier von einem Extraktionsrecht Gebrauch machen und das Original mit Kommentaren versehen. All das funktioniert selbstverständlich nur, wenn die Nutzungsbedingungen des Originals dies zulassen. Das fertige Skriptum kann nun wiederum mit einer Kapsel umgeben werden, in der der Zusammenstellende seine Nutzungsbedingungen festlegt. Laut Stefik würde ein derartiges Rechtekontrollsystem die kommerzielle Wiederverwertung von Werken stark fördern. Bisher wurde die Erlaubnis zur kostenlosen Erstellung von derartigen Kompilationen im Sinne einer Fair Use-Doktrin unterstellt.

Stefik hat sich auch ein ergänzendes Modell ausgedacht, mit dem gewährleistet werden kann, dass nur bestimmte Personengruppen Werke vertreiben oder empfangen können. So genannte digitale Lizenzen zertifizieren die Informationsnutzer und erlauben ihnen, bestimmte von den einzelnen Werken vorgesehene Nutzungen vorzunehmen oder auch nicht. Genauso sollen die Vertreiber von digitalen Werken registriert werden, um ihre Distributionsfähigkeit kontrollieren zu können. Die für dieses Kontrollsystem erforderliche Zentrale wird als von Stefik als Digital Property Trust bezeichnet. Wie werden nun Rechtekontrollsystem oder Trusted Systemfähige Geräte unter die Leute kommen? Sobald eine Infrastruktur von DRM-Geräten unter den Kunden vorhanden ist, werden neue Medien nur noch mit DRM-Schutz versehen zum Kauf angeboten werden. Nutzer, die auf diese neue Information nicht verzichten wollen, werden gezwungen sein, sich ein neues, DRM-unterstützendes Gerät umzusteigen. Besonders geeignet für die baldige flächendeckende Einführung von Rechtekontrollsystemen hält Stefik Bereiche, wo neue Technologiegenerationen eingeführt werden. Weiters erscheinen ihm geschlossene Plattformen, die um keine Kompatibilität zu anderen Systemen bemüht sein müssen, wie beispielsweise Video-Game-Konsolen, für die Implementierung von Trusted Systems geeignet.

9. Rechteschutz bei DVD : CSS
1996 wurde die DVD zunächst auf dem japanischen Markt eingeführt. Anfangs war nur geplant, auf DVDs die großen Datenmengen von Videofilmen zu speichern, daher stand DVD ursprünglich für Digital Video Disc. Bald zeigte sich, dass DVDs auch für Computersoftware und Musik verwendet werden, daher steht DVD nunmehr für Digital Versatile Disc. Das Content Scrambling System (CSS) wurde zum Schutz von DVD-Videodaten hauptsächlich von den Firmen Matsushita und Toshiba entwickelt. Das Verfahren wird von der DVD Copy Control Association, einem gemeinnützigen Unternehmen der Filmindustrie, lizensiert.

CSS hat seine Grundlage in einem einmaligen Master-Schlüssel. Dieser Master-Schlüssel ist auf jeder DVD enthalten und wiederum mit einem Zugangsschlüssel verschlüsselt. Die Hersteller von DVD-Playern erhalten nun, sofern sie CSS lizensiert haben, Zugangsschlüssel aus einem Repertorire von etwa 400 Stück. Jede DVD enthält 400 Kopien des Master-Schlüssels, die mit den verschiedenen Zugangsschlüsseln kryptiert sind. Der DVD-Player versucht mit Hilfe seines CSS-Moduls, die DVD mit seinem Schlüssel zu öffnen. Gelingt dies, kann die Entschlüsselung der Videodaten beginnen. Eine einmal erteilte Gerätelizenz kann widerrufen werden, indem der mit ihr verknüpfte Schlüssel bei allen neu produzierten DVDs nicht mehr mitgespeichert wird. CSS verhindert also nicht das Kopieren von DVDs, sondern lediglich das Abspielen auf Playern, die keine Lizenz an CSS erworben haben.

Selbst wenn man über einen authorisierten DVD-Player verfügt, kann das Abspielen einer DVD daran scheitern, dass man die falsche DVD in der falschen Verwertungszone abspielen will. Eine so genannte Regional Playback Control (RPC) wurde nämlich aufgrund der verschiedenen Verwertungsmechanismen von Kinofilmen in CSS integriert. Die großen Hollywood-Studios bringen Filme - angeblich, da es bei den derzeitigen Kopiermechanismen nicht möglich ist, alle Länder der Welt gleichzeitig mit Filmrollen zu beliefern - zeitversetzt in verschiedenen Staaten der Erde heraus.

RPC verhindert es, dass eine DVD in einer anderen als der einen Länderregion abgespielt werden kann, für die sie freigegeben ist. Insgesamt wurde die Welt in acht derartige Verwertungszonen aufgeteilt. Da die Technologie von CSS in derartig vielen Geräten und DVDs enthalten ist und die Stärke der Verschlüsselung sehr gering, tauchten bald Programme im Internet auf, die eine unkodierte Speicherung der DVD-Inhalte sowie eine Umgehung der Regionalsperre zuließ. Im Oktober 1999 verbreitete sich schließlich das Programm DeCSS im Internet, das innerhalb weniger Sekunden die 400 DVD-Zugangsschlüssel durchrät. Bei DeCSS handelt es sich nicht um Software zur Herstellung von nicht autorisierten Kopien, da ja CSS wie schon erwähnt kein Kopierschutzsystem ist. Ungeachtet dessen prasselte eine wahre Klageflut der Filmindustrie über die Anbieter von Websites, auf denen DeCSS vertrieben wurde, herein. Die ganze DeCSS-Thematik löste eine Welle der Empörung aus.

CSS stellt insgesamt ein gutes Beispiel dafür dar, wie verschiedene Systeme ineinandergreifen, wenn es um den Schutz der Interessen der Rechteindustrie geht. Der Inhalt einer DVD ist ohnehin durch Urheberrechte und zusätzlich technisch durch CSS gesichert. Die CSS-Technologie selbst ist durch Geschäftsgeheimnis sowie Patentrechte geschützt, wobei die Lizenznehmer durch entsprechende Verträge in ihrem Verhalten stark eingeschränkt werden. Und schließlich ist in neuen Urheber- und Copyrightgesetzen unter dem Titel des Umgehungsverbotes für technsiche Schutzmaßnahmen generell die Herstellung, der Besitz sowie die Verbreitung von DeCSS und ähnlichen Technologie verboten. Eine fünffache Absicherung also, deren Kosten beim Kauf einer jeden DVD auf die Konsumenten übergewälzt werden.

10. Rechteschutz bei Text : PDF
Die Firma Adobe brachte 1993 das PDF-Format heraus, das ein heute weit verbreitetes Format darstellt, um gestaltete Textdokumente zu publizieren. Von vornherein ist es im PDF-Format bereits möglich, einzelne Bearbeitungsmöglichkeiten der Dokumente zu verhindern: Das Öffnen der Datei kann durch Passwort geschützt werden, die Druck-, Bearbeitungs- oder Kopierfunktion können deaktiviert werden. Neben Adobe selbst gab und gibt es jedoch noch andere Firmen wie SoftLock und GlassBook, die zusätzliche Rechtekontrollsysteme für PDF-Dateien anbieten.

Das System vom SoftLock funktioniert so, dass die Verleger von PDF-Inhalten ihren Content auf den Server von SoftLock stellen und auf ihrer eigenen Verkaufsseite einen entsprechenden Link platzieren. Der Kunde merkt somit nicht einmal, dass er die Webseite seines Händlers verlässt, andererseits kann der Händler vollständig kontrollieren, wie und wo sein Content verwendet werden kann. Es installiert sich nämlich ein Client in das PlugIn-Verzeichnis des Acrobat-Reader und - zur Kontrolle des Download - in das Verzeichnis des Webbrowsers. Während des Herunterladens wird nun die PDF-Datei entschlüsselt und an die vorhandene Version des Acrobat Reader gekoppelt, so dass sie von nun an nur noch an diesem Computer geöffnet werden kann. GlassBook bietet ganz ähnliche Dienstleistungen an, wobei hier ein eigener Reader verwendet wird und die Verschlüsselung sowie die Verteilung der Nutzungsrechte vom Händler selbst vorgenommen wird. Einen großen Rückschlag erlebten die E-Book Händler und Distributoren gleich bei ihrem ersten großen Marketing-Projekt, nämlich der Verbreitung einer Kurzgeschichte von Stephen King. Im März 2000 wurde "Riding the Bullet" exklusiv im Netz zur Verfügung gestellt, am ersten Tag oft kostenlos, danach kostenpflichtig. Schon zwei Tage nach der Publikation verbreiteten sich Screenshots vom Text in Newsgroups, einen Tag später lag bereits eine gecrackte PDF-Version vor.

11. Die Geschichte freier Software
Am Ende eines Kartellprozesses zwischen dem amerikanischen Department of Justice und AT&T wurde AT&T 1956 verpflichtet, seine Patente gegen nominelle Gebühren an seine Konkurrenten zu lizenzieren. Am Beginn der Computerisierung war Software nur ein Nebenprodukt, das die meisten Kunden selbst entwickelten. Erst mit dem Aufkommen der Timesharing-Systeme wurde die Software zunehmend bedeutend. Die Entwicklung von Speichermedien wie Festplatten und Magnetbändern führte dazu, dass Programme gespeichert, transportiert und weiterbearbeitet beziehungsweise kopiert werden konnten.

1969 entwickelten Ken Thompson und Dennis Ritchie von AT&T die erste Version von Unix. Unix ist ein Betriebssystem, das geschrieben wurde, um die Programmierung von großen Rechenanlagen zu erleichtern und zu standardisieren. Es ist bis heute, natürlich in stark veränderter Form - aber mit einer im Grunde ähnlichen Architektur - der Standard auf Großrechnern. AT&T lizenzierte Unix sofort an Universitäten und kommerzielle Nutzer, um einen möglichen Verstoß gegen den Vergleich des Kartellprozesses auszuschließen. An den Universitäten begann, gefördert durch das völlige Fehlen von jeglichem Support von Seiten der Erzeuger von Unix, eine rege Entwicklungstätigkeit. Nur durch den AT&T auferlegten Zwang, seine Patente an interessierte Parteien zu lizensieren, konnten Derivate von Unix überhaupt entstehen und konnte Unix sich als Standardplattform etablieren. Trotzdem waren die existierenden Varianten von Unix noch durch Schutzrechte in ihrer Verwendung eingeschränkt.
Richard Stallman, Forscher in der Abteilung für Künstliche Intelligenz des renommierten Massachusetts Institute of Technology (MIT), rief 1983 zur "Befreiung von Unix" auf. Als er 1971 am MIT angefangen hatte, wurde dort ausschließlich freie Software eingesetzt, die man für jegliche Zwecke einsetzen, verändern und weitergeben konnte. Stallmans Projekt trug den Namen GNU, eine rekursive Abkürzung für "GNU ist nicht Unix". Nach und nach kamen die einzelnen Bestandteile des freien Betriebssystems zusammen. Bald gründete Stallman die "Free Software Foundation", die freie Programme betreut, rechtlichen Beistand erteilt und Medien informiert.

Bis heute fehlt dem GNU-Projekt jedoch der sogenannte Kernel, der die Systemhardware Programmen zugänglich macht. Es wird zwar seit Anfang der 90er Jahre versucht, einen eigenen Kernel namens "Hurd" zu vervollständigen, für diesen bestand jedoch selbst zu Beginn seiner Entwicklung kaum Hoffnung, in absehbarer Zeit fertig zu werden. Daher gab es hier ein Manko im GNU-Projekt, dass Linux eine Möglichkeit zur Profilierung gab. Eine Mitteilung in der Newsgroup "comp.os.minix" startete mehr oder weniger offiziell am 25. August 1991 dieses Projekt Linux. Der Finne Linus Torvalds postete eine Nachricht mit der Zusammenfassung "kleine Umfrage für mein neues Betriebssystem", in der er um Vorschläge für sinnvolle Produkteigenschaften seines freien Betriebssystems bat. Als Entwickler das Potential von Linus Torvalds Betriebssystem erkannten, liefen sie in Heerscharen zu Linux über und bereicherten den Kernel um Treiber, Dateisysteme und weitere grundlegende Funktionen. All diese Entwicklungsarbeit wäre jedoch nicht möglich und auch nicht sinnvoll gewesen, hätte es nicht bereits eine riesige Toolsammlung von GNU gegeben. Dies wurde, als Torvalds und Linux immer mehr Beachtung fanden, nicht genug erkannt und verärgerte Stallman. Daher besteht dieser darauf, dass man statt von Linux von GNU/Linux sprechen sollte, eine Diktion, die sich aber bislang nicht durchsetzen konnte. Alle Software-Programme des GNU-Projektes stehen unter der "GNU General Public License", die im Wesentlichen jede beliebige Verwendung des Programms erlaubt. Verboten ist es jedoch, das Programm oder Derivate davon in Umlauf zu bringen, ohne wiederum den Quellcode unter den Bedingungen der GPL freizugeben.

12. Die Vorteile von freier Software
Den Programmcode eines Microsoft-Softwareprodukts bekommen nur eine kleine Schar von Firmenangestellten und Auserwählten zu Gesicht. Dass die Wahrscheinlichkeit des Findens von Fehlern in einem Programm jedoch mit der Zahl der Fehler-Suchenden proportional steigt, bedarf wohl keiner näheren Ausführung. Man muss auch keine Programmierausbildung absolviert haben, um mit freier Software umgehen zu können. Das Ändern von Tastaturbelegungen in einem Programm erfordert beispielsweise lediglich ein grobes Verständnis der Struktur des Programms, das Kompilieren ist dank der GNU-Tools im Normalfall mit drei bis vier Befehlen erledigt.

Die Abwärtskompatibilität bei Microsoft-Produkten ist aber nur deshalb so entscheidend, weil es keine Möglichkeit gibt, ein älteres Programm anzupassen. Der Quellcode liegt nicht vor, daher kann das Programm selbst dann nicht angepasst werden, wenn es nur wegen einer falschen Zeile Code nicht funktioniert. Innerhalb der Open-Source-Gemeinde gilt es schon fast als selbstverständlich, dass eine neue Programmversion besser sein muss als die vorige.
Open-Source-Software könnte auch in der Verwaltung eine echte Revolution auslösen. Beamte können auf einen über das Internet organisierten Fundus von Lösungen zurückgreifen, die an spezielle Bedürfnisse angepasst werden könnten. In Argentinien wird beispielsweise derzeit ein Gesetz diskutiert , dass die ausschließliche Verwendung freier Software in der öffentlichen Verwaltung vorsieht.

13. Microsofts Kampf gegen freie Software
Microsoft bündelt viele Programme mit seinem Betriebssystem, um sich seine Vorreiterrolle in vielen Software-Bereichen zu sichern. Die Verbündelung von Windows 98 mit dem Internet Explorer als Webbrowser sorgte für großes Aufsehen und gilt als Hauptgrund für den massiven Verlust von Marktanteilen des ehemaligen Marktführers Netscape. Microsoft will jedoch den Browser-Markt nicht nur wegen dieses Geschäftsbereiches selbst dominieren, sondern auch aus strategischen Überlegungen. Wenn fast alle Internet-User den Internet Explorer als Webbrowser verwenden, kann dieser benutzt werden, um kommerziell relevante Standards zu etablieren. Für diese neuen Standards können dann von Medienanbietern entsprechende Lizenzgebühren verlangt werden. Dateiformate wie Windows Media (WMA) ließen sich an Medienanbieter lizenzieren, die Kopierschutzmechanismen benötigen.

Wenn es möglich wäre, einen einheitlichen Zahlungsstandard zu etablieren, wäre es möglich, Software nicht mehr als fertiges Paket zu verkaufen, sondern die notwendigen Informationen nur noch über das Internet zu übertragen. Dies wäre der perfekte Schutz vor illegalen Kopien, würde jedoch zugleich einen immensen Rückschritt in der Computerentwicklung bedeuten. Die so genannten OEM-Verträge sind von entscheidender Bedeutung im Kampf von Microsoft gegen freie Software, insbesondere gegen Linux. Die wenigsten Benutzer basteln sich ihre PCs von Grund auf selbst zusammen, für viele ist die Vorinstallation von Betriebssystem und Standardsoftware durch Hersteller und Händler unerlässlich. Betrachtet man nun die technischen Möglichkeiten, also zum Beispiel die Kapazitäten der heute üblichen Festplatten, so wäre es absolut kein Problem, sämtliche PCs auch mit einer Vorinstallation eines freien Betriebssystems auszustatten. Bei einer freien Linux-Distribution wäre auch eine Unmenge an freier Software beinhaltet, daher müsste doch derjenige Händler, der seine PCs auch mit Linux ausstattet, einen großen Wettbewerbsvorteil haben.

Tatsache ist jedoch, dass der PC-Markt in relativ fester Hand einiger weniger Hersteller ist. Jeder dieser Hersteller hat einen so genannten "Tier One - Original Equipment Manufacturer"-Vertrag mit Microsoft. Diese streng geheimen Verträge gewähren den Herstellern erhebliche Preisnachlässe, verlangen jedoch im Gegenzug, dass die Händler alles tun, um Microsoft bei seinem Kampf gegen jegliche Konkurrenz zu unterstützen. Sei es das Verbot einer Installation anderer Betriebssysteme oder der Zwang, das Internet-Explorer Icon auf den Desktops der ausgelieferten PCs wiederherzustellen , die OEM-Verträge gewähren Microsoft die Möglichkeiten, von ihren Abnehmern Schützenhilfe im Kampf gegen freie Software zu verlangen. Diese Abnehmer gehorchen dem Diktat von Microsoft, da ihnen die OEM-Verträge trotz kontinuierlicher Preiserhöhungen noch immer massive Preisvorteile gewähren. Der Verlust eines OEM-Vertrages würde für einen Händler eine massive Verteuerung der Herstellungskosten eines PC bedeuten und macht somit von vornherein die Implementierung freier Software unprofitabel.

14. Gefahren für freie Software
Es sind Microsofts monopolistische Praktiken, die die Verbreitung von Open-Source-Software in erheblichem Maße behindern: Ohne OEM-Verträge würden viele PCs bei ihrer Auslieferung bereits über ein startbares Linux-Betriebssystem verfügen, das sich auf Wunsch auch selbständig auf die neueste Version aktualisieren könnte.

Bei Projekten zur Einführung von Standards im Bereich freier Software sind nur sehr wenige Freiwillige beteiligt. Dieses Phänomen kann dadurch erklärt werden, dass es Open-Source-Beteiligten in erster Linie darum geht, eigene Probleme zu lösen. Geht es um langfristig essentielle, aber individuell eher uninteressante Projekte wie einheitliche Standards für die Zukunft, sind die Wenigsten an einer Mitarbeit interessiert. Ein weiteres Problem der Open-Source-Bewegung besteht darin, dass die Gemeinde in vielen Bereichen noch immer die gleichen Werkzeuge verwendet wie zu Beginn der Linux-Zeit vor zehn Jahren. Newsgroups und Mailing-Listen dienen immer noch der Koordination von Projekten, obwohl sie schon wegen des zur Beteiligung notwendigen Zeitaufwands nur einer Minderheit zugänglich sind.

Ein wesentliches Hindernis für die Entwicklung freier Software ist die Möglichkeit, Software patentieren zu lassen. In den USA und auch in Europa herrscht zur Zeit ein regelrechter Patentwahn, der der Open Source Bewegung stark schadet. Man kann ein Programm, das ein Patent verletzt, einfach nicht freigeben, daher macht eine Software-Patentierungswelle die Open-Source-Entwicklung in vielen Bereichen schlicht unmöglich. Nicht umsonst hieß es im "Halloween-Dokument 2" : "The effect of patents and copyright in combatting Linux remains to be investigated." Derzeit sieht es so aus, als würde der Patentkrieg von den Befürwortern der Open-Source-Software verloren werden, obwohl ein juristisches Lösungsmodell auf der Hand läge: Wenn man Software-Patente als notwendigen Innovationsschutz ansieht, muss man eigentlich auch einsehen, dass dieser Schutz nicht notwendig ist, wenn innerhalb der Open-Source-Kultur das gleiche Maß an Innovation vorherrscht. Konsequent weitergedacht müsste Software mit offenem Quellcode prinzipiell von allen Lizenzgebühren freigestellt werden.

15. Zusammenfassung und Ausblick
Die Computerisierung und das Internet haben dazu geführt, dass Information durch Mausklicks fast kostenlos kopiert werden kann. Aus der Sicht derer, die die Verbreitung von Information kontrollieren wollen, liegt nun der Gedanke nahe, dass alles wieder so werden muss, wie es früher war: Digitale Werke müssen dazu gebracht werden, sich wie materielle zu verhalten.

Aus dieser Überlegung heraus versucht die Medienindustrie, Rechtekontrollinfrastrukturen zu etablieren, sie stößt jedoch dabei auf heftigen Widerstand von Seiten der Konsumenten und - was für sie schlimmer ist - droht die Nutzung des Vertriebsmediums Internet ganz zu verlieren. Ich habe versucht, die Geschichte des MP3-Formates so darzustellen, dass viele Parallelen aufgezeigt werden, die sowohl dem Kampfschauplatz "Medienindustrie gegen kopierwillige Konsumenten" als auch "Rechtekontrollinfrastrukturen gegen freie Software" und "proprietäre gegen offene Formate" gemein sind. An dieser Stelle will ich nochmals einige exemplarische Punkte als abschließende Gedankenanregung wiederholen:
  • Rechtekontrollinfrastrukturen in jedweder Form degradieren den Computer zu einem bloßen Empfangsgerät und verhindern einen wirklichen Informationsaustausch.
  • Das MP3-Format, derzeit sicherlich der größte Feind der Musikindustrie, konnte seinen Siegeszug im Internet nur deshalb antreten, weil die Referenzimplementation des Formates im Internet zur Verfügung gestellt wurde: eine Vorgehensweise, die sehr stark an freie Software erinnert.
  • Nachdem die Musikindustrie erfolglos versucht hatte, gegen das neue Compact Cassetten - Format juristisch vorzugehen, begann sie bald selbst, Musik in diesem Format auf den Markt zu bringen. Vor kurzem hat die Medienindustrie die erste völlig ungeschützte MP3-Datei im Internet zum Kauf angeboten. Ein Umdenken?
Das eigentliche Problem besteht darin, dass die Öffentlichkeit in diesem Kampf die schwächste Partei ist, die in Wirklichkeit lediglich durch diverse Bibliotheksverbände repräsentiert wird.

16. Bibliografie
Freismuth, Peer-to-Peer: Eintagsfliege oder Zukunftsmodell, Seminararbeit, Technische Universität Graz 2002
Grassmuck, Freie Software: Zwischen Privat- und Gemeineigentum, Bonn 2002
Lessig, Code and Other Laws of Cyberspace, 1999
Reimer, Sicherheit und Informationen im Internet, in Banse, Langenbach (Hrsg), Geistiges Eigentum und Copyright im multimedialen Zeitalter. Positionen, Probleme, Perspektiven, Bad Neuenahr-Ahrweiler 1999
Stefik, Letting Loose the Light: Igniting Commerce in Electronic Publication, in Stefik (Hrsg), Internet dreams: archetypes, myths and metaphors


[back to top]



Userdaten
User nicht eingeloggt

Gesamtranking
Werbung
Datenbankstand
Autoren:04511
Artikel:00815
Glossar:04116
News:13565
Userbeiträge:16552
Queueeinträge:06248
News Umfrage
Ihre Anforderungen an ein Online-Zeiterfassungs-Produkt?
Mobile Nutzung möglich (Ipone, Android)
Externe API Schnittstelle/Plugins dritter
Zeiterfassung meiner Mitarbeiter
Exportieren in CSV/XLS
Siehe Kommentar



[Results] | [Archiv] Votes: 1158
Comments: 0