0. Einführung
1. Grundsätzliches zur Internetethik
2. Internetaktivitäten, deren Verbot generell sinnvoll erscheint
3. Herwart Holland-Moritz: Eine Stimme aus Deutschland für grenzenlose Meinungsfreiheit


4. Die technischen Gegebenheiten und ihre ethische Problematik
4. 1. Die technische Grundlagen
4. 1. 1. Der Mythos der Dezentralität
4. 1. 2. Existierende Zensurversuche
4. 2. Technische Möglichkeiten der Manipulation des Internets
4. 2. 1. Manipulieren von Internetadressen
4. 2. 1. 1. Erschaffung neuer Domains
4. 2. 1. 2. Umleiten von Netzadressen
4. 2. 1. 3. Einfügen eigener Inhalte in fremde Webseiten
4. 2. 1. 4. Austausch einzelner Wörter
4. 2. 2. Manipulationen bleiben unbemerkt
4. 2. 3. Manipulation ist möglich
4. 3. Technische Möglichkeiten, Filter zu umgehen
4. 3. 1. Peer-to-Peer (P2P)-Netze
4. 3. 1. 1. Gnutella als dezentrales Peer-to-Peer-Netzwerk
4. 3. 2. Filterumgehung per P2P-Netzwerk
4. 3. 2. 1. Das Programm “Triangle Boy”
4. 3. 2. 2. Das Programm “Peekabooty”
4. 3. 3. Sperrungen können umgangen werden
4. 4. Ratingsysteme und kommerzielle Filterprogramme als Reaktion auf die Diskussion um staatliche Zensur in den USA
4. 4. 1. Die amerikanische Diskussion um staatliche Internetzensur
4. 4. 1. 1. Eugene Volokh: Zwangskennzeichnung und freiwilliger Filtereinsatz
4. 4. 1. 2. Abelson und Godwin: Freiwillige Filterung ohne jeden staatlichen     Zwang
4. 4. 2. Filterprogramme
4. 4. 2. 1. Funktionsweise von Filterprogramme
4. 4. 2. 2. Möglichkeit des Umgehen der Filter auf dem Nutzerrechner
4. 4. 2. 3. Grundsätzliche Probleme von Filtersoftware
4. 4. 2. 3. 1. “Positivlisten” sind praktisch unrauchbar
4. 4. 2. 3. 2. Filtern nach Schlüsselworten
4. 4. 2. 3. 2. 1. Problem: Ausfiltern “harmloser” Seiten
4. 4. 2. 3. 2. 2. Problem: Auswahl der Filterkriterien
4. 4. 2. 3. 2. 3. Mißbrauch der Filter durch den Hersteller
4. 4. 2. 3. 2. 3. Logisch notwendiges Blocken an sich harmloser Seiten
4. 4. 2. 3. 2. 4. Versteckte, nicht aufhebbare Sperranweisungen
4. 4. 2. 3. 3. Filter funktionieren nicht wie erforderlich
4. 4. 3. Der Bewertungsstandard für Webseiten PICS
4. 4. 4. Das PICS-System ICRA
4. 4. 4. 1. Das Kategoriensystem von ICRA
4. 4. 4. 2. Grundsätzliche Probleme von PICS im allgemeinen und ICRA im besonderen
4. 4. 4. 2. 1. Änderung der Struktur des Internets


5. Rechtliche Situation in Deutschland
6. Ethische Bewertung
7. Resümee
8. Literatur



4. Die technischen Gegebenheiten und ihre ethische Problematik


4. 1. Die technische Grundlagen


4. 1. 1. Der Mythos der Dezentralität


Außerhalb platter Forderungen technischer Laien (64)  wird im Zusammenhang mit Zensur im Internet gemeinhin darauf verwiesen, daß das Internet als dezentrales Netz schon von seiner technischen Struktur her Zensur nicht ermöglicht. Da es ohne Hierarchien auskommt, sind “staatliche Eingriffe [...] qua Prinzip zum Scheitern verurteilt.” (65)  Wie jedoch Espenschied und Freude dargelegt haben, bezieht sich diese Darstellung nur auf “den Weg, den Datenpakete üblicherweise durch das Netz nehmen.” (66)  Dabei nämlich werden die “Informationen [...] in einzelne Datenpakete zerlegt, die sich, versehen mit der richtigen Adresse, unabhängig auf den Weg machen und erst auf dem Zielrechner zusammengesetzt werden.” (67)  Um jedoch überhaupt an dem weltweiten Datenverkehr im Internet teilnehmen zu können, muß man sich an einem meist hierarchisch strukturierten Netzwerk einloggen, das selbst an der dezentralen Struktur des Internets beteiligt ist. Dieses Netzwerk stellen Internet-Zugangsvermittler (Internet Service Provider=ISP), wie etwa AOL, T-Online, freenet oder Tiscali, gegen Gebühr zu Verfügung. (68)  Diese Netzwerke sind Besitz und Kapital der jeweiligen Betreiberfirma. Nur über diese Infrastruktur kann der einzelne Nutzer auf die Inhalte des Internets zugreifen. Da er somit auf ein hierarchisches Netzwerk angewiesen ist, um auf das dann dezentral organisierte Internet zuzugreifen, ist es an diesem Übergangspunkt theoretisch möglich, den Zugriff auf das Internet zu kontrollieren und zu reglementieren. (69) 

4. 1. 2. Existierende Zensurversuche

Solche Zugangskontrollen werden heute auch schon tatsächlich durchgeführt. So ist z. B. in Saudi-Arabien der Internetzugang nur über einen staatlich kontrollierten Proxy-Server möglich. Internetseiten, die von einem Komitee als unmoralisch oder aus anderen Gründen ungeeignet bestimmt wurden, können (auch technisch) nicht abgerufen werden und der Nutzer wird darüber informiert, daß sein Zugriffsversuch registriert wurde. (70)  Möglich ist diese Sperrung, weil auf dem zwischen dem Nutzer und dem Internet geschalteten Proxy-Server (71)  die Inhalte des Netzes zwischengespeichert werden und durch technische Filter nur diejenigen Inhalte an den Nutzer weitervermittelt werden, die als geeignet angesehen werden.


4. 2. Technische Möglichkeiten der Manipulation des Internets


Espenschied und Freude demonstrierten in ihrem Projekt “insert-coin”, welche Möglichkeiten sich allein dadurch eröffnen, daß der gesamte Datenverkehr über einen manipulierten Proxy-Server läuft. (72)  Mit einer für dieses Experiment geschriebenen Software (73)  gelang es den beiden Programmierern, den gesamten Internetverkehr von ca. 200 Studenten zu kontrollieren und zu manipulieren. (74)  Neben der Protokollierung und Auswertung aller aufgerufenen Seiten war es mit dieser Software möglich, Domainnamen zu fälschen und den Inhalt beliebiger Webseiten für den Betrachter zu verändern.

4. 2. 1. Manipulieren von Internetadressen


4. 2. 1. 1. Erschaffung neuer Domains


Durch ihren manipulierten Proxy-Server konnten die beiden Autoren frei beliebige Internetdomains erfinden, die zwar nicht tatsächlich existierten, aber von den (unfreiwilligen) Nutzern ihres Proxys so angesteuert werden konnten, als ob sie tatsächlich existierten. Ein Unterschied zu “tatsächlich” existierenden Domains war nicht zu erkennen. Espenschied und Freude erfanden z. B. die amerikanische Regierungsdomain “interad.gov”, die angeblich für Werbeschaltungen im gesamten Netz zur Finanzierung des Internets verantwortlich war. Jeder Nutzer des Proxyservers konnte die Adresse “interad.gov” in seinem normalen Standardbrowser eingeben und die von den Autoren dafür vorgesehene Seite erschien und zeigte im URL-Fenster des Browsers auch “interad.gov” als Adresse, obwohl in Wahrheit eine Seite mit einer vollständig anderen Adresse aufgerufen wurde und die angegebene Adresse auch nicht existiert. Nach gleichem Muster erschufen die Autoren eine Webseite, die zwar auch nicht existiert, aber die Adresse eines bekannten Internetunternehmens nutzt. Sie erfanden die Adresse “netzgegenrechts.yahoo.de”. Die Adresse “yahoo.de” existiert, während die Subdomain “netzgegenrechts.yahoo.de” frei erfunden war. Die Nutzer des Proxy-Servers konnten sowohl die unveränderte Seite von “yahoo.de” als auch die frei erfundene Seite “netzgegenrechts.yahoo.de” in ihrem Browser aufrufen, ohne daß ein Unterschied zu erkennen war. (75) 




4. 2. 1. 2. Umleiten von Netzadressen

In einer späteren Phase des Experiments gingen die beiden Autoren dazu über, komplette Webadressen zu vertauschen. So erschien bei der Eingabe von “focus.de” regelmäßig die Webseite des Spiegels. Trotzdem zeigte der Browser als URL unbeirrt “focus.de” an. Auch alle Links wie etwa “spiegel.de/netzwelt/” zeigte der Browser als “focus.de/netzwelt/” an. (76) 




4. 2. 1. 3. Einfügen eigener Inhalte in fremde Webseiten

Durch die mißbräuchliche Nutzung von Kommentarzeilen (77)  fremder Homepages konnten Espenschied und Freude zusätzliche komplexe Inhalte einfügen, die von den Betrachtern für ursprünglich zu der Seite hinzugehörig gehalten wurden. So fügten sie bei den vier unter den Nutzern ihres Proxys beliebtesten Webmaildiensten (78)  über der In-Box (79)  einem Hinweis einer fiktiven Brieffreundschaftsorganisation auf, die einen potentiellen (ebenfalls fiktiven) Brieffreund mit Bild und Beschreibung vorstellte, der “'für Sie aufgrund Ihrer persönlichen Einstellungen und Ihres Surfverhaltens' ausgesucht wurde.” (80)  Dabei war der eingefügte Hinweises jeweils im Design des manipulierten Dienstes gehalten, so daß die Manipulationen trotz deutlicher Verstöße gegen die realen Geschäftsbedingungen der Freemaildienste nicht auffielen. (81) 

4. 2. 1. 4. Austausch einzelner Wörter

Weiterhin vertauschte der manipulierte Proxy einzelne Wörter und änderte dadurch den Sinn aller angezeigten Homepages zum Teil erheblich. So vertauschte die Software die “Wörter 'und', 'oder' und 'aber' [...] mit einer gewissen Wahrscheinlichkeit” (82) , änderte grundsätzlich “Gerhard Schröder” in “Helmut Kohl” (und umgekehrt), ersetzte “FDP” durch “RAF”, “SPD” durch “PDS” und fügte in jedem Dokument anstelle des Wortes “Kinder” die Marke “Kinder®” mit einem Link zu Ferrero (83)  ein. Dadurch, daß das Perl-Programm des Proxy-Servers nur einen geringen Teil des html-Codes gegen einen anderen austauschte (und somit die Elemente der Seite, die das Aussehen bestimmen, unberührt blieben), sah die manipulierte Seite exakt so aus wie eine “reale” Seite. Vom Design der Seite her war es nicht möglich, die Manipulationen zu erkennen. Auf diese Weise gelang es sogar, den Inhalt privater eMails zu verändern, wenn sie über einen Webmaildienst (also technisch als Webseite) betrachtet wurden. (84) 


4. 2. 2. Manipulationen bleiben unbemerkt


Obwohl teilweise wirklich groteske Wortvertauschungen vorgenommen wurden, (85)  beklagen die Autoren nicht nur, daß die Manipulationen kaum wahrgenommen wurden, sondern mußten auch eingestehen, daß sie “selbst andauernd auf [... ihre] eigenen Wort-Manipulationen hereingefallen sind.” (86)  Die manipulierte Seite wird einfach aufgrund ihrer stilistischen Einheitlichkeit und der fehlenden Hinweise auf eine Veränderung von außen als “echt” eingestuft, sogar wenn man um die möglichen Manipulationen weiß. (87) 






4. 2. 3. Manipulation ist möglich


Espenschied und Freude haben mit ihrem Projekt gezeigt, daß eine weitgehende Manipulation des Internets technisch möglich ist. So wie Espenschied und Freude den Inhalt der einzelnen Seiten manipuliert haben, können ausgewählte Seiten auch gesperrt werden. Daß eine Zensur des Internets wegen seiner Dezentralität schon technisch nicht möglich ist, hat sich somit als Mythos erwiesen, weil das Netz an der entscheidenden Stelle, an der der Nutzer sich einwählt, hierarchisch strukturiert ist.
Nebenbei hat sich gezeigt, daß die Manipulation von Webseiten kaum bemerkt wird, weil die Nutzer auf die korrekte technische Übermittlung vertrauen. Solange die Nutzer die Manipulation (die auch in einer Blockierung liegen kann) aber nicht bemerken, sind sie ihr ausgeliefert und können sich nicht dagegen wehren.
Eine Sperrung einzelner mißliebiger Internetseiten wird mit einem Filtersystem durchgeführt, das an der Stelle, an der sich der Nutzer einwählt, installiert wird und erkennt, welche Anfragen erlaubt sind und welche nicht und je nach dem die Anfragen weiterleitet oder nicht.




4. 3. Technische Möglichkeiten, Filter zu umgehen

Zur Zeit gibt es zwei bekannte Versuche, staatliche oder von anderen Institutionen installierte Zwangsfilter zu umgehen. Hierbei handelt es sich zum einen um das Programm “Triangle Boy” der amerikanischen Firma “SafeWeb”, die auf sicheres anonymes Surfen spezialisiert ist, (88)  zum anderen um das im Mai 2001 bekannt gewordene Projekt “Peekabooty” der Hackergruppe “Cult of the Dead Cow” (cDc). (89)  Beide Projekte setzen hierbei anscheinend auf automatische Verschlüsselung und das Prinzip des Peer-to-Peer-Netzwerks, um zentrale Proxyserver zu umgehen. (90) 


4. 3. 1. Peer-to-Peer (P2P)-Netze


Bei Peer-to-Peer-Netzen werden die Informationen direkt von Nutzer zu Nutzer übertragen, ohne daß ein zentraler Server die Inhalte bereithält. (91)  Während normalerweise ein Nutzer eine bestimmte Webseite ansteuert und dort etwa ein Programm herunterlädt, das vorher von einem anderen Nutzer dort abgelegt wurde und das dort verbleibt, bis der Besitzer der Webseite es wieder löscht, werden bei Peer-to-Peer (P2P) -Verbindungen die Rechner desjenigen, der die Information bzw. die Datei anbietet und desjenigen, der sie abrufen möchte, direkt miteinander verbunden. Der bekannteste P2P-Service ist momentan die Musiktauschbörse “Napster”, bei der jedoch ein zentraler Server die Informationen bereithält, welcher angeschlossene Nutzer welche Dateien anbietet, so daß durch Schließung dieses zentralen Servers “Sucher und Anbieter nicht mehr zueinander finden” (92)  können.


4. 3. 1. 1. Gnutella als dezentrales Peer-to-Peer-Netzwerk


Das mittlerweile durch den Medienkonzern AOL Time Warner aufgekaufte Softwareunternehmen Nullsoft entwickelte mit “Gnutella” das erste Protokoll für ein völlig dezentral strukturiertes P2P-Netz. (93)  Hierbei dient der Rechner jedes Nutzers (Client - anfragender Rechner) zugleich als Server (angefragter Rechner - normalerweise ein zentraler Rechner), so daß er als “Servant” bezeichnet wird (Kombination aus Server und Client). (94)  Jeder Nutzer erhält eine gewisse Anzahl zufällig ausgewählter Adressen ebenfalls dem Netz angeschlossener Servants, mit denen er sich direkt verbinden kann. Erhält er von diesen eine Suchanfrage, überprüft er in seiner Serverfunktion die Dateien, die er selber anbietet und leitet die Suchanfrage an alle anderen mit ihm verbundenen Rechner weiter, die denselben Vorgang mit ihren angebotenen Dateien wiederholen. (95)  Verläßt ein Servant das Netz, so sucht jeder davon betroffene Servant einen anderen Servant als Ersatz, so daß auch dann, wenn durch diesen Ausstieg eine wichtige Verbindung innerhalb des Gnutella-Netzes wegfällt, eine Aufsplittung des Netzes verhindert wird. (96)  Aus diesem Grund ist eine grundsätzliche Abschaltung des Gnutella-Netzes und damit jedes dezentral organisierten P2P-Netzes technisch unmöglich.


4. 3. 2. Filterumgehung per P2P-Netzwerk


4. 3. 2. 1. Das Programm “Triangle Boy”


Dieses Konzept macht sich das Programm “Triangle Boy” von SafeWeb zunutze, um auch denjenigen anonymes surfen zu ermöglichen, deren Zugriff auf die Startseite von SafeWeb durch einen Filter gesperrt ist. Normalerweise kann dort in einem Webformular eine beliebige Webadresse angegeben werden, die dann von dem Nutzer betrachtet werden kann, ohne daß an irgendeiner Stelle seine Identität sichtbar wird. An allen Stellen, an denen normalerweise Hinweise auf die Identität des Nutzers auftauchen, erscheint nur die Identität der Firma WebSafe, auf Seiten des Surfers kann nur nachgewiesen werden, daß er die Seite der Firma selbst aufgerufen hat. (97)  Da es sich nun anbietet, die Startseite von SafeWeb zu blockieren, um den Zugriff auf unerwünschte Seiten zu verhindern, ermöglicht “Triangle Boy”, sich statt mit der SafeWeb-Hauptseite per Peer-to-Peer-Prinzip mit einen anderen Nutzer direkt zu verbinden, der das Programm “Triangle Boy” ebenfalls installiert hat und legal auf die für den ersten Nutzer gesperrten Seiten zugreifen kann. Der sendet die Anfragen weiter an den Hauptserver von SafeWeb (ohne die Anfragen selbst lesen oder abfangen zu können) von wo die Inhalte mit der IP-Adresse des zwischengeschalteten PCs an den Rechner des Anfragenden gesendet werden. (98) 
4. 3. 2. 2. Das Programm “Peekabooty”



Die bisherigen Informationen über das Hackerprojekt “Peekabooty” weisen in eine ähnliche Richtung. Die offizielle Stellungnahme der Hackergruppe beschränkt sich auf die Mitteilung, daß “Peekabooty” “a distributed collaborative privacy network” (99)  sein wird, “mit dem Clients die meisten DNS-Filter umgehen und Webanfragen direkt an eine große Anzahl verteilter Server richten können, die die Anfrage ausführen und den Inhalt an den anfragenden Client zurücksenden.” (100)  Die trotz offizieller Zurückhaltung der Hackergruppe in den Medien veröffentlichten technischen Details (101)  beruhen bisher größtenteils auf Spekulation, (102)  insbesondere nachdem die Gruppe die für Anfang Juli 2001 geplante Vorstellung ihres Programms verschoben hat. (103)  Mitte Juli stellten die Mitglieder der Hackergruppe dann der Öffentlichkeit nur ein funktionierendes Peekabooty-Netzwerk vor, verzichteten aber wie angekündigt auf die Veröffentlichung des Programms. Vorher sollen die Programmroutinen zur Tarnung des erzeugten Datenverkehrs perfektioniert werden, um die Anwender in autoritären Staaten so wenig wie möglich zu gefährden. (104)  Mittlerweile ist zumindest soviel klar, daß “Peekabooty eine P2P-Netzwerk (105)  Anwendung ist, die es Nutzern in Ländern, die den Inhalt des Internets zensieren, ermöglicht, verbotene Inhalte zu veröffentlichen und zu erhalten”. (106)  Dabei ist das Projekt ebenso wie “Triangle Boy” auf Nutzer in freien Staaten angewiesen, die die Software auf ihren Rechnern installieren und es so ermöglichen, daß die gewünschten Inhalte über ihren Rechner auf den des anfordernden Rechners weitergeleitet werden. (107)  Einige der beteiligten Rechner werden außerdem verbotene Inhalte selbst bereitstellen, auf die dann über “Peekabooty” zugegriffen werden kann. (108)  Dabei wird der Datenverkehr von “Peekabooty” verschlüsselt und gleichzeitig verschleiert, daß die Daten von “Peekabooty” herstammen, um die staatlichen Behörden (oder andere Aufsichtsgremien) nicht auf die Nutzung des Programms aufmerksam zu machen und somit den Nutzer verdächtig zu machen. Allerdings weist einer der Programmierer darauf hin, daß die Anwendung “verschleiert, aber nicht versteckt werden kann”, auch wenn eine Möglichkeit installiert werden soll, die es ermöglicht, das Programm “schnell von der Festplatte zu entfernen - und das sicher” (109) , so daß die Nutzung in unfreien Staaten nicht ohne Risiko sein wird. (110)  Unabhängig von der Funktionsweise liegt das größte Potential von “Peekabooty” in dem Entschluß der Hacker, das Programm als “Open Source” (111)  zu veröffentlichen. Dadurch wird es durch alle interessierten Programmierer stetig weiterentwickelt werden können, so daß zumindest die Möglichkeit besteht, daß von interessierter Seite entwickelte Möglichkeiten, das Programm zu blockieren, in kürzester Zeit erneut umgangen sein werden (112)  - unabhängig von dem Engagement der ursprünglichen Programmierer.






4. 3. 3. Sperrungen können umgangen werden


Mit der entsprechenden Software lassen sich Sperrungen zentraler Filterprogramme umgehen, so daß der uneingeschränkte Zugriff wieder möglich ist. Die benötigte Software verschleiert auf technischem Wege ihren Einsatz und durch die Offenlegung des Quellcodes (zumindest eines Projekts) ist eine stetige Weiterentwicklung wahrscheinlich, die sich den jeweils eingesetzten Gegenmaßnahmen anpassen wird.




4. 4. Ratingsysteme und kommerzielle Filterprogramme als Reaktion     auf die Diskussion um staatliche Zensur in den USA


4. 4. 1. Die amerikanische Diskussion um staatliche Internetzensur


Die Diskussion über Zensur des Internet wird hauptsächlich in dessen “Heimatland”, den USA geführt. Dabei wird manchmal der Aspekt vernachlässigt, daß es sich längst nicht mehr um ein amerikanisches, sondern um ein internationales Medium handelt, vor allem aber zeigt es sich daran, daß Befürworter und Gegner fast ausschließlich mit amerikanischen Gerichtsurteilen und der amerikanischen Verfassung argumentieren. (113)  Obwohl sich die extensive Auslegung von Meinungsfreiheit der amerikanischen Verfassung nicht auf die gesamte westliche Welt und auch nicht auf deutsche Rechtsverhältnisse übertragen lassen, zeigt die amerikanische Diskussion unabhängig von tatsächlicher Rechtsgeltung die grundsätzlichen (philosophischen) Positionen, die sich in dieser Frage gegenüberstehen.


4. 4. 1. 1. Eugene Volokh: Zwangskennzeichnung und freiwilliger
    Filtereinsatz



Der amerikanische Jura-Professor Eugene Volokh diskutiert in seinem 1996 in dem Onlinemagazin Slate erschienenen Artikel “Speech and Spillover” (114)  die Möglichkeiten, Teile des Internets zu zensieren, ohne gegen die in der Verfassung der Vereinigten Staaten von Amerika garantierte Redefreiheit zu verstoßen. Er weist zu Beginn darauf hin, daß auch die Meinungsfreiheit (Recht auf freie Rede) ihre Grenzen hat. Neben offensichtlichen Beispielen wie Nötigung, Erpressung, und irreführende Werbung führt er die Entscheidung des amerikanischen Supreme Court an, daß Minderjährige keinen Rechtsanspruch haben, “stark sexuell orientiertes” (115)  Material zu sehen und Erwachsene kein Recht haben, ihnen solches Material auszuhändigen. “Philosophen und Psychologen können darüber debattieren, aber verfassungsrechtlich ist die Frage entschieden.” (116)  In der praktischen Umsetzung ist es jedoch oftmals schwierig, Kinder von Material fernzuhalten, ohne es Erwachsenen vorzuenthalten. So können Fernsehsender das Alter ihrer Zuschauer ebensowenig überprüfen wie der Besitzer einer Homepage das Alter seiner Besucher. Aus diesem Grund kann der Gesetzgeber nur entweder die Ausstrahlung bzw. die Bereitstellung generell untersagen und damit das Recht der Erwachsenen, solche Inhalte zu betrachten, verletzen oder sie generell erlauben und damit auch Kindern zugänglich machen. Somit stehen das Recht auf freie Rede und der Schutz der Minderjährigen gegeneinander: entweder die Einschränkungen, die für Minderjährige gelten sollen, werden auch auf Erwachsene ausgeweitet und beeinträchtigen somit deren (passives) Recht auf freie Rede oder die Redefreiheit dehnt sich auch auf Bereiche aus, in denen sie nach dem Willen der meisten Bürger (und Richter) nur eingeschränkt gelten soll. (117)  Die Lösung kann also nur durch Güterabwägung gefunden werden. “Vielleicht sollten solche Ausweitungsprobleme immer zugunsten der Meinungsfreiheit entschieden werden. Vielleicht ist die gesteigerte Verwundbarkeit der Kinder ein Preis, den es sich zu für eine größere Freiheit Erwachsener zu zahlen lohnt.” (118)  Eine Güterabwägung muß sich nach Volokh die Beeinträchtigungen beider gegeneinander abzuwägenden Rechtsgüter aufrichtig vor Augen halten, um zu erkennen, was man durch die jeweilige Entscheidung gewinnt und was man aber gleichzeitig notwendigerweise verliert. Nach dem Grundsatz des Übermaßverbotes, nachdem die Beeinträchtigung eines Rechtsguts unzulässig ist, wenn es eine weniger restriktive Möglichkeit gibt, das Ziel zu erreichen, plädiert Volokh für den Einsatz von Filterprogrammen, die es Eltern erlauben, sexuelle orientierte Seiten für ihre Kinder auszublenden, gleichzeitig aber Erwachsenen erlauben, auf diese Seiten zuzugreifen. Da die Firmen, die solche Programme anbieten, aufgrund des rapiden Wachstums und der ebenso schnellen Veränderungen im Internet nicht alle sexuell orientierten Seiten (rechtzeitig) erfassen können, schlägt er vor, daß die Anbieter solcher Seiten gesetzlich gezwungen werden sollen, ihre Seiten “so als 'schmutzig' zu kennzeichnen, daß Computer es leicht erkennen können” (119)  und den Zugang verwehren, falls der Filter aktiviert ist. Ebenfalls könnte der Filter alle Seiten blockieren, die nicht als “sauber” eingestuft wurden, wobei eine falsche Einstufung ebenfalls durch Gesetz verboten sein könnte. Obwohl Volokh als Problem erkennt, daß ausländische Webseiten durch amerikanisches Recht nicht gebunden wären, einige Kinder keinerlei Filter auf ihrem Computer installiert haben würden und Webseiten (absichtlich oder unabsichtlich) sich falsch einordnen würden, sieht er in diesem Vorschlag einen gangbaren Weg zwischen dem kompromißlosen Verbot sexueller Inhalte und der ungebremsten Verbreitung auch bei Kindern. (120) 


4. 4. 1. 2. Abelson und Godwin: Freiwillige Filterung ohne jeden     staatlichen Zwang


Volokhs Vorschlag ist von Abelson und Godwin (121)  scharf kritisiert worden. Sie werfen ihm vor, daß er “versucht, Zweifel an der Effektivität der Filtersoftware aufkommen zu lassen”, (122)  um “seine These zu stützen, daß technische Lösungen das, was er als dauerhaftes Problem der “Ausweitung” sieht, niemals auflösen können” (123) , wobei er jedoch bereits die Funktionsweise der Filterprogramme falsch darstelle, obwohl diese Fakten “zentral sind, um die öffentliche Debatte über die Regulierung der Inhalte im Netz zu verstehen.” Ihrer Ansicht nach sind kommerzielle Filterprogramme “preiswerte in in hohem Maße an die jeweiligen Bedürfnisse anpaßbare Werkzeuge” (124) , mit hilfe derer “zwei wichtige gesellschaftliche Interessen - der Schutz der Kinder und [die Redefreiheit]” (125)  - beide gewahrt werden können.



4. 4. 2. Filterprogramme



Montag 23. Dezember
Fand Tante Marjorie im Wohnzimmer, wo sie dasaß und die Fernsehzeitung durchforstete. Nachdem wir unseren traditionellen Begrüßungskuß gewechselt hatten, bei dem das ungeschriebene Gesetz gilt, daß keine Faser meines Gesichts auch nur eine Faser ihres Gesichts berührt, sagte sie: “ Ich zirkle jene Sendungen mit schwarzer Tinte ein, die ungeeignet sind und die wir während der Weihnachtstage nicht sehen werden!”[...]
Dienstag 24. Dezember
[...] Tante Marjorie wurde blaß wie ein Laken und weigerte sich den verbleibenden Abend, Ralph eines Blickes zu würdigen, geschweige denn mit ihm ein Sterbenswort zu reden - sogar als er die Fernsehzeitung durchblätterte und meinte: “Hey! Super Service! Da ist schon jemand das Programm durchgegangen und hat die besten Sendungen angekreuzt!”

Adrian Plass, Tagebuch eines frommen Chaoten.







4. 4. 2. 1. Funktionsweise von Filterprogramme


Grundsätzlich gibt es zwei Techniken, nach denen Inhaltsfilter funktionieren: Listen und Wortfilter, wobei Volokh in seiner Analyse nur das Listensystem berücksichtigt hat. Dabei vergleicht das Filterprogramm die angewählte Internetadresse mit einer ihm vorliegenden Liste von “verbotenen” Adressen. Findet er die Adresse in der Liste, so blockiert das Filterprogramm den Zugriff und der Browser zeigt die gewünschte Seite nicht an. (126)  Der umgekehrte Weg ist weitaus seltener, kommt aber auch vor: manche Filterprogramme lassen den Nutzer nur auf die Webseiten zugreifen, die sich in ihrer Liste befinden, (127)  bei anderen ergänzen sie positiv die Ausschlußliste. (128)  Die zweite mögliche Technik ist die des Wortfilterns. Hierbei durchsucht die Software das angeforderte Dokument nach bestimmten Wörtern und blockiert die Seite, wenn die Software die “verbotenen” Worte auf der Seite finden konnte. (129)  Normalerweise nutzen heutige Filterprogramme eine Kombination beider Techniken, (130)  um möglichst effektiv zu arbeiten. Dabei kann die Filtersoftware sich als zusätzliches Programm auf dem Rechner des Nutzers befinden (131)  oder auf dem Server des Internetzugangsanbieter befinden. (132) 


4. 4. 2. 2. Möglichkeit des Umgehen der Filter auf dem Nutzerrechner


Die Programme, die auf dem PC des Nutzers (133)  selber installiert sind, schützen jedoch nicht zuverlässig vor den Inhalten, die sie eigentlich blockieren sollen, da sie “sich alle [...] irgendwie aushebeln [lassen] - auch wenn es je nach Programm unterschiedlich schwierig ist.” (134)  Am schwierigsten zu umgehen ist ein Programm dann, wenn es “sich wirklich tief greifend in das System ein[hängt]” (135)  und dabei auch Systemdateien durch eigene Versionen ersetzt. Allerdings sind auch solche umfangreichen Eingriffe in das System des Computers rückgängig zu machen - sogar ganz einfach mit einem im Internet erhältlichen Programm. (136)  Brauch kommt daher zu dem Schluß, daß bereits von der eigenen Systemsicherheit her die Filterprogramme bei Kindern ab ca. zwölf Jahren (137)  unbrauchbar sind, da sie zumeist das technische Verständnis besitzen, die Filtermechanismen auszuhebeln, insbesondere weil sie sich natürlich auch jenseits von eMail und Webseiten untereinander über die Möglichkeiten unterhalten werden, die lästigen Filterprogramme zu entfernen. (138) 




4. 4. 2. 3. Grundsätzliche Probleme von Filtersoftware


4. 4. 2. 3. 1. “Positivlisten” sind praktisch unrauchbar


Bei auf dem Server des ISPs installierten Filterprogrammen gibt es zunächst jedoch keine Möglichkeit, das Programm abzustellen oder zu deinstallieren. (139)  Somit kommen hier eher die grundsätzlichen Probleme von Filtersoftware zum tragen. Zwar existiert die Möglichkeit, den Zugriff nur auf vorher gesichtete und für unbedenklich erachtete Webseiten zuzulassen, wie es der deutsche Anbieter “Mininetz” versucht, (140)  aber auch bei immensem Aufwand wird dadurch immer nur ein extrem geringer Teil selbst der “ungefährlichen” und sogar unbestritten nützlichen Webseiten zugänglich sein, (141)  da es praktisch nicht zu leisten ist, mittels des Redaktionssystems auch nur eine annehmbare Anzahl von Webseiten zu prüfen. (142)  Daher kann eine solche zwar sichere, aber extrem eingeschränkte Nutzung weniger Bestandteile des Internets praktisch über eine Nischenexistenz hinaus keinerlei Bedeutung haben.


4. 4. 2. 3. 2. Filtern nach Schlüsselworten


4. 4. 2. 3. 2. 1. Problem: Ausfiltern “harmloser” Seiten


Aus diesem Grund setzen die verbreiteten Filterprogramme neben den manuell überprüften Listen auf “keyword blocking” (143)  (Sperren nach Schlüsselworten), wobei die angeforderte Seite anhand der in ihr enthaltenen Worte bewertet wird. Teilweise wird die Seite tatsächlich erst beim Aufruf selbst durchsucht und dann erst angezeigt oder geblockt, (144)  meistens aber werden die Negativlisten der Programme aufgrund solcher vorher durchgeführten Suchen im Internet erstellt. (145)  Finkelstein und Tien betonen, daß bei den automatisch durchgeführten Durchsuchungen keinerlei “Künstliche Intelligenz” (KI) zum Einsatz kommt, auch wenn die Hersteller das oft behaupten, sondern im Gegenteil nur das Vorkommen vorher definierter Worte überprüft wird. (146)  Da die eingesetzten Suchprogramme, sogenannte “Robots”, nicht in der Lage sind, den Kontext der einzelnen Worte zu erkennen, (147)  werden auch solche Seiten blockiert, die inhaltlich nicht zu beanstanden sind. Das typische Beispiel für dieses Problem sind die Seiten der Krebshilfe zum Thema Brustkrebs (breast cancer), die aufgrund des auf ihnen notwendigerweise enthaltenen Wortes “breast” generell gesperrt wurden. (148)  Da dieses Beispiel als Problem der Filterprogramme breit diskutiert wurde, sind die aktuellen Programme mittlerweile dazu in der Lage, “breast” nur dann zu sperren, wenn es nicht in “breast cancer” vorkommt. Dieser Fall demonstriert die Arbeitsweise der Filtersoftware sehr anschaulich und zeigt damit die grundsätzliche Problematik des “keyword blocking” auf. So wurden z.B. ebenfalls Seiten über Anne Sexton und Informationen aus Sussex gesperrt, weil der Filter das Wort “sex” nicht erlaubte, (149)  die Webseite einer Fußball-Jugendliga, weil sie den Satz “Boys under 12” enthielt (150)  und sogar die Homepage des Vatikan wurde wegen anstößiger Inhalte geblockt. (151)  Hierbei handelt es sich natürlich nur um die absurdesten und damit öffentlichkeitswirksamsten Beispiele, während tatsächlich weitaus mehr Fälle unberechtigten Blockierens belegt sind. (152)  Obwohl auf diese Weise eine große Anzahl von “ungefährlichen” Seiten ausgefiltert werden, schaffen es die Programme andererseits nicht, tatsächlich unerwünschte Inhalte zuverlässig zu filtern. Das liegt teilweise am technischen Fehlern im Programm, so daß als unerwünscht erkannte Webseiten trotzdem angezeigt werden, (153)  größtenteils aber an der ungenügenden Erkennung der Programme. In einem stichprobenartigen Test filterte das leistungsfähigste (amerikanische) Programm nur 84 Prozent der amerikanischen Pornoseiten, das selbe Programm kam bei Gewaltdarstellung nur auf eine Filterleistung von 50 Prozent. (154) 


4. 4. 2. 3. 2. 2. Problem: Auswahl der Filterkriterien


Ein weiteres Problem neben der unbeabsichtigten Filterung “harmloser” Inhalte ist die Auswahl der unerwünschten Inhalte. Zwar bieten die Filterprogramme, die auf dem PC des Nutzers installiert sind, verschiedene Kategorien an, nach denen Webseiten geblockt oder auch angezeigt werden, (155)  doch auch diese Kategorien bilden natürlich bereits eine Vorauswahl dessen, was die Entwickler des Programms für potentiell “blockenswert” halten. So weisen etwa Espenschied und Freude darauf hin, daß die Webseite der amerikanischen konservativen Vereinigung “Focus on Family” nicht als “diskriminierend” eingestuft wurde, obwohl sie “sich [in] haarsträubender Weise zum Thema Homosexualität äußern” (156) , während einige rechtskonservative amerikanische Organisationen (157)  Filterprogramme in öffentlichen Bibliotheken und Schulen unter anderem deshalb ablehnen, weil ein Anbieter von Filtersoftware sich entschlossen hat, die Webseite der “American Family Association” wegen deren ablehnender Haltung gegenüber “homosexuellem Engagement” zu sperren. (158)  Dies macht deutlich, daß die Entscheidung, welche Webseiten angezeigt werden dürfen und welche nicht, nicht allein von der Auswahl des Benutzers abhängt, sondern mindestens ebenso stark von der Willkür des Herstellers (wobei das Problem der fehlerhaft arbeitenden Filtermechanismen hier kurz ausgeblendet werden soll). Eine Diskussion über Kriterien oder sogar die Änderung dieser ist praktisch nicht möglich, da in den meisten Fällen für den Nutzer nicht zu erkennen ist, welche Seiten überhaupt und aus welchen Gründen blockiert werden, (159)  weil der Inhalt der Negativlisten von den Firmen als Geschäftsgeheimnis angesehen und daher geheimgehalten wird (160)  und Versuche, die vollständige Liste blockierter Adressen zu dokumentieren, massiv juristisch verfolgt werden. (161)  Damit ist natürlich die Gefahr des bewußten Mißbrauchs verbunden, so daß auch solche Inhalte ausgefiltert werden, gegen die der Nutzer nichts einzuwenden hat, die aber nicht im (geschäftlichen oder persönlichen) Interesse des Herstellers liegen.


4. 4. 2. 3. 2. 3. Mißbrauch der Filter durch den Hersteller


Zumindest in der Vergangenheit war es “üblich, Webseiten in die Sperrlisten aufzunehmen, die den Hersteller des Sperrprogramms kritisieren [...] oder allgemein gegen Rating argumentieren.” (162)  Aber auch in der jüngsten Vergangenheit gibt es Beispiele, in denen die Macht über die Filterliste dazu genutzt wurde, mißliebige, aber nach den offiziellen Kriterien nicht filterungswürdige Webseiten zu blockieren. So wurde etwa der Branchendienst für Informationstechnologie “The Register” durch die weit verbreitete Filtersoftware “Cyber Patrol” vollständig gesperrt, weil in ihm ein Artikel veröffentlicht wurde, der über ein Programm der Organisation “Peacefire” berichtete, mit dem das Filterprogramm ausgeschaltet bzw. umgangen werden konnte. (163)  Es ist natürlich logisch absolut notwendig, daß das Filterprogramm den Zugriff auf eine Seite verhindert, die beschreibt, wie man das Filterprogramm ausschalten kann (wobei dadurch natürlich nicht gewährleistet ist, daß die Informationen nicht auf anderem Wege an ihr Ziel gelangen), aber in diesem Fall hat der Hersteller der Negativliste die gesamte Webseite gesperrt, weil ein Bericht einen Hinweis auf eine andere Homepage enthielt, die das Filterprogramm ausgehebelt hätten. Das kann man in etwa mit dem vollständigen Verbot einer Tageszeitung vergleichen, weil in einer Ausgabe ein Artikel “indiziert” (164)  wurde. Die Sperrung der gesamten Seiten des Nachrichtendienstes war deshalb besonders unsinnig, weil die Seite, die das fragliche Programm bereithielt, sowieso durch das Filterprogramm geblockt wurde. (165)  Zumindest hätte es ausgereicht, den Bericht selbst zu blocken, der zu dem Zeitpunkt, an dem die Filterung wirksam wurde, bereits über zwei Monate alt war, (166)  anstatt den gesamten Nachrichtendienst zu sperren. Der Verdacht drängt sich auf, daß es sich hierbei mehr um eine Strafmaßnahme als um eine verantwortliche Sperrung gefährlicher Informationen gehandelt hat. In diesem Fall jedoch sah sich der Hersteller des Filterprogramms mit einer großen Anzahl massiver Proteste konfrontiert, (167)  weil auch viele Firmen den Internetzugang ihrer Angestellten mit dieser Software (bzw. mit der Negativliste dieses Unternehmens) filtern, (168)  die jedoch nicht technische Informationen von ihnen fernhalten wollen, sondern eher das Surfen auf Sexseiten während der Arbeitszeit unterbinden wollen. (169)  Die Herstellerfirma sah sich daher gezwungen, die Seiten des Nachrichtendienstes wieder freizuschalten und zukünftig nur noch den fraglichen Artikel selbst zu sperren. (170)  Die erfolgreiche Aufhebung der Sperrung dürfte nicht unerheblich damit zusammenhängen, daß “The Register” mit ungefähr 1 Million Leser täglich (171)  über erhebliche Bekanntheit und entsprechenden Einfluß verfügt, so daß man davon ausgehen kann, daß kleineren Webseiten dies nicht gelungen wäre.




4. 4. 2. 3. 2. 3. Logisch notwendiges Blocken an sich “harmloser” Seiten


In der Auseinandersetzung mit dem Hersteller der Filtersoftware warf “The Register” diesem u.a. vor, daß der Nachrichtendienst unter der Kategorie “Sex” eingetragen sei, obwohl diese Klassifizierung nicht das geringste mit dem Inhalt des Dienstes zu tun hat. (172)  Wahrscheinlich war die Seite jedoch nicht nur dort, sondern unter allen vorhandenen Kategorien eingetragen, um sie generell zu blockieren, unabhängig davon, welche Kategorien nach dem Willen des Anwenders gefiltert werden sollen. So fand sich etwa die Seite der Organisation “Peacefire”, die sich generell gegen “Zensurprogramme” ausspricht und deswegen auf ihrer Webseite auch Anleitungen zum Deinstallieren aller gängigen Filterprogramme bereithält, in allen möglichen Kategorien, wie etwa “Sex”, “Gewalt”, “Satanismus”, “Drogen” und “Militanz und Extremismus” geführt, (173)  obwohl dort keiner dieser Inhalte aufzufinden ist. Das gleiche Schicksal trifft Anonymisierungsdienste und alle automatischen Übersetzungsprogramme, weil mit ihrer Hilfe jeder beliebige Inhalt betrachtet werden kann, ohne daß die Filtersoftware ihn als “unerwünscht” erkennen kann. (174)  In der Folge der Sperrung der Übersetzungsdienste sind die Recherche- bzw. Nutzungsmöglichkeiten des Internets bei Installation eines Filterprogramms noch weiter eingeschränkt. Wenn allerdings Corinth die Sperrung der Übersetzerdienste als extreme “Dummheit” bezeichnet, da die automatischen Übersetzungen von Erotikseiten “alles andere als erotisierend oder gar anmachend kling[en], und Bilder von [dem Übersetzungsprogramm] Babelfish sowieso nicht 'übersetzt' werden” (175) , übersieht er offensichtlich, daß “nicht übersetzen” sich von “nicht anzeigen” durchaus unterscheidet (alle Graphiken der fremdsprachigen Ausgangsseite werden bei der automatischen Übersetzung von Webseiten regelmäßig übernommen und angezeigt) und bei den meisten Erotikseiten der Grund für die gewünschte Filterung nicht ausschließlich in den Texten liegt. Die Sperrung ist daher durchaus logisch notwendig und keinesfalls so absurd wie Corinth es erscheinen lassen will. Allerdings muß ebenfalls festgestellt werden, daß durch diese Sperrung erneut “harmlose” und nützliche Seiten vollständig dem Zugriff der “befilterten” Nutzer entzogen sind.


4. 4. 2. 3. 2. 4. Versteckte, nicht aufhebbare Sperranweisungen


Im Zusammenhang mit der Auseinandersetzung zwischen “The Register” und dem Hersteller der Filterliste wies dieser darauf hin, daß es zumindest dem Nutzer mit Administratorrechten möglich war, die Sperrung des Newsdienstes abzuschalten, so daß die Seite (ohne generelle Entfernung aus dem Filter) für die Nutzer zugänglich gewesen wäre, deren Administrator sie freigeschaltet hätte. (176)  Allerdings können vier der 16 Kategorien sogar durch den berechtigten Anwender nicht abgeschaltet werden, (177)  was allerdings erst durch eine illegale, und dem entsprechend (zivil-)juristisch verfolgte Aufdröselung des Filterprogramms bekannt wurde. (178)  Es besteht also zumindest die Gefahr, daß diese Kategorien (und die grundsätzliche Geheimhaltung der Filterkriterien bzw. tatsächlich geblockten Seiten) für Blockaden im Interesse des Herstellers genutzt werden, die aber vom Nutzer gar nicht erwünscht sind, aber von ihm auch nicht beeinflußt werden können.


4. 4. 2. 3. 3. Filter funktionieren nicht wie erforderlich


Die vorgehende Darstellung hat gezeigt, daß Abelsons und Godwins optimistische Sicht der Softwarefilter nicht zu halten ist. Zwar hat Volokh nur das Problem der notwendigerweise zu wenig Inhalte filternden Negativlisten herausgestellt und damit nur einen Bruchteil der Problematik erfaßt, allerdings ist seine Analyse damit zutreffender als die von Abelson und Godwin. Er folgert daher in seinem Artikel, daß per Gesetz ein Ratingsystem eingeführt wird, anhand dessen alle (amerikanischen) Webseiten ihrem Inhalt gemäß gekennzeichnet werden sollen. (179)  Die von ihm anvisierte Lösung kombiniert damit zwei bereits existierende technische Lösungsversuche (Filterprogramme und Ratingsysteme) mit dem Vorschlag, sie per Gesetz obligatorisch für alle (amerikanischen) Websites zu machen. Abelson und Godwin lehnen den gesetzlichen Kennzeichnungszwang ab und setzen statt dessen auf den durch das “World Wide Web Consortium” (W3C) entwickelten Bewertungsstandard PICS. (180) 


4. 4. 3. Der Bewertungsstandard für Webseiten PICS


Das WWW-Konsortium W3C, das für die Weiterentwicklung der Webprogrammiersprache HTML zuständig ist, (181)  verabschiedete mit PICS (Platform for Internet Content Selection) bereits 1995 einen Standard, mithilfe dessen Webseiten bewertet werden können. (182)  Es handelt sich bei PICS um eine “rein technische Spezifikation” (183) , durch die nur die äußeren Rahmenbedingungen festgelegt werden, die aber keinerlei inhaltliche Vorgaben zu den möglichen Selektionskriterien enthält. (184)  PICS ist also nicht selber ein Bewertungssystem (185) , sondern stellt einen “offenen Standard” dar, anhand dessen verschiedene konkurrierende Bewertungsschemata erstellt werden können. (186)  Hiermit sind neben den klassischen Bewertungskategorien aus dem (amerikanischen) Jugendschutz Gewalt, Nacktheit, Sex und “'explizite' (lies: 'anstößige')” (187)  Sprache (188)  beliebige weitere Kategorien möglich, wie etwa historische Korrektheit, Vorkommen von Intoleranz oder Diskriminierung auf der Webseite oder die politische Haltung des Autors. (189)  So könnte technisch gesehen jede Organisation oder soziale Gruppe (“das Simon Wiesenthal Center und die Imperial Knights des K[u]K[lux]K[lans]” (190) ) eigene Bewertungsschemata “nach jeweils unterschiedlichen [...] Bewertungsgrundsätzen” (191)  erstellen. (192)  Da die Bewertungssysteme (bzw. Ratingsysteme) nach dem System der freiwilligen Selbstkontrolle funktionieren sollen, (193)  kann der Autor einer Webseite diese innerhalb des von ihm ausgewählten Bewertungssystems selbst bewerten. (194)  Dafür integriert der Autor die Einstufung in den verschiedenen Kategorien in den Quellcode seiner Seite, (195)  ebenso wie alle anderen HTML-Befehle, aus denen die Webseite besteht, so daß das Rating somit Teil der Seite selber ist.
Daneben sieht PICS aber auch die Möglichkeit vor, daß die Seite durch andere eingestuft wird (“Third-Party Ratings” = Drittbewertung). (196)  Die Bewertungen fremder Seiten werden separat, etwa als Datenbank, von der Institution angeboten, die die Bewertungen erstellt hat, (197)  sind hier also von der bewerteten Seite an sich unabhängig. Der Autor der Webseite hat auf diese Art der Bewertung dann keinen Einfluß, eventuell wird er von der Bewertung seiner Seite auch nicht erfahren. (198)  Der Nutzer (bzw. derjenige, der den Filter für den Nutzer einstellt) kann anhand des Bewertungsschemas auswählen, welche Art von Webseiten er zulassen will. Um ein einfaches Beispiel zu nehmen, kann der Nutzer sich dafür entscheiden, keinerlei Sex auf dem Internetbildschirm zu dulden. In einem vielleicht fünfstufigen System wird der Wert für “Sex” auf Null gesetzt. Enthält eine angewählte Seite eine Bewertung, die in einer der Kategorien über dem zugelassenen Wert liegt (hier also größer Null), so wird die Seite nicht angezeigt. (199)  (Ebenso sind natürlich Zwischenwertungen möglich, wenn das Schema sie vorsieht. So könnte etwa der Grad an Nacktheit bestimmt werden. Wenn der Nutzer höchstens “partial nudity” zulassen will, die Seite aber mit “frontal nudity” bewertet ist, wird sie nicht angezeigt, (200)  bei der Bewertung “partial nudity” oder “no nudity” wird die Seite angezeigt.) Ist eine Seite nicht bewertet - weder durch den Autor selbst, noch durch einen Dritten - dann kann die Seite entweder deswegen ausgeblendet werden oder aufgrund mangelnder Bewertungsmöglichkeit angezeigt werden. (201)  Der Umgang mit (eventuell bewußt) ungekennzeichneten Webseiten dürfte das größte Problem des PICS-Standards darstellen. (202)  Obwohl ursprünglich eine große Anzahl verschiedener miteinander im Wettbewerb stehender Ratingsysteme auf Grundlage des Standards PICS entstehen sollten, (203)  existieren praktisch bisher nur zwei konkurrierende Systeme. (204)  Hierbei handelt es sich zum einen um das System ICRASafe, der “Internet Content Rating Association”, einer “sich als gemeinnützig ausweisende Privatunternehmung” (205) , zu der sich Medienunternehmen wie Microsoft, IBM, AOL Europe, British Telecom, T-Online und die Bertelsmann Stiftung zusammengeschlossen haben. (206)  ICRA ist das Ergebnis der unter maßgeblicher Beteiligung der Bertelsmann Stiftung durchgeführten (207)  Weiterentwicklung des älteren, ebenfalls auf PICS basierenden Systems RSACi, (208)  mit dem Webseiten lediglich in vier Kategorien nach jeweils fünf Intensitätsgraden eingestuft werden konnten. (209)  Dem steht ein “kommerzielles” Ratingsystem gegenüber, das durch das amerikanische Firma “SafeSurf” entwickelt wurde. (210)  Hier kann in neun Kategorien eine Abstufung nach neun Graden erfolgen. (211)  Da das System der ICRA neben seiner auch gegenüber SafeSurf ausgefeilteren Einstufungsmöglichkeiten auch den Vorteil hat, daß es von einer (zumindest in erster Linie) nichtkommerziellen Vereinigung getragen wird, zu deren Mitgliedern zahlreiche potente und im Internetbereich sehr einflußreiche Unternehmen zählen, statt - wie im Falle von SafeSurf - durch ein privatwirtschaftliches Unternehmen, das mit seinem System Geld verdienen will, scheinen die Chancen zur Durchsetzung von ICRA weitaus größer als die von SafeSurf. Aus diesem Grund beschränkt sich die folgende Darstellung im wesentlichen auf das System der ICRA.






4. 4. 4. Das PICS-System ICRA


Das Ziel von ICRA ist es, durch ein ausdifferenziertes Kategoriensystem eine mehr objektive Beschreibung von Webseiten zu ermöglichen, so daß der Nutzer tatsächlich entscheiden kann, welche Art von Informationen er auf seinem Bildschirm zulassen will, anstatt sich auf vage Einteilungen verlassen zu müssen. (212)  Ola-Kristian Hoff, Europa-Direktor der ICRA, erläutert, daß “ICRA [...] die einzige Organisation [ist], die mit dem Vatikan und der 'Adult'-Industrie arbeiten kann, weil wir nicht versuchen, den Leuten zu sagen, was gut oder schlecht ist.” (213)  Die aktuelle Version des Klassifizierungssystems der ICRA (214)  will das erreichen, indem es statt vager und kulturell abhängiger Angaben wie “relativ wenig Nacktheit” auf objektive Kriterien wie “nackte Brüste” bzw. “keine nackten Brüste” setzt. (215)  Dem Vorgängersystem wurde von Kritikern oft entgegengehalten, “dass unter dem Ratingsystem vom RSAC der Kontext, in dem etwa sexuelles Material enthaltende Inhalte auftauchen, nicht beachtet wird” (216) , so daß sowohl Pornoseiten als auch Lehrmaterial unter dieselbe Kategorie fallen und somit zumeist gemeinsam ausgefiltert werden. ICRA hat auf die Kritik reagiert und versucht in ihrem System, den Kontext der Informationen zu berücksichtigen.




4. 4. 4. 1. Das Kategoriensystem von ICRA


Allerdings besteht das neue Kategoriensystem im Grundsatz aus den alten Kategorien des RSAC “Nacktdarstellungen und sexuelle Inhalte” (jetzt zu einer Kategorie zusammengefaßt), “Gewalt” und “Sprachgebrauch”, die um “Chat” und die Sonstiges-Kategorie “Andere Themenbereiche” ergänzt wurden. Der Kontext der Informationen und Darstellungen soll durch die zusätzliche Angabe weiterer Optionen in der Unterkategorie “Nacktdarstellungen und sexuelle Inhalte / Zusammenhang” erfaßt werden. (217)  So kann etwa eine Webseite, die die “Geburt der Venus” von Sandro Botticelli (218)  enthält und daher nach objektiven Kriterien die Seiten mit den Angaben “Weibliche Brüste” auszeichnen muß, dies durch die Angabe “Dieses Material erscheint in einem Zusammenhang mit künstlerischer Absicht und ist für jüngere Kinder geeignet” relativieren kann. Daneben existieren noch zwei weitere Möglichkeiten, die Kategorie “Nacktdarstellungen und sexuelle Inhalte” in den Kontext einzuordnen. Sie sind mit der zitierten gleichlautend, nur die “künstlerische Absicht” ist jeweils durch “erzieherische” bzw. “medizinische Absicht” ersetzt. Die Kategorie “Gewalt” kann durch die gleichen Kontextbeschreibungen erläutert werden, zusätzlich findet sich hier noch die Möglichkeit, daß die Gewalt “in einem sportlichen Zusammenhang” erscheint. (219)  Spötter haben natürlich die offensichtlichen Lücken des Systems aufgedeckt, so daß etwa Espenschied und Freude darauf hinweisen, daß die Möglichkeit zur Einordnung einer Seite, die “Sexualgewalt / Vergewaltigung” “in einem sportlichen Zusammenhang” enthält, besonders interessant [sein] dürfte”. (220)  Der schwierigen Kontroverse darüber, was in den Bereichen “Gewalt” und “Nacktdarstellungen und sexuelle Inhalte” als Kunst anzusehen ist, dürften die Entwickler von ICRA durch den pragmatischen Entschluß entgangen sein, daß die Kategorisierung als Kunst sofort mit der Einschätzung einhergehen muß, daß sie auch “für jüngere Kinder geeignet” ist. Die Kontextbewertung ist auf diese zwei Kategorien beschränkt. Weiter kann in eigenen Kategorien angegeben werden, ob die Seite die Möglichkeit zum Online-Chat bietet, und der Sprachgebrauch eingeschätzt werden, wobei mit Ermert zu bemerken ist, daß etwa “sexualisierte Sprache” und “derber Sprachgebrauch oder Gotteslästerung” nicht unbedingt eindeutige Kriterien zur Bewertung des auf einer Webseite verwandten Sprachstiles darstellen. (221)  Die letzte Kategorie enthält dagegen eine größere Anzahl rein wertender Auswahlmöglichkeiten, mit denen kaum ein Websitebetreiber sein Angebot selbst bezeichnen würde, so daß sie ausschließlich zur Drittbewertung gedacht sein können: neben den (vielleicht noch von Seiten der entsprechenden Werbeindustrie aus Imagegründen angewandten) Labels “Positive Darstellung von Alkohol” bzw. Tabak finden sich Drogen und Waffen in einer eigenen Kategorie, ebenso wie die Möglichkeit, anzugeben, daß das eigenen Webangebot “Inhalte, die jüngere Kinder beeinträchtigen könnten” enthält. In gewissen Fällen besteht noch die Möglichkeit, daß die zuvor genannten Selbsteinschätzungen von kommerziell orientierten Seiten vorgenommen werden, die sich selbst keinen Vorteil davon versprechen, wenn Kinder ihre Webseite besuchen, da diese noch keine Kunden werden können, und gleichzeitig an einem gesellschaftlich sauberen Image interessiert sind, (222)  fast grundsätzlich auszuschließen ist jedoch, daß sich Internetseiten selbst unter “Aufruf zur Diskriminierung von oder Gewalt gegen Personen” kategorisieren. Spätestens hier kann die ICRA nicht mehr auf Selbstklassifizierung durch die Urheber der Webseiten ausgelegt sein, wie auch deren Europadirektor Hoff zugesteht. (223)  Deshalb setzt das System der ICRA “ergänzend” auf Drittbewertungen, über die pornographische und nationalsozialistische Seiten blockiert werden sollen. (224)  Solche Negativlisten, die durch “vertrauenswürdige” (225)  Dritte erstellt werden sollen, stellen bisher das Bundeskriminalamt, (226)  die Anti-Defamation-League und die Deutsche Bischofskonferenz zur Verfügung. (227) 


4. 4. 4. 2. Grundsätzliche Probleme von PICS im allgemeinen und ICRA     im besonderen


Um zu verhindern, daß die Negativlisten zu Linksammlungen besonders interessanter Seiten umfunktioniert werden, werden sie auch bei ICRA nicht offengelegt, (228)  so daß zumindest bei den Drittbewertungen der einzelne Nutzer (wie bei konventionellen Filterprogrammen) auf die Redlichkeit der Ersteller der Negativlisten vertrauen muß. Ein weiteres Problem sind die Seiten, die selbst auf eine Einstufung verzichten (und auch nicht durch Drittbewertung erfaßt sind). Wenn das System sicher arbeiten soll, bleibt nur die Möglichkeit, die nicht eingestuften Seiten zu blockieren, da andernfalls das System einfach dadurch zu umgehen ist, daß die eigenen Seiten nicht eingestuft werden. Da mit jeder Einstufung gleichzeitig die potentielle Gefahr wächst, daß die eigene Seite nicht angezeigt wird, zumeist aber jeder Homepagebesitzer daran interessiert ist, daß möglichst viele Surfer ihre Seiten besuchen, wäre es sehr wahrscheinlich, daß die wenigsten ihre Seite einstufen würden.
Das Ausblenden ungekennzeichneter Seiten birgt allerdings auch Probleme, da die Autoren mancher Seiten das Kennzeichnungssystem für ihre Seiten als unzureichend und unpassend empfinden. Im einfachsten Fall betrifft es die Nachrichtenseiten, die über das Weltgeschehen berichten. Das Webangebot des amerikanischen Nachrichtenkanals MSNBC, der von der Fernsehgruppe NBC und dem Softwareunternehmen Microsoft betrieben wird, hatte zunächst versucht, alle ihre Meldungen korrekt zu labeln, um die Funktionsfähigkeit des von Microsoft unterstützten Systems in der Praxis zu beweisen. Allerdings zeigte sich bald, “daß die Einstufung jeder einzelnen Nachricht zu zeitaufwendig war. Eine einheitliche Einstufung des kompletten Angebots andererseits hätte zur Folge gehabt, daß sie für Jugendliche gleich ganz unzugänglich gewesen wäre” (229) , weil Berichte über Gewalt und weitere “bedenkliche Themen” zum normalen Weltgeschehen hinzugehören. Der Vorschlag einiger Nachrichtenanbieter, eine eigene Kategorie für Nachrichten zu schaffen, in der die üblichen Jugendschutzkategorien nicht angewandt werden, (230)  ist im aktuellen Standard der ICRA nicht verwirklicht worden. (231) 
In seinem Essay “Why I Will Not Rate My Site” hat Jonathan Wallace dargelegt, warum er nicht bereit ist, seine Webseite “An Auschwitz Alphabet”, auf der er über den Holocaust informiert, nach einem Ratingsystem zu kennzeichnen. Er geht dabei davon aus, daß es eine ähnliche Abstufung wie beim amerikanischen System zur Bewertung von Kinofilmen geben würde. Aufgrund der notwendigerweise auf der Seite beschriebenen Grausamkeiten müßte er seine Seite in eine Kategorie einordnen, die sie auf eine Stufe stellt wie irgendeine Sexseite ohne pädagogischen Nutzen. (232)  Allerdings ist zu beachten, daß Wallaces Artikel 1996 geschrieben wurde und das aktuelle System der ICRA es nun vorsieht, den Inhalt von Seiten wie die von Wallace als “in einem Zusammenhang mit erzieherischer Absicht” stehend kennzeichnen kann. Eventuell könnte das die Vorbehalte von Wallace gegen die Kennzeichnung nivellieren. Dagegen spricht allerdings, daß er weiterhin objektiv seine Seite mit den Labels “Sexualgewalt / Vergewaltigung”, “Blut und Blutvergießen, Menschen” und “Tötung von Menschen” beschreiben müßte, was im Effekt doch zu einer Sperrung in den meisten Fällen führen könnte, da Eltern wahrscheinlich nicht gewillt sind, “Sexualgewalt” und “Töten von Menschen” - auch in “erzieherischer Absicht” - zuzulassen.
Durch die Marktmacht der Mitglieder der ICRA könnte sich deren Bewertungssystem tatsächlich als Quasi-Standard durchsetzen, insbesondere da die ICRA die entsprechende Software von der Mitgliedsfirma Microsoft entwickeln läßt, die “bekannt dafür [ist], 'Innovationen' gleich in ihre Betriebssysteme zu integrieren.” (233)  Da Microsoft den Markt für Betriebsysteme dominiert, wäre durch eine Integration von ICRA in kommende Versionen des Microsoft-Betriebsystems “Windows” “die Infrastruktur fürs Filtern [...] auf zahlreichen Desktops implementiert”. (234)  Folgerichtig gehört zu den zukünftigen Fähigkeiten des von Microsoft hergestellten Webeditors (Programms zur Erstellung von Webseiten) “Frontpage” die Integration des ICRA-Labels in den Html-Code per Mausklick. (235)  Bereits 1997 hatten die Betreiber der populären Suchmaschinen “Lycos”, “Yahoo” und “Excite” angekündigt, demnächst nur noch nach dem PICS-Standard gekennzeichnete Seiten aufzunehmen. (236)  Da sowohl Yahoo als auch Lycos mittlerweile Tochterfirmen besitzen, die eine große Anzahl kostenloser Homepages anbieten, könnten sie sich auch dazu entscheiden, diesen Dienst zukünftig ebenfalls ausschließlich für nach ICRA eingestufte Seiten anzubieten. Besonders der Ausschluß nichtgelabelter Seiten aus den Suchmaschinen würde praktisch dafür sorgen, daß der Autor einer Homepage zur Selbsteinstufung gezwungen ist, wenn er von einer großen Anzahl von Nutzern noch gefunden werden will. (237) 
Eines der größten Probleme dürfte aus der Möglichkeit resultieren, daß Seiten sich absichtlich falsch auszeichnen, um die Filterung zu umgehen. Für diesen Fall sieht die ICRA vor, die Nutzung des Codes auf der Webseite zu verbieten, da sie die Urheberrechte an dem Code besitzt und somit den Einsatz bei Mißbrauch auch verbieten kann. (238)  Durch den Versuch der ICRA, Konfliktfälle zivilrechtlich über das Urheberrecht zu regeln, vermeidet sie, den jeweiligen Staat sich durch eigens konstruiert Gesetze gegen das falsche Einstufen von Webseiten an der Filterung zu beteiligen. Die Durchsetzung auch des zivilrechtlichen Anspruchs ist allerdings ohne ein Eingreifen des Staates nicht möglich, so daß eine Lösung im “staatsfreien Raum” durch ICRA nicht erreicht wird. (Möglich wäre eine solche Lösung mittels verschlüsselter Zertifikate, was allerdings wiederum Probleme anderer Art nach sich zöge. (239) ) Andererseits birgt der Umstand, daß der Code, der zur Beurteilung der Webseiten benötigt wird, Privatbesitz ist, die Gefahr, daß der Urheber seine Rechte an dem Code über den zunächst propagierten Zweck hinaus nutzt. Unliebsamen Webseiten könnte die Nutzung untersagt werden, obwohl die Einstufung korrekt ist (dies könnte z. B. die Gegner von ICRA treffen) und theoretisch wäre sogar die Erhebung einer Gebühr für die Nutzung des Codes denkbar. Auch bei der ungerechtfertigten Entziehung des Labels (was allerdings allein durch den Anbieter des Labels - also hier der ICRA - nur geschehen könnte, wenn verschlüsselte Labels eingesetzt würden, deren Gültigkeit auch beendet werden kann (240) ) wäre der Staat die einzige Möglichkeit, über die sich ein ungerecht behandelter Webautor wehren könnte. (241) 
Allerdings funktioniert der zivilrechtliche Weg auch nur in den Ländern, die das Urheberecht der ICRA an dem Code anerkennen und sowohl das Interesse als auch die Möglichkeiten haben, die Urheberechte der ICRA durchzusetzen. In Ländern, wo das nicht der Fall ist, könnte ein “gefälschtes” ICRA-Label ohne Probleme genutzt werden, da die ICRA selbst keine Möglichkeit hat, die “mißbräuchliche” Verwendung ihres Systems zu verhindern. Eventuell würde man in diesem Fall dazu übergehen, Seiten, deren “falsche” Auszeichnung entdeckt wurden, generell zu blocken. Ebenfalls wäre denkbar, daß Seiten aus den fraglichen Ländern generell ausgeblendet würden, um so auf der einen Seite keine unerwünschten Seiten wegen ihres unzutreffenden Labels anzuzeigen und auf der anderen Seite auch die Regierung des Landes unter Druck zu setzen, gegen die fehlerhaften Kennzeichnungen vorzugehen.
Hoff betont, daß der Einsatz der Filtersoftware der ICRA freiwillig ist und somit jeder Nutzer selbst entscheiden muß, ob er die Lösung der ICRA einsetzen will oder nicht. Er selbst wolle etwa nicht die ganze Zeit von einer Software verfolgt werden. (242)  Eine solche Freiwilligkeit funktioniert allerdings nur dann, wenn das fragliche Filterprogramm ausschließlich auf dem Computer des Nutzers installiert ist. Sobald etwa der Internetprovider das Programm standardmäßig einsetzt, kann der Nutzer die Filter nicht mehr ausschalten.
Außerdem kann das Filterprogramm durch den Nutzer bisher nicht gänzlich frei konfiguriert werden, so daß es völlig von seinen Interessen abhängt, welche Seiten er zulassen möchte (auch abgesehen von den Beschränkungen die durch das Design des Filtersystems der ICRA selbst entstehen), da sowohl Pornoseiten als auch rassistische Webseiten grundsätzlich ausgeblendet werden. (243) 






4. 4. 4. 2. 1. Änderung der Struktur des Internets


Lawrence Lessig, Jura-Professor in Harvard, faßt seine ablehnende Haltung gegenüber PICS kurz und pointiert in dem Satz zusammen “Blocking software is bad enough - but in my view, PICS is the devil.” (244)  Seine Ablehnung beruht auf der Überlegung, daß durch die flächendeckende Einführung von PICS die Ratinginformationen wie selbstverständlich zu den Dokumenten des Internets hinzugehören werden, also auch ein Teil der Infrastruktur des Netzes werden. Dadurch würde es unfreien Staaten wie China einfach gemacht, ihre Bürger von unerwünschten Webinhalten fernzuhalten, (245)  weil die nötigen Informationen darüber, welche Seite harmlos ist und welche nicht, nicht erst schwierig von den staatlichen Zensoren für jede einzelne Webseite herausgefunden werden muß, sondern bereits vom Autor der Seite automatisch in sein Dokument eingebaut wird. Der Abruf ungekennzeichneter Seiten könnte dann etwa in China überwacht und überprüft werden (im Gegensatz zur aktuellen Lage, in der alle Zugriffe überwacht werden müßten, was praktisch nicht zu leisten ist) und dann nach den eigenen Kriterien bewertet werden, so daß, “falls Tan sich Dokumente runterzieht, die die Demokratie glorifizieren, [ihm ...] wohlmöglich jemand einen Besuch abstattet.” (246)  Durch die Integration der Inhaltswertung in die Dokumente wäre dadurch nicht nur leichter möglich, unerwünschte Inhalte zu sperren, sondern auch die Überwachung der einzelnen Nutzer wäre erheblich vereinfacht, da durch die inhaltliche Klassifizierung weitaus einfacher Nutzungsprofile erstellt werden könnten als durch umständliche Analyse aller aufgerufenen Seiten. Das gefährdet in erster Linie Bürger totalitärer Staaten und vermindert damit die Hoffnung, (247)  daß durch den freien Informationsfluß über das Internet die Einwohner totalitärer Staaten mit den Ideen der Freiheit im westlichen Sinne in Berührung kämen und es so allmählich zu Veränderungen in diesen Staaten kommt, (248)  kann aber auch in demokratischen Staaten virulent werden, in denen zwar der Staat verfassungsmäßig an der Erstellung von Nutzungsprofilen gehindert ist, aber eine solche Überwachung aus kommerziellen Gründen (etwa zur wirkungsvolleren Werbung) durch privatwirtschaftliche Firmen durchgeführt werden könnte. Für solche Fälle fordert Lessig - gegen die sonst verbreitete “Staatsfeindlichkeit” der Internet-“Bürgerrechtler” - daß der Staat den Auftrag hat, eine solche Überwachung zu verhindern. (249) 



Fußnote 64      Hierunter zählt Schröder u.a. die “Berliner Erklärung” der Konferenz “Verbreitung von Hass im Internet” vom 27. Juni 2000. Vgl. Burkard Schröder, Rechtsextremismus im Internet, in: Aus Politik und Zeitgeschichte 39/2000 (Schröder), 50.


Fußnote 65      Schröder 51.

Fußnote 66      Dragan Espenschied / Alvar C. H. Freude, Das Netzwerk ist dezentral, in: dies., insert-coin. 19. 1. 2001 (Espenschied / Freude).

Fußnote 67      Schröder 51.

Fußnote 68      Daneben besteht für Studenten die Möglichkeit, sich ohne zusätzliche Gebühren über das Netzwerk des DFN (Deutsches Forschungsnetz) mit dem Internet zu verbinden. Da die für den Zugang meist anfallenden Gebühren für Ortsgespräche der Deutschen Telekom jedoch die Internetgebühren der ISPs übersteigen, wird diese Möglichkeit fast ausschließlich durch öffentlich zugängliche Rechner der Universität genutzt, die direkt an das DFN angeschlossen sind, so daß keine Telefongebühren anfallen.

Fußnote 69      Vgl. Espenschied / Freude.

Fußnote 70      Vgl. Florian Rötzer, Saudi Arabien sperrt wegen Pornographie Zugang zu den Yahoo-Clubs, in: Telepolis 14. 8. 2000

Fußnote 71      Ein Proxy-Server kann grundsätzlich zwischen den Rechner des Nutzers und dem Internet geschaltet werden. Er empfängt die Anfragen des Nutzers und leitet sie an die entsprechenden Server im Netz weiter, empfängt das Ergebnis und leitet dieses an den anfragenden Rechner weiter. Normalerweise dient ein solches Vorgehen nicht der Zensur, sondern der Wirtschaftlichkeit oder der Sicherheit des Nutzers. Vgl. Jens Elkner, Wissenswertes über Proxy Caches.

Fußnote 72      Dragan Espenschied / Alvar C. H. Freude, Die Filter-Software, in: dies., insert-coin 25. 3. 2001 (Filter).

Fußnote 73      Der Proxyserver von Espenschied und Freude basiert auf der frei verfügbaren Webserver-Software “Apache”, die sich mittels der Programmiersprache Perl an die Bedürfnisse der jeweiligen Serverbetreiber anpassen läßt. Vgl. Filter.

Fußnote 74      Dabei handelte es sich um alle Zugriffe, die über das interne Netzwerk der stuttgarter “Merz-Akademie” erfolgten, einer staatlich anerkannten Hochschule für Gestaltung.

Fußnote 75      Vgl. Dragan Espenschied / Alvar C. H. Freude, Manipulationen und Reaktionen, in: dies., insert-coin 12.05. 2001 (Manipulationen); Filter.

Fußnote 76      Vgl. ebd.

Fußnote 77      Webdesigner nutzen zur Strukurierung des html-Quellcodes ihrer Homepages oft Kommentare, die zwar bei der Betrachtung der Seite vom Browser nicht angezeigt werden, aber im Quellcode sichtbar sind, so daß die Autoren der Seite einfacher Veränderungen an den z. T. sehr komplex programmierten Seiten vornehmen können.

Fußnote 78      Webmaildienste erlauben des Versenden von eMails über Formulare auf ihren Seiten im Web. Normalerweise sind zur Versendung von eMails eigenständige eMail-Programme nötig. Durch die Webmaildienste können eMails von jedem Computer mit Internetzugang empfangen und abgeschickt werden.

Fußnote 79      Die “In-Box” ist der “Briefkasten”, also der Bereich, in dem alle eingegangenen eMails aufgelistet werden. Auf ihn kann normalerweise neben dem Betreiber des Dienstes nur der Empfänger der eMails zugreifen, er gehört also zur “Privatsphäre” im weiteren Sinne.

Fußnote 80      Manipulationen.

Fußnote 81      Vgl. Manipulationen.

Fußnote 82      Manipulationen.

Fußnote 83      Hierbei handelte es sich um einen Internet-Gag, der sich auf das auf breite Ablehnung gestoßene Vorgehen des “Kinder-Schokoladen”-Herstellers Ferrero bezieht, aufgrund ihrer Marke “Kinder” etwa die Internetdomain “kinder.at” für sich zu beanspruchen und den bisherigen Besitzer gerichtlich zur Überlassung zwingen zu wollen. Vgl. Süßwarenkonzern will "Kinder"-Domain freiklagen, in: heise online 22.12.2000.

Fußnote 84      Vgl. Manipulationen.

Fußnote 85      Vgl. ebd.

Fußnote 86      Manipulationen.

Fußnote 87      Um die Leistungsfähigkeit des Proxy-Servers von Espenschied und Freude zu testen, habe ich meinen Browser absichtlich auf den manipulierten Proxy-Server eingestellt. Dabei waren mir die Veränderungen auf den absichtlich zum Überprüfen des Proxys aufgerufenen Seiten bewußt, auf den Seiten, die ich normalerweise aufrufe und die automatisch aktualisiert wurden, fielen sie mir allerdings erst auf, als ich den Proxy abgeschaltet hatte und die “echte” Seite betrachtete.

Fußnote 88      Thomas C Green, US company defeats Brit RIP Act, in: The Register 30. 3. 2001 (Green).

Fußnote 89      Vgl. Frank Patalong, Jetzt kommt der Hacker-Browser, in: Spiegel online 8. 5. 2001 (Patalong); Jason Soares, Hacker tool lets freedom ping: 'Peekabooty' set to circumvent state-sponsored censorship, in: The Experiment 11. 5. 2001 (Soares); Hacker wollen schrankenlose Informationsfreiheit, in: heise online 6. 5. 2001; Anti-Zensur-Projekt von Hackergruppe verzögert sich, in: heise online 28. 6. 2001 (Anti-Zensur-Projekt).

Fußnote 90      Vgl. Green; Patalong; Soares; Anti-Zensur-Projekt.

Fußnote 91      Vgl. Erik Möller, Kopieren ohne Grenzen. Dateien tauschen in Peer-to-Peer-Netzen, in: magazin für computertechnik 6/2001 (Möller), 150.

Fußnote 92      Möller 150.

Fußnote 93      Als AOL aufgrund eigener entgegengesetzter wirtschaftlicher Interessen die Weiterentwicklung von Gnutella einstellte, wurde das den ersten Programmen zugrundeliegende Softwareprotokoll von einigen Hackern dokumentiert, so daß mittlerweile eine große Anzahl unabhängiger Programme existieren, die dieses Protokoll benutzen. Vgl. Möller 151.

Fußnote 94      Vgl. ebd.

Fußnote 95      Vgl. ebd.

Fußnote 96      Vgl. ebd. 152f.

Fußnote 97      Vgl. Green.

Fußnote 98      Vgl. ebd.

Fußnote 99      The Hacktivismo FAQ v1.0, 10. 7. 2001 (Hacktivismo FAQ).

Fußnote 100      Hacktivismo FAQ: “It allows clients to evade most forms of DNS filtering and make Web page requests directly to a distributed server cloud that processes the requests and trans-serves content back to the requesting client.”

Fußnote 101      Vgl. Steve Gold, Filter-Bypassing Web Browser 'Peekabooty' Coming Soon, in: Newsbytes 16. 5. 2001.

Fußnote 102      Vgl. Thomas C Green, Censorware outfit targets cDc's anonymity app 'Peekabooty', in: The Register 18. 5. 2001.

Fußnote 103      Anti-Zensur-Projekt.

Fußnote 104      Patrick Brauch, Alarmstufe Neun. Hackermesse in Las Vegas, in: magazin für computertechnik 16/2001 (Alarmstufe), 40.

Fußnote 105      Peer-to -Peer (P2P) ist nur eine der Möglichkeiten, die das hier im englischen Text gebrauchte “peer networking” enthält, so daß tatsächlich eine größere Bandbreite an Möglichkeiten der Nutzung von “Peekabooty” existieren wird, die Beschränkung auf das oben erläuterte P2P-Prinzip dürfte in unserem Zusammenhang aber ausreichend sein.

Fußnote 106      Thomas C Green, Will cDc privacy app Peekabooty put users at risk?, in: The Register 19. 7. 2001 (Privacy app): “Peekabooty is a peer networking application which enables users in countries where Internet content is censored to host and retrieve forbidden content [...].”

Fußnote 107      Vgl. ebd; Alarmstufe 40.

Fußnote 108      Aus Privacy app wird allerdings nicht deutlich, ob der Nutzer in der Diktatur den verbotenen Inhalt auf seinem eigenen Rechner bereithält oder Nutzer in anderen Ländern Resourcen auf ihren Rechnern dafür bereithalten werden.

Fußnote 109      Privacy app: “quickly wipe the disk of the tool (securely)” . Der Programmierer betont, daß die Löschung “sicher” geschieht, weil beim normalen Löschen unter Windows die Daten nicht gelöscht, sondern nur ihr Platz auf der Festplatte wieder als “frei” deklariert wird. Die gesamten Daten können solange ohne den geringsten Datenverlust wiederhergestellt werden, bis sie vollständig von anderen Informationen überschrieben werden, was allerdings im Normalfall erst nach einiger Zeit geschieht. Vgl. Harald Bögeholz / Peter Siering , Datenpuzzle.Mit dem Diskeditor auf Datensuche. in: magazin für computertechnik 6/2000.

Fußnote 110      Vgl. Privacy app.

Fußnote 111      Das bedeutet, daß der Quelltext des Programms ebenfalls frei erhältlich ist und von jedermann verändert d.h. weiterentwickelt werden darf. Zumeist muß die Weiterentwicklung dann ebenfalls im Quelltext frei zugänglich sein.

Fußnote 112      Vgl. Privacy app.

Fußnote 113      Vgl. Wolfgang Coy, Media Control. Wer kontrolliert das Internet?

Fußnote 114      Eugene Volokh, Speech and Spillover, in: Slate 18. 7. 1996 (Volokh).

Fußnote 115      Volokh: “very sexually explicit”.

Fußnote 116      Volokh: “Psychologists and philosophers can debate this, but as a constitutional matter, the question is settled.”

Fußnote 117      Vgl. Volokh.

Fußnote 118      Volokh: “Perhaps [...]spillover questions should always be resolved in favor of free speech. Perhaps children's increased vulnerability is a price worth paying for extra freedom for adults.”

Fußnote 119      Volokh: “mark[] 'dirty' in a way that computers can easily recognize”.

Fußnote 120      Vgl. Volokh.

Fußnote 121      Vgl. Hal Abelson / Mike Goldwin, Response to Volokh article ("Speech and Spillover," posted Thursday, July 18) in Slate e-mag (30. 7. 1996) (Abelson / Goldwin).

Fußnote 122      Abelson / Godwin: “Volokh attempts to raise doubts about the effectiveness of
     selection/filtering software”
.

Fußnote 123      Ebd.: “to support his thesis that technical solutions will never resolve what he sees as a perennial 'spillover' problem”.

Fußnote 124      Ebd.: “inexpensive and highly adaptable tools”.

Fußnote 125      Ebd.: “two important social interests -- the protection of children and the preservation of First Amendment rights”.

Fußnote 126      Patrick Brauch, Schutz vor Schmutz? Was Internet-Filtersoftware in der Praxis taugt, in: magazin für computertechnik 23/2000 (Brauch), 230; Harry Hochheiser, Computer Professionals for Social Responsibility Filtering FAQ. Version 1.1 (25. 12. 1997) (Hochheiser); Seth Finkelstein / Lee Tien, Blacklisting Bytes (=EFF/Finkelstein Censorware White Paper #1) (6. 3. 2001) (Finkelstein / Tien).

Fußnote 127      Vgl. Mini-Internet für Kinder, in: Hamburger Abendblatt 14. 11. 2000 (Mini-Internet); Abelson / Godwin; Hochheiser.

Fußnote 128      Vgl. Brauch 230; Finkelstein / Tien.

Fußnote 129      Vgl. Brauch 231; Hochheiser.

Fußnote 130      Vgl. Abelson / Godwin; Brauch 231;Finkelstein / Tien; Hochheiser.

Fußnote 131      Vgl. Brauch 232f.238.

Fußnote 132      Vgl. Alexander Ochs, “Sicheres Surfen” für die ganze Familie, in: xdial 25. 4. 2001 (Ochs); Mini-Internet.

Fußnote 133      Im Fall der Installation des Filterprogramms auf Nutzerseite gibt es zwei Arten von “Nutzern”, die im folgenden aber nicht explizit auseindergehalten werden, da der Kontext dies zumeist erübrigt: zunächst gibt es den Nutzer, der das Filterprogramm installiert und gegebenenfalls auch deinstallieren darf (bei einer Eltern-Kind-Konstellation also die Eltern) und den Nutzer, der den Computer nur mit dem Filterprogramm nutzen kann (Kind). Ebenso verhält es sich im Falle Arbeitgeber-Angestellter und ähnlicher Konstellationen.

Fußnote 134      Brauch 238.

Fußnote 135      Brauch 232.

Fußnote 136      Vgl. ebd.

Fußnote 137      Brauch 238 umschreibt das Alter so: “ein paar Jahre älter” als “ein sechs- oder achtjähriges Kind”.

Fußnote 138      Vgl. Brauch 238.

Fußnote 139      Teilweise läßt sich jedoch bei den Filtern auf Anbieterseite die Filterfunktion durch die Eingabe eines Paßwortes ausschalten.

Fußnote 140      Vgl. Mini-Internet; Ochs.

Fußnote 141      Die potentiell über Mininetz zugänglichen Seiten halten sich in sehr engen Grenzen, bei meinem Zugriff am 31. 7. 2001 waren ca. 2000 Seiten als zugänglich aufgelistet, tatsächlich aber war auch am folgenden Tag ausschließlich die Startadresse www.mininetz.de zugänglich, alle anderen Seiten waren gesperrt. Hingegen kann die Filtersoftware “Safe-T”, die ebenfalls mit einer reinen Positivliste arbeitet, allerdings auf dem PC des Nutzers installiert wird, mit einen Umfang von immerhin 2 Millionen freigeschalteter Webseiten aufwarten. Vgl. Stefan Krempl, Neue Kindersicherung fürs Netz. in: Telepolis 18.05.2001.

Fußnote 142      Vgl. Finkelstein / Tien; Hochheiser.

Fußnote 143      [Bennett Haselton], Blocking Software FAQ (Haselton).

Fußnote 144      Vgl. Brauch 236.

Fußnote 145      Vgl. Finkelstein / Tien.

Fußnote 146      Vgl. ebd.

Fußnote 147      Vgl. Brauch 231; Hochheiser.

Fußnote 148      Vgl. Finkelstein / Tien; Hochheiser.

Fußnote 149      Vgl. Helmut Merschmann, Anne Sexton wird ausgefiltert, in: Berliner Zeitung 13. 1. 2000.

Fußnote 150      Vgl. Haselton.

Fußnote 151      Vgl. Dragan Espenschied / Alvar C. H. Freude, Filtersysteme sind grundsätzlich abzulehnen, in: dies., insert-coin 27. 1. 2001 (Filtersysteme).

Fußnote 152      Vgl. Finkelstein / Tien.

Fußnote 153      Vgl. Brauch 234.

Fußnote 154      Vgl. Brauch 232. Da die Anpassung an deutsche Verhältnisse unzureichend durchgeführt wurde, wurden nur 45 Prozent der deutschen Sexseiten gesperrt.

Fußnote 155      Vgl. Brauch 232.235.

Fußnote 156      Filtersysteme.

Fußnote 157      Unter anderem die “Tennessee Christian Coalition” und “Americans for Tax Reform”.

Fußnote 158      Vgl. Brief einiger rechtskonservativer Gruppen an Mitglieder des amerikanischen Senats und des Repräsentatenhauses bezüglich eines Gesetzentwurfs zur Filterung des Internetzugangs in öffentlichen Schulen und Bibliotheken vom 11. 9. 2000. (Dokumentiert als “Right-wing groups' letter to legislations opposing censorware riders”).

Fußnote 159      Vgl. Finkelstein / Tien; Hochheiser.

Fußnote 160      Vgl. Filtersysteme; Finkelstein / Tien.

Fußnote 161      Vgl. Florian Rötzer, Kann eine GNU General Public Lizenz widerrufen werden?, in: Telepolis 28. 3. 2000 (Lizenz).

Fußnote 162      Marit Köhntopp / Kristian Köhntopp / Martin Seeger, Sperrung im Internet, in: Datenschutz und Datensicherheit 11/97; vgl. Marit Köhntopp / Kristian Köhntopp, Why Internet Content Rating and Selection does not work. 13. 9. 2000 (Köhntopp / Köhntopp).

Fußnote 163      Vgl. Kieren McCarthy, Cyber Patrol bans The Register, in: The Register 5. 3. 2001; Drew Cullen, This story is why Cyber Patrol banned The Register, in: The Register 8. 3. 2001 (Cullen); Web-Filtersoftware blockte IT-Newsdienst "The Register", in: heise online 11. 3. 2001 (Web-Filtersoftware).

Fußnote 164      Der Vergleich hinkt natürlich, da er insbesondere weder der deutschen Indizierungspraxis noch der inhaltlichen Ausrichtung des Nachrichtendienstes für Informationstechnologie gerecht werden kann. Er soll hier ausschließlich das Ausmaß der Filterung illustrieren.

Fußnote 165      Vgl. Drew Cullen, Cyber Patrol unblocks The Register, in: The Register 9. 3. 2001 (Cyber Patrol).

Fußnote 166      Vgl. Cullen.

Fußnote 167      Vgl. Cyber Patrol.

Fußnote 168      Vgl. Cyber Patrol; Web-Filtersoftware.

Fußnote 169      Vgl. Christiane Schulzki-Haddouti, Chaos Computer Club verleiht Preis an Siemens für Filtersoftware (Update), in: Telepolis 27. 3. 2001.

Fußnote 170      Vgl. Cyber Patrol.

Fußnote 171      Vgl. Cyber Patrol; Web-Filtersoftware.

Fußnote 172      Vgl. ebd.

Fußnote 173      Vgl. Florian Rötzer, Hacker aus Kanada und Schweden haben die Filtersoftware Cyberpatrol geknackt, in: Telepolis 16. 3. 2000 (Hacker).

Fußnote 174      Vgl. Ernst Corinth, Babelfish ist ein Pornograf, in: Telepolis 7. 3. 2001 (Corinth); Finkelstein / Tien.

Fußnote 175      Corinth.

Fußnote 176      Vgl. Cyber Patrol.

Fußnote 177      Vgl. Hacker.

Fußnote 178      Vgl. Lizenz.

Fußnote 179      Vgl. Volokh.

Fußnote 180      Vgl. Abelson / Godwin.

Fußnote 181      Damit soll vermieden werden, daß je nach Browserhersteller eigene, miteinander nicht kompatible Dialekte von HTML entstehen, so daß einzelne Webseiten nicht mehr allgemein, sondern nur in speziellen Browsern zu betrachten sind. W3C gibt damit (zumindest für HTML) den Standard vor, den alle Firmen beachten sollten.

Fußnote 182      Vgl. Patrick Brauch, Content-Rating: PICS gegen Schmuddeltexte, in: magazin für computertechnik 23/2000 (Content-Rating), 231.

Fußnote 183      [Boris Gröndahl], Privatisierung der Zensur, in: Spiegel online 15. 8. 1997 (Gröndahl).

Fußnote 184      Vgl. Dragan Espenschied / Alvar C. H. Freude, Die Standardisierung der Zensur, in: dies., insert-coin 10. 1. 2001 (Standardisierung); Alexander Gruhler, PICS - eine moderne Version der Zensur?, in: Telepolis 7. 5. 1998 (Gruhler); Gröndahl; Hochheiser.

Fußnote 185      Vgl. Simson Garfinkel, Good Clean PICS, in: Hotwired 5. 2. 1997 (Garfinkel); Lawrence Lessig, Tyranny in the Infrastructure, in: Wired 5.07 (Juli 1997) (Lessig).

Fußnote 186      Vgl. Garfinkel; Gröndahl; Gruhler; Hochheiser.

Fußnote 187      Gröndahl.

Fußnote 188      Vgl. Gruhler.

Fußnote 189      Vgl. Garfinkel.

Fußnote 190      Garfinkel.

Fußnote 191      Gröndahl.

Fußnote 192      Vgl. Garfinkel; Hochheiser; Lessig.

Fußnote 193      Vgl. Stefan Krempl, Die große Filteroffensive, in: Telepolis 10. 9. 1999 (Filteroffensive); Content-Rating 231; Gröndahl; Standardisierung.

Fußnote 194      Vgl. Stefan Krempl, Filterinitiative ICRA: Wir sind die Guten, in: Telepolis 10. 4. 2001 (Filterinitiative); Gröndahl; Hochheiser; Standardisierung.

Fußnote 195      Vgl. Content-Rating 231.

Fußnote 196      Vgl. Gröndahl; Hochheiser.

Fußnote 197      Vgl. Garfinkel; Gröndahl; Hochheiser.

Fußnote 198      Vgl. ebd.

Fußnote 199      Vgl. Gruhler; Hochheiser.

Fußnote 200      Vgl. Gruhler.

Fußnote 201      Vgl. Hochheiser; Conten-Rating 231;

Fußnote 202      Siehe unten.

Fußnote 203      Vgl. Garfinkel; Gröndahl; Gruhler; Hochheiser.

Fußnote 204      Vgl. Gröndahl; Gruhler; Hochheiser; Content-Rating 231; Standardisierung. Ein drittes System namens NetShepard konnte sich nicht durchsetzen, vermutlich auch, weil es statt der Selbstklassifizierung auf die Einstufung durch die eigene Organisation setzte und somit wie die Anbieter von “konventioneller” Filtersoftware nur eine begrenzte Anzahl der existierenden Webseiten bewerten konnte. Ein weiterer Grund dürfte das Bewertungssystem selbst gewesen sein, da es nur eine Bewertung von einem bis zu fünf Sternen vorsah. Es ist wenig wahrscheinlich, daß sich daneben weitere Standards etablieren können, da eine große Anzahl von Seiten diese neuen Systeme berücksichtigen müßten, damit deren Nutzung sinnvoll wäre. Vgl. Hochheiser.

Fußnote 205      Filterinitiative.

Fußnote 206      Vgl. Filterinitiative; Filteroffensive.

Fußnote 207      Vgl. Filterinitiative; Filteroffensive.

Fußnote 208      Vgl. Monika Ermert, Internet-Filtern auf gut Deutsch, in: heise online 1. 3. 2001 (Ermert).

Fußnote 209      Vgl. Gruhler; Hochheiser.

Fußnote 210      Vgl. Standardisierung.

Fußnote 211      Vgl. Hochheiser; Standardisierung.

Fußnote 212      Vgl. ICRA: Inhaltsfilter fürs Web vorgestellt, in: heise online 8. 9. 2000 (Inhaltsfilter).

Fußnote 213      Ola-Kristian Hoff, zitiert nach Ermert.

Fußnote 214      Vgl. Internet Content Rating Association (ICRA), Klassifizierung Ihrer Site, [Webformular] (ICRA-Webformular).

Fußnote 215      Vgl. Inhaltsfilter.

Fußnote 216      Filteroffensive. Vgl. Filterinitiative; Gruhler.

Fußnote 217      Vgl. ICRA-Webformular.

Fußnote 218      Beispiel nach Standardisierung.

Fußnote 219      Vgl. ICRA-Webformular.

Fußnote 220      Standardisierung.

Fußnote 221      Vgl. Ermert.

Fußnote 222      Vgl. Filterinitiative.

Fußnote 223      Vgl. ebd.

Fußnote 224      Vgl. Gröndahl.

Fußnote 225      Vgl. Filterinitiative.

Fußnote 226      Vgl. Gröhndahl, Inhaltsfilter.

Fußnote 227      Vgl. Inhaltsfilter.

Fußnote 228      Vgl. ebd.

Fußnote 229      Gröndahl.

Fußnote 230      Vgl. Gröndahl.

Fußnote 231      Vgl. ICRA-Webformular. Es sei denn, man versteht die Informationen in Nachrichten grundsätzlich als “in einem Zusammenhang mit erzieherischer Absicht” stehend und erklärt sie damit als “für jüngere Kinder geeignet”.

Fußnote 232      Vgl. Jonathan Wallace, Why I Will Not Rate My Site, in: The Ethical Spectacle [1996].

Fußnote 233      Filterinitiative.

Fußnote 234      Ebd.

Fußnote 235      Vgl. Inhaltsfilter.

Fußnote 236      Vgl. Joseph D. Lasica, Ratings today, censorship tommorow, in: Salon 31. 7. 1997; Gröndahl; Gruhler.

Fußnote 237      Vgl. Sierk Harmann, Die Bundesregierung rät: schalten Sie gelegentlich Ihren Filter ab! [Interview von Monika Ermert], in: Telepolis 6. 2. 2000 (Harmann); Gruhler; Filterinitiative;

Fußnote 238      Vgl. Inhaltsfilter.

Fußnote 239      Vgl. Köhntopp / Köhntopp.

Fußnote 240      Vgl. ebd.

Fußnote 241      Vgl. Harmann.

Fußnote 242      Ola-Kristian Hoff, zitiert nach Filterinitiative.

Fußnote 243      Vgl. Filterinitiative. Das ist gleichzeitig ein Hinweis darauf, daß das System zum gegenwärtigen Zeitpunkt nicht darauf ausgelegt ist, an einer in der Netzhierarchie höher stehenden Position als dem Rechner des einzelnen Nutzers selbst (bzw. des Netzwerks eines Unternehmens) eingesetzt zu werden, da bekanntlich Sexseiten zu den meistgenutzten Seiten des Internetz zählen, so daß sich Provider selbst ein Bein stellen würden, wenn sie den Zugang dazu nicht mehr anbieten würden. Außerdem würden die Anbieter von Pornoseiten dann kaum bereit sein, ihre Seiten selber zu kennzeichnen.

Fußnote 244      Lessig.

Fußnote 245      Vgl. Lessig.

Fußnote 246      Garfinkel: “if Tan is pulling down documents that glorify democracy, somebody might just pay [him ...] a visit.”

Fußnote 247      Vgl. Garfinkel.

Fußnote 248      Vgl. Florian Rötzer, Lässt sich das Internet wirksam von autoritären Staaten kontrollieren?, in: Telepolis 22. 7. 2001; Garfinkel.

Fußnote 249      Vgl. Sara Miles, The Law of the Code, in: Wired 7.11 (November 1999).