0. Einführung
1. Grundsätzliches zur Internetethik
2. Internetaktivitäten, deren Verbot generell sinnvoll
erscheint
3. Herwart Holland-Moritz: Eine Stimme aus Deutschland für
grenzenlose Meinungsfreiheit
4. Die technischen Gegebenheiten und ihre ethische
Problematik
4. 1. Die technische Grundlagen
4. 1. 1. Der Mythos der Dezentralität
4. 1. 2. Existierende Zensurversuche
4. 2. Technische Möglichkeiten der Manipulation des
Internets
4. 2. 1. Manipulieren von Internetadressen
4. 2. 1. 1. Erschaffung neuer Domains
4. 2. 1. 2. Umleiten von Netzadressen
4. 2. 1. 3. Einfügen eigener Inhalte in fremde
Webseiten
4. 2. 1. 4. Austausch einzelner Wörter
4. 2. 2. Manipulationen bleiben unbemerkt
4. 2. 3. Manipulation ist möglich
4. 3. Technische Möglichkeiten, Filter zu
umgehen
4. 3. 1. Peer-to-Peer (P2P)-Netze
4. 3. 1. 1. Gnutella als dezentrales
Peer-to-Peer-Netzwerk
4. 3. 2. Filterumgehung per P2P-Netzwerk
4. 3. 2. 1. Das Programm Triangle
Boy
4. 3. 2. 2. Das Programm
Peekabooty
4. 3. 3. Sperrungen können umgangen werden
4. 4. Ratingsysteme und kommerzielle Filterprogramme als
Reaktion auf die Diskussion um staatliche Zensur in den USA
4. 4. 1. Die amerikanische Diskussion um staatliche
Internetzensur
4. 4. 1. 1. Eugene Volokh: Zwangskennzeichnung und
freiwilliger Filtereinsatz
4. 4. 1. 2. Abelson und Godwin: Freiwillige Filterung
ohne jeden staatlichen Zwang
4. 4. 2. Filterprogramme
4. 4. 2. 1. Funktionsweise von Filterprogramme
4. 4. 2. 2. Möglichkeit des Umgehen der Filter
auf dem Nutzerrechner
4. 4. 2. 3. Grundsätzliche Probleme von
Filtersoftware
4. 4. 2. 3. 1. Positivlisten sind praktisch
unrauchbar
4. 4. 2. 3. 2. Filtern nach Schlüsselworten
4. 4. 2. 3. 2. 1. Problem: Ausfiltern
harmloser Seiten
4. 4. 2. 3. 2. 2. Problem: Auswahl der
Filterkriterien
4. 4. 2. 3. 2. 3. Mißbrauch der Filter durch
den Hersteller
4. 4. 2. 3. 2. 3. Logisch notwendiges Blocken an
sich harmloser Seiten
4. 4. 2. 3. 2. 4. Versteckte, nicht aufhebbare
Sperranweisungen
4. 4. 2. 3. 3. Filter funktionieren nicht wie
erforderlich
4. 4. 3. Der Bewertungsstandard für Webseiten
PICS
4. 4. 4. Das PICS-System ICRA
4. 4. 4. 1. Das Kategoriensystem von ICRA
4. 4. 4. 2. Grundsätzliche Probleme von PICS im
allgemeinen und ICRA im besonderen
4. 4. 4. 2. 1. Änderung der Struktur des
Internets
5. Rechtliche Situation in Deutschland
6. Ethische Bewertung
7. Resümee
8. Literatur
4. Die technischen Gegebenheiten und ihre ethische Problematik
4. 1. Die technische Grundlagen
4. 1. 1. Der Mythos der Dezentralität
Außerhalb platter Forderungen technischer Laien
(64) wird im Zusammenhang mit Zensur im Internet gemeinhin darauf verwiesen, daß das Internet als dezentrales Netz schon von seiner technischen Struktur her Zensur nicht ermöglicht. Da es ohne Hierarchien auskommt, sind staatliche Eingriffe [...] qua Prinzip zum Scheitern verurteilt.
(65) Wie jedoch Espenschied und Freude dargelegt haben, bezieht sich diese Darstellung nur auf den Weg, den Datenpakete üblicherweise durch das Netz nehmen.
(66) Dabei nämlich werden die Informationen [...] in einzelne Datenpakete zerlegt, die sich, versehen mit der richtigen Adresse, unabhängig auf den Weg machen und erst auf dem Zielrechner zusammengesetzt werden.
(67) Um jedoch überhaupt an dem weltweiten Datenverkehr im Internet teilnehmen zu können, muß man sich an einem meist hierarchisch strukturierten Netzwerk einloggen, das selbst an der dezentralen Struktur des Internets beteiligt ist. Dieses Netzwerk stellen Internet-Zugangsvermittler (Internet Service Provider=ISP), wie etwa AOL, T-Online, freenet oder Tiscali, gegen Gebühr zu Verfügung.
(68) Diese Netzwerke sind Besitz und Kapital der jeweiligen Betreiberfirma. Nur über diese Infrastruktur kann der einzelne Nutzer auf die Inhalte des Internets zugreifen. Da er somit auf ein hierarchisches Netzwerk angewiesen ist, um auf das dann dezentral organisierte Internet zuzugreifen, ist es an diesem Übergangspunkt theoretisch möglich, den Zugriff auf das Internet zu kontrollieren und zu reglementieren.
(69)
4. 1. 2. Existierende Zensurversuche
Solche Zugangskontrollen werden heute auch schon tatsächlich durchgeführt. So ist z. B. in Saudi-Arabien der Internetzugang nur über einen staatlich kontrollierten Proxy-Server möglich. Internetseiten, die von einem Komitee als unmoralisch oder aus anderen Gründen ungeeignet bestimmt wurden, können (auch technisch) nicht abgerufen werden und der Nutzer wird darüber informiert, daß sein Zugriffsversuch registriert wurde.
(70) Möglich ist diese Sperrung, weil auf dem zwischen dem Nutzer und dem Internet geschalteten Proxy-Server
(71) die Inhalte des Netzes zwischengespeichert werden und durch technische Filter nur diejenigen Inhalte an den Nutzer weitervermittelt werden, die als geeignet angesehen werden.
4. 2. Technische Möglichkeiten der Manipulation des Internets
Espenschied und Freude demonstrierten in ihrem Projekt insert-coin, welche Möglichkeiten sich allein dadurch eröffnen, daß der gesamte Datenverkehr über einen manipulierten Proxy-Server läuft.
(72) Mit einer für dieses Experiment geschriebenen Software
(73) gelang es den beiden Programmierern, den gesamten Internetverkehr von ca. 200 Studenten zu kontrollieren und zu manipulieren.
(74) Neben der Protokollierung und Auswertung aller aufgerufenen Seiten war es mit dieser Software möglich, Domainnamen zu fälschen und den Inhalt beliebiger Webseiten für den Betrachter zu verändern.
4. 2. 1. Manipulieren von Internetadressen
4. 2. 1. 1. Erschaffung neuer Domains
Durch ihren manipulierten Proxy-Server konnten die beiden Autoren frei beliebige Internetdomains erfinden, die zwar nicht tatsächlich existierten, aber von den (unfreiwilligen) Nutzern ihres Proxys so angesteuert werden konnten, als ob sie tatsächlich existierten. Ein Unterschied zu tatsächlich existierenden Domains war nicht zu erkennen. Espenschied und Freude erfanden z. B. die amerikanische Regierungsdomain interad.gov, die angeblich für Werbeschaltungen im gesamten Netz zur Finanzierung des Internets verantwortlich war. Jeder Nutzer des Proxyservers konnte die Adresse interad.gov in seinem normalen Standardbrowser eingeben und die von den Autoren dafür vorgesehene Seite erschien und zeigte im URL-Fenster des Browsers auch interad.gov als Adresse, obwohl in Wahrheit eine Seite mit einer vollständig anderen Adresse aufgerufen wurde und die angegebene Adresse auch nicht existiert. Nach gleichem Muster erschufen die Autoren eine Webseite, die zwar auch nicht existiert, aber die Adresse eines bekannten Internetunternehmens nutzt. Sie erfanden die Adresse netzgegenrechts.yahoo.de. Die Adresse yahoo.de existiert, während die Subdomain netzgegenrechts.yahoo.de frei erfunden war. Die Nutzer des Proxy-Servers konnten sowohl die unveränderte Seite von yahoo.de als auch die frei erfundene Seite netzgegenrechts.yahoo.de in ihrem Browser aufrufen, ohne daß ein Unterschied zu erkennen war.
(75)
4. 2. 1. 2. Umleiten von Netzadressen
In einer späteren Phase des Experiments gingen die beiden Autoren dazu über, komplette Webadressen zu vertauschen. So erschien bei der Eingabe von focus.de regelmäßig die Webseite des Spiegels. Trotzdem zeigte der Browser als URL unbeirrt focus.de an. Auch alle Links wie etwa spiegel.de/netzwelt/ zeigte der Browser als focus.de/netzwelt/ an.
(76)
4. 2. 1. 3. Einfügen eigener Inhalte in fremde Webseiten
Durch die mißbräuchliche Nutzung von Kommentarzeilen
(77) fremder Homepages konnten Espenschied und Freude zusätzliche komplexe Inhalte einfügen, die von den Betrachtern für ursprünglich zu der Seite hinzugehörig gehalten wurden. So fügten sie bei den vier unter den Nutzern ihres Proxys beliebtesten Webmaildiensten
(78) über der In-Box
(79) einem Hinweis einer fiktiven Brieffreundschaftsorganisation auf, die einen potentiellen (ebenfalls fiktiven) Brieffreund mit Bild und Beschreibung vorstellte, der 'für Sie aufgrund Ihrer persönlichen Einstellungen und Ihres Surfverhaltens' ausgesucht wurde.
(80) Dabei war der eingefügte Hinweises jeweils im Design des manipulierten Dienstes gehalten, so daß die Manipulationen trotz deutlicher Verstöße gegen die realen Geschäftsbedingungen der Freemaildienste nicht auffielen.
(81)
4. 2. 1. 4. Austausch einzelner Wörter
Weiterhin vertauschte der manipulierte Proxy einzelne Wörter und änderte dadurch den Sinn aller angezeigten Homepages zum Teil erheblich. So vertauschte die Software die Wörter 'und', 'oder' und 'aber' [...] mit einer gewissen Wahrscheinlichkeit
(82) , änderte grundsätzlich Gerhard Schröder in Helmut Kohl (und umgekehrt), ersetzte FDP durch RAF, SPD durch PDS und fügte in jedem Dokument anstelle des Wortes Kinder die Marke Kinder® mit einem Link zu Ferrero
(83) ein. Dadurch, daß das Perl-Programm des Proxy-Servers nur einen geringen Teil des html-Codes gegen einen anderen austauschte (und somit die Elemente der Seite, die das Aussehen bestimmen, unberührt blieben), sah die manipulierte Seite exakt so aus wie eine reale Seite. Vom Design der Seite her war es nicht möglich, die Manipulationen zu erkennen. Auf diese Weise gelang es sogar, den Inhalt privater eMails zu verändern, wenn sie über einen Webmaildienst (also technisch als Webseite) betrachtet wurden.
(84)
4. 2. 2. Manipulationen bleiben unbemerkt
Obwohl teilweise wirklich groteske Wortvertauschungen vorgenommen wurden,
(85) beklagen die Autoren nicht nur, daß die Manipulationen kaum wahrgenommen wurden, sondern mußten auch eingestehen, daß sie selbst andauernd auf [... ihre] eigenen Wort-Manipulationen hereingefallen sind.
(86) Die manipulierte Seite wird einfach aufgrund ihrer stilistischen Einheitlichkeit und der fehlenden Hinweise auf eine Veränderung von außen als echt eingestuft, sogar wenn man um die möglichen Manipulationen weiß.
(87)
4. 2. 3. Manipulation ist möglich
Espenschied und Freude haben mit ihrem Projekt gezeigt, daß eine weitgehende Manipulation des Internets technisch möglich ist. So wie Espenschied und Freude den Inhalt der einzelnen Seiten manipuliert haben, können ausgewählte Seiten auch gesperrt werden. Daß eine Zensur des Internets wegen seiner Dezentralität schon technisch nicht möglich ist, hat sich somit als Mythos erwiesen, weil das Netz an der entscheidenden Stelle, an der der Nutzer sich einwählt, hierarchisch strukturiert ist.
Nebenbei hat sich gezeigt, daß die Manipulation von Webseiten kaum bemerkt wird, weil die Nutzer auf die korrekte technische Übermittlung vertrauen. Solange die Nutzer die Manipulation (die auch in einer Blockierung liegen kann) aber nicht bemerken, sind sie ihr ausgeliefert und können sich nicht dagegen wehren.
Eine Sperrung einzelner mißliebiger Internetseiten wird mit einem Filtersystem durchgeführt, das an der Stelle, an der sich der Nutzer einwählt, installiert wird und erkennt, welche Anfragen erlaubt sind und welche nicht und je nach dem die Anfragen weiterleitet oder nicht.
4. 3. Technische Möglichkeiten, Filter zu umgehen
Zur Zeit gibt es zwei bekannte Versuche, staatliche oder von anderen Institutionen installierte Zwangsfilter zu umgehen. Hierbei handelt es sich zum einen um das Programm Triangle Boy der amerikanischen Firma SafeWeb, die auf sicheres anonymes Surfen spezialisiert ist,
(88) zum anderen um das im Mai 2001 bekannt gewordene Projekt Peekabooty der Hackergruppe Cult of the Dead Cow (cDc).
(89) Beide Projekte setzen hierbei anscheinend auf automatische Verschlüsselung und das Prinzip des Peer-to-Peer-Netzwerks, um zentrale Proxyserver zu umgehen.
(90)
4. 3. 1. Peer-to-Peer (P2P)-Netze
Bei Peer-to-Peer-Netzen werden die Informationen direkt von Nutzer zu Nutzer übertragen, ohne daß ein zentraler Server die Inhalte bereithält.
(91) Während normalerweise ein Nutzer eine bestimmte Webseite ansteuert und dort etwa ein Programm herunterlädt, das vorher von einem anderen Nutzer dort abgelegt wurde und das dort verbleibt, bis der Besitzer der Webseite es wieder löscht, werden bei Peer-to-Peer (P2P) -Verbindungen die Rechner desjenigen, der die Information bzw. die Datei anbietet und desjenigen, der sie abrufen möchte, direkt miteinander verbunden. Der bekannteste P2P-Service ist momentan die Musiktauschbörse Napster, bei der jedoch ein zentraler Server die Informationen bereithält, welcher angeschlossene Nutzer welche Dateien anbietet, so daß durch Schließung dieses zentralen Servers Sucher und Anbieter nicht mehr zueinander finden
(92) können.
4. 3. 1. 1. Gnutella als dezentrales Peer-to-Peer-Netzwerk
Das mittlerweile durch den Medienkonzern AOL Time Warner aufgekaufte Softwareunternehmen Nullsoft entwickelte mit Gnutella das erste Protokoll für ein völlig dezentral strukturiertes P2P-Netz.
(93) Hierbei dient der Rechner jedes Nutzers (Client - anfragender Rechner) zugleich als Server (angefragter Rechner - normalerweise ein zentraler Rechner), so daß er als Servant bezeichnet wird (Kombination aus Server und Client).
(94) Jeder Nutzer erhält eine gewisse Anzahl zufällig ausgewählter Adressen ebenfalls dem Netz angeschlossener Servants, mit denen er sich direkt verbinden kann. Erhält er von diesen eine Suchanfrage, überprüft er in seiner Serverfunktion die Dateien, die er selber anbietet und leitet die Suchanfrage an alle anderen mit ihm verbundenen Rechner weiter, die denselben Vorgang mit ihren angebotenen Dateien wiederholen.
(95) Verläßt ein Servant das Netz, so sucht jeder davon betroffene Servant einen anderen Servant als Ersatz, so daß auch dann, wenn durch diesen Ausstieg eine wichtige Verbindung innerhalb des Gnutella-Netzes wegfällt, eine Aufsplittung des Netzes verhindert wird.
(96) Aus diesem Grund ist eine grundsätzliche Abschaltung des Gnutella-Netzes und damit jedes dezentral organisierten P2P-Netzes technisch unmöglich.
4. 3. 2. Filterumgehung per P2P-Netzwerk
4. 3. 2. 1. Das Programm Triangle Boy
Dieses Konzept macht sich das Programm Triangle Boy von SafeWeb zunutze, um auch denjenigen anonymes surfen zu ermöglichen, deren Zugriff auf die Startseite von SafeWeb durch einen Filter gesperrt ist. Normalerweise kann dort in einem Webformular eine beliebige Webadresse angegeben werden, die dann von dem Nutzer betrachtet werden kann, ohne daß an irgendeiner Stelle seine Identität sichtbar wird. An allen Stellen, an denen normalerweise Hinweise auf die Identität des Nutzers auftauchen, erscheint nur die Identität der Firma WebSafe, auf Seiten des Surfers kann nur nachgewiesen werden, daß er die Seite der Firma selbst aufgerufen hat.
(97) Da es sich nun anbietet, die Startseite von SafeWeb zu blockieren, um den Zugriff auf unerwünschte Seiten zu verhindern, ermöglicht Triangle Boy, sich statt mit der SafeWeb-Hauptseite per Peer-to-Peer-Prinzip mit einen anderen Nutzer direkt zu verbinden, der das Programm Triangle Boy ebenfalls installiert hat und legal auf die für den ersten Nutzer gesperrten Seiten zugreifen kann. Der sendet die Anfragen weiter an den Hauptserver von SafeWeb (ohne die Anfragen selbst lesen oder abfangen zu können) von wo die Inhalte mit der IP-Adresse des zwischengeschalteten PCs an den Rechner des Anfragenden gesendet werden.
(98)
4. 3. 2. 2. Das Programm Peekabooty
Die bisherigen Informationen über das Hackerprojekt Peekabooty weisen in eine ähnliche Richtung. Die offizielle Stellungnahme der Hackergruppe beschränkt sich auf die Mitteilung, daß Peekabooty a distributed collaborative privacy network
(99) sein wird, mit dem Clients die meisten DNS-Filter umgehen und Webanfragen direkt an eine große Anzahl verteilter Server richten können, die die Anfrage ausführen und den Inhalt an den anfragenden Client zurücksenden.
(100) Die trotz offizieller Zurückhaltung der Hackergruppe in den Medien veröffentlichten technischen Details
(101) beruhen bisher größtenteils auf Spekulation,
(102) insbesondere nachdem die Gruppe die für Anfang Juli 2001 geplante Vorstellung ihres Programms verschoben hat.
(103) Mitte Juli stellten die Mitglieder der Hackergruppe dann der Öffentlichkeit nur ein funktionierendes Peekabooty-Netzwerk vor, verzichteten aber wie angekündigt auf die Veröffentlichung des Programms. Vorher sollen die Programmroutinen zur Tarnung des erzeugten Datenverkehrs perfektioniert werden, um die Anwender in autoritären Staaten so wenig wie möglich zu gefährden.
(104) Mittlerweile ist zumindest soviel klar, daß Peekabooty eine P2P-Netzwerk
(105) Anwendung ist, die es Nutzern in Ländern, die den Inhalt des Internets zensieren, ermöglicht, verbotene Inhalte zu veröffentlichen und zu erhalten.
(106) Dabei ist das Projekt ebenso wie Triangle Boy auf Nutzer in freien Staaten angewiesen, die die Software auf ihren Rechnern installieren und es so ermöglichen, daß die gewünschten Inhalte über ihren Rechner auf den des anfordernden Rechners weitergeleitet werden.
(107) Einige der beteiligten Rechner werden außerdem verbotene Inhalte selbst bereitstellen, auf die dann über Peekabooty zugegriffen werden kann.
(108) Dabei wird der Datenverkehr von Peekabooty verschlüsselt und gleichzeitig verschleiert, daß die Daten von Peekabooty herstammen, um die staatlichen Behörden (oder andere Aufsichtsgremien) nicht auf die Nutzung des Programms aufmerksam zu machen und somit den Nutzer verdächtig zu machen. Allerdings weist einer der Programmierer darauf hin, daß die Anwendung verschleiert, aber nicht versteckt werden kann, auch wenn eine Möglichkeit installiert werden soll, die es ermöglicht, das Programm schnell von der Festplatte zu entfernen - und das sicher
(109) , so daß die Nutzung in unfreien Staaten nicht ohne Risiko sein wird.
(110) Unabhängig von der Funktionsweise liegt das größte Potential von Peekabooty in dem Entschluß der Hacker, das Programm als Open Source
(111) zu veröffentlichen. Dadurch wird es durch alle interessierten Programmierer stetig weiterentwickelt werden können, so daß zumindest die Möglichkeit besteht, daß von interessierter Seite entwickelte Möglichkeiten, das Programm zu blockieren, in kürzester Zeit erneut umgangen sein werden
(112) - unabhängig von dem Engagement der ursprünglichen Programmierer.
4. 3. 3. Sperrungen können umgangen werden
Mit der entsprechenden Software lassen sich Sperrungen zentraler Filterprogramme umgehen, so daß der uneingeschränkte Zugriff wieder möglich ist. Die benötigte Software verschleiert auf technischem Wege ihren Einsatz und durch die Offenlegung des Quellcodes (zumindest eines Projekts) ist eine stetige Weiterentwicklung wahrscheinlich, die sich den jeweils eingesetzten Gegenmaßnahmen anpassen wird.
4. 4. Ratingsysteme und kommerzielle Filterprogramme als Reaktion auf die Diskussion um staatliche Zensur in den USA
4. 4. 1. Die amerikanische Diskussion um staatliche Internetzensur
Die Diskussion über Zensur des Internet wird hauptsächlich in dessen Heimatland, den USA geführt. Dabei wird manchmal der Aspekt vernachlässigt, daß es sich längst nicht mehr um ein amerikanisches, sondern um ein internationales Medium handelt, vor allem aber zeigt es sich daran, daß Befürworter und Gegner fast ausschließlich mit amerikanischen Gerichtsurteilen und der amerikanischen Verfassung argumentieren.
(113) Obwohl sich die extensive Auslegung von Meinungsfreiheit der amerikanischen Verfassung nicht auf die gesamte westliche Welt und auch nicht auf deutsche Rechtsverhältnisse übertragen lassen, zeigt die amerikanische Diskussion unabhängig von tatsächlicher Rechtsgeltung die grundsätzlichen (philosophischen) Positionen, die sich in dieser Frage gegenüberstehen.
4. 4. 1. 1. Eugene Volokh: Zwangskennzeichnung und freiwilliger
Filtereinsatz
Der amerikanische Jura-Professor Eugene Volokh diskutiert in seinem 1996 in dem Onlinemagazin Slate erschienenen Artikel Speech and Spillover
(114) die Möglichkeiten, Teile des Internets zu zensieren, ohne gegen die in der Verfassung der Vereinigten Staaten von Amerika garantierte Redefreiheit zu verstoßen. Er weist zu Beginn darauf hin, daß auch die Meinungsfreiheit (Recht auf freie Rede) ihre Grenzen hat. Neben offensichtlichen Beispielen wie Nötigung, Erpressung, und irreführende Werbung führt er die Entscheidung des amerikanischen Supreme Court an, daß Minderjährige keinen Rechtsanspruch haben, stark sexuell orientiertes
(115) Material zu sehen und Erwachsene kein Recht haben, ihnen solches Material auszuhändigen. Philosophen und Psychologen können darüber debattieren, aber verfassungsrechtlich ist die Frage entschieden.
(116) In der praktischen Umsetzung ist es jedoch oftmals schwierig, Kinder von Material fernzuhalten, ohne es Erwachsenen vorzuenthalten. So können Fernsehsender das Alter ihrer Zuschauer ebensowenig überprüfen wie der Besitzer einer Homepage das Alter seiner Besucher. Aus diesem Grund kann der Gesetzgeber nur entweder die Ausstrahlung bzw. die Bereitstellung generell untersagen und damit das Recht der Erwachsenen, solche Inhalte zu betrachten, verletzen oder sie generell erlauben und damit auch Kindern zugänglich machen. Somit stehen das Recht auf freie Rede und der Schutz der Minderjährigen gegeneinander: entweder die Einschränkungen, die für Minderjährige gelten sollen, werden auch auf Erwachsene ausgeweitet und beeinträchtigen somit deren (passives) Recht auf freie Rede oder die Redefreiheit dehnt sich auch auf Bereiche aus, in denen sie nach dem Willen der meisten Bürger (und Richter) nur eingeschränkt gelten soll.
(117) Die Lösung kann also nur durch Güterabwägung gefunden werden. Vielleicht sollten solche Ausweitungsprobleme immer zugunsten der Meinungsfreiheit entschieden werden. Vielleicht ist die gesteigerte Verwundbarkeit der Kinder ein Preis, den es sich zu für eine größere Freiheit Erwachsener zu zahlen lohnt.
(118) Eine Güterabwägung muß sich nach Volokh die Beeinträchtigungen beider gegeneinander abzuwägenden Rechtsgüter aufrichtig vor Augen halten, um zu erkennen, was man durch die jeweilige Entscheidung gewinnt und was man aber gleichzeitig notwendigerweise verliert. Nach dem Grundsatz des Übermaßverbotes, nachdem die Beeinträchtigung eines Rechtsguts unzulässig ist, wenn es eine weniger restriktive Möglichkeit gibt, das Ziel zu erreichen, plädiert Volokh für den Einsatz von Filterprogrammen, die es Eltern erlauben, sexuelle orientierte Seiten für ihre Kinder auszublenden, gleichzeitig aber Erwachsenen erlauben, auf diese Seiten zuzugreifen. Da die Firmen, die solche Programme anbieten, aufgrund des rapiden Wachstums und der ebenso schnellen Veränderungen im Internet nicht alle sexuell orientierten Seiten (rechtzeitig) erfassen können, schlägt er vor, daß die Anbieter solcher Seiten gesetzlich gezwungen werden sollen, ihre Seiten so als 'schmutzig' zu kennzeichnen, daß Computer es leicht erkennen können
(119) und den Zugang verwehren, falls der Filter aktiviert ist. Ebenfalls könnte der Filter alle Seiten blockieren, die nicht als sauber eingestuft wurden, wobei eine falsche Einstufung ebenfalls durch Gesetz verboten sein könnte. Obwohl Volokh als Problem erkennt, daß ausländische Webseiten durch amerikanisches Recht nicht gebunden wären, einige Kinder keinerlei Filter auf ihrem Computer installiert haben würden und Webseiten (absichtlich oder unabsichtlich) sich falsch einordnen würden, sieht er in diesem Vorschlag einen gangbaren Weg zwischen dem kompromißlosen Verbot sexueller Inhalte und der ungebremsten Verbreitung auch bei Kindern.
(120)
4. 4. 1. 2. Abelson und Godwin: Freiwillige Filterung ohne jeden staatlichen Zwang
Volokhs Vorschlag ist von Abelson und Godwin
(121) scharf kritisiert worden. Sie werfen ihm vor, daß er versucht, Zweifel an der Effektivität der Filtersoftware aufkommen zu lassen,
(122) um seine These zu stützen, daß technische Lösungen das, was er als dauerhaftes Problem der Ausweitung sieht, niemals auflösen können
(123) , wobei er jedoch bereits die Funktionsweise der Filterprogramme falsch darstelle, obwohl diese Fakten zentral sind, um die öffentliche Debatte über die Regulierung der Inhalte im Netz zu verstehen. Ihrer Ansicht nach sind kommerzielle Filterprogramme preiswerte in in hohem Maße an die jeweiligen Bedürfnisse anpaßbare Werkzeuge
(124) , mit hilfe derer zwei wichtige gesellschaftliche Interessen - der Schutz der Kinder und [die Redefreiheit]
(125) - beide gewahrt werden können.
4. 4. 2. Filterprogramme
Montag 23. Dezember
Fand Tante Marjorie im Wohnzimmer, wo sie dasaß und die Fernsehzeitung durchforstete. Nachdem wir unseren traditionellen Begrüßungskuß gewechselt hatten, bei dem das ungeschriebene Gesetz gilt, daß keine Faser meines Gesichts auch nur eine Faser ihres Gesichts berührt, sagte sie: Ich zirkle jene Sendungen mit schwarzer Tinte ein, die ungeeignet sind und die wir während der Weihnachtstage nicht sehen werden![...]
Dienstag 24. Dezember
[...] Tante Marjorie wurde blaß wie ein Laken und weigerte sich den verbleibenden Abend, Ralph eines Blickes zu würdigen, geschweige denn mit ihm ein Sterbenswort zu reden - sogar als er die Fernsehzeitung durchblätterte und meinte: Hey! Super Service! Da ist schon jemand das Programm durchgegangen und hat die besten Sendungen angekreuzt!
Adrian Plass, Tagebuch eines frommen Chaoten.
4. 4. 2. 1. Funktionsweise von Filterprogramme
Grundsätzlich gibt es zwei Techniken, nach denen Inhaltsfilter funktionieren: Listen und Wortfilter, wobei Volokh in seiner Analyse nur das Listensystem berücksichtigt hat. Dabei vergleicht das Filterprogramm die angewählte Internetadresse mit einer ihm vorliegenden Liste von verbotenen Adressen. Findet er die Adresse in der Liste, so blockiert das Filterprogramm den Zugriff und der Browser zeigt die gewünschte Seite nicht an.
(126) Der umgekehrte Weg ist weitaus seltener, kommt aber auch vor: manche Filterprogramme lassen den Nutzer nur auf die Webseiten zugreifen, die sich in ihrer Liste befinden,
(127) bei anderen ergänzen sie positiv die Ausschlußliste.
(128) Die zweite mögliche Technik ist die des Wortfilterns. Hierbei durchsucht die Software das angeforderte Dokument nach bestimmten Wörtern und blockiert die Seite, wenn die Software die verbotenen Worte auf der Seite finden konnte.
(129) Normalerweise nutzen heutige Filterprogramme eine Kombination beider Techniken,
(130) um möglichst effektiv zu arbeiten. Dabei kann die Filtersoftware sich als zusätzliches Programm auf dem Rechner des Nutzers befinden
(131) oder auf dem Server des Internetzugangsanbieter befinden.
(132)
4. 4. 2. 2. Möglichkeit des Umgehen der Filter auf dem Nutzerrechner
Die Programme, die auf dem PC des Nutzers
(133) selber installiert sind, schützen jedoch nicht zuverlässig vor den Inhalten, die sie eigentlich blockieren sollen, da sie sich alle [...] irgendwie aushebeln [lassen] - auch wenn es je nach Programm unterschiedlich schwierig ist.
(134) Am schwierigsten zu umgehen ist ein Programm dann, wenn es sich wirklich tief greifend in das System ein[hängt]
(135) und dabei auch Systemdateien durch eigene Versionen ersetzt. Allerdings sind auch solche umfangreichen Eingriffe in das System des Computers rückgängig zu machen - sogar ganz einfach mit einem im Internet erhältlichen Programm.
(136) Brauch kommt daher zu dem Schluß, daß bereits von der eigenen Systemsicherheit her die Filterprogramme bei Kindern ab ca. zwölf Jahren
(137) unbrauchbar sind, da sie zumeist das technische Verständnis besitzen, die Filtermechanismen auszuhebeln, insbesondere weil sie sich natürlich auch jenseits von eMail und Webseiten untereinander über die Möglichkeiten unterhalten werden, die lästigen Filterprogramme zu entfernen.
(138)
4. 4. 2. 3. Grundsätzliche Probleme von Filtersoftware
4. 4. 2. 3. 1. Positivlisten sind praktisch unrauchbar
Bei auf dem Server des ISPs installierten Filterprogrammen gibt es zunächst jedoch keine Möglichkeit, das Programm abzustellen oder zu deinstallieren.
(139) Somit kommen hier eher die grundsätzlichen Probleme von Filtersoftware zum tragen. Zwar existiert die Möglichkeit, den Zugriff nur auf vorher gesichtete und für unbedenklich erachtete Webseiten zuzulassen, wie es der deutsche Anbieter Mininetz versucht,
(140) aber auch bei immensem Aufwand wird dadurch immer nur ein extrem geringer Teil selbst der ungefährlichen und sogar unbestritten nützlichen Webseiten zugänglich sein,
(141) da es praktisch nicht zu leisten ist, mittels des Redaktionssystems auch nur eine annehmbare Anzahl von Webseiten zu prüfen.
(142) Daher kann eine solche zwar sichere, aber extrem eingeschränkte Nutzung weniger Bestandteile des Internets praktisch über eine Nischenexistenz hinaus keinerlei Bedeutung haben.
4. 4. 2. 3. 2. Filtern nach Schlüsselworten
4. 4. 2. 3. 2. 1. Problem: Ausfiltern harmloser Seiten
Aus diesem Grund setzen die verbreiteten Filterprogramme neben den manuell überprüften Listen auf keyword blocking
(143) (Sperren nach Schlüsselworten), wobei die angeforderte Seite anhand der in ihr enthaltenen Worte bewertet wird. Teilweise wird die Seite tatsächlich erst beim Aufruf selbst durchsucht und dann erst angezeigt oder geblockt,
(144) meistens aber werden die Negativlisten der Programme aufgrund solcher vorher durchgeführten Suchen im Internet erstellt.
(145) Finkelstein und Tien betonen, daß bei den automatisch durchgeführten Durchsuchungen keinerlei Künstliche Intelligenz (KI) zum Einsatz kommt, auch wenn die Hersteller das oft behaupten, sondern im Gegenteil nur das Vorkommen vorher definierter Worte überprüft wird.
(146) Da die eingesetzten Suchprogramme, sogenannte Robots, nicht in der Lage sind, den Kontext der einzelnen Worte zu erkennen,
(147) werden auch solche Seiten blockiert, die inhaltlich nicht zu beanstanden sind. Das typische Beispiel für dieses Problem sind die Seiten der Krebshilfe zum Thema Brustkrebs (breast cancer), die aufgrund des auf ihnen notwendigerweise enthaltenen Wortes breast generell gesperrt wurden.
(148) Da dieses Beispiel als Problem der Filterprogramme breit diskutiert wurde, sind die aktuellen Programme mittlerweile dazu in der Lage, breast nur dann zu sperren, wenn es nicht in breast cancer vorkommt. Dieser Fall demonstriert die Arbeitsweise der Filtersoftware sehr anschaulich und zeigt damit die grundsätzliche Problematik des keyword blocking auf. So wurden z.B. ebenfalls Seiten über Anne Sexton und Informationen aus Sussex gesperrt, weil der Filter das Wort sex nicht erlaubte,
(149) die Webseite einer Fußball-Jugendliga, weil sie den Satz Boys under 12 enthielt
(150) und sogar die Homepage des Vatikan wurde wegen anstößiger Inhalte geblockt.
(151) Hierbei handelt es sich natürlich nur um die absurdesten und damit öffentlichkeitswirksamsten Beispiele, während tatsächlich weitaus mehr Fälle unberechtigten Blockierens belegt sind.
(152) Obwohl auf diese Weise eine große Anzahl von ungefährlichen Seiten ausgefiltert werden, schaffen es die Programme andererseits nicht, tatsächlich unerwünschte Inhalte zuverlässig zu filtern. Das liegt teilweise am technischen Fehlern im Programm, so daß als unerwünscht erkannte Webseiten trotzdem angezeigt werden,
(153) größtenteils aber an der ungenügenden Erkennung der Programme. In einem stichprobenartigen Test filterte das leistungsfähigste (amerikanische) Programm nur 84 Prozent der amerikanischen Pornoseiten, das selbe Programm kam bei Gewaltdarstellung nur auf eine Filterleistung von 50 Prozent.
(154)
4. 4. 2. 3. 2. 2. Problem: Auswahl der Filterkriterien
Ein weiteres Problem neben der unbeabsichtigten Filterung harmloser Inhalte ist die Auswahl der unerwünschten Inhalte. Zwar bieten die Filterprogramme, die auf dem PC des Nutzers installiert sind, verschiedene Kategorien an, nach denen Webseiten geblockt oder auch angezeigt werden,
(155) doch auch diese Kategorien bilden natürlich bereits eine Vorauswahl dessen, was die Entwickler des Programms für potentiell blockenswert halten. So weisen etwa Espenschied und Freude darauf hin, daß die Webseite der amerikanischen konservativen Vereinigung Focus on Family nicht als diskriminierend eingestuft wurde, obwohl sie sich [in] haarsträubender Weise zum Thema Homosexualität äußern
(156) , während einige rechtskonservative amerikanische Organisationen
(157) Filterprogramme in öffentlichen Bibliotheken und Schulen unter anderem deshalb ablehnen, weil ein Anbieter von Filtersoftware sich entschlossen hat, die Webseite der American Family Association wegen deren ablehnender Haltung gegenüber homosexuellem Engagement zu sperren.
(158) Dies macht deutlich, daß die Entscheidung, welche Webseiten angezeigt werden dürfen und welche nicht, nicht allein von der Auswahl des Benutzers abhängt, sondern mindestens ebenso stark von der Willkür des Herstellers (wobei das Problem der fehlerhaft arbeitenden Filtermechanismen hier kurz ausgeblendet werden soll). Eine Diskussion über Kriterien oder sogar die Änderung dieser ist praktisch nicht möglich, da in den meisten Fällen für den Nutzer nicht zu erkennen ist, welche Seiten überhaupt und aus welchen Gründen blockiert werden,
(159) weil der Inhalt der Negativlisten von den Firmen als Geschäftsgeheimnis angesehen und daher geheimgehalten wird
(160) und Versuche, die vollständige Liste blockierter Adressen zu dokumentieren, massiv juristisch verfolgt werden.
(161) Damit ist natürlich die Gefahr des bewußten Mißbrauchs verbunden, so daß auch solche Inhalte ausgefiltert werden, gegen die der Nutzer nichts einzuwenden hat, die aber nicht im (geschäftlichen oder persönlichen) Interesse des Herstellers liegen.
4. 4. 2. 3. 2. 3. Mißbrauch der Filter durch den Hersteller
Zumindest in der Vergangenheit war es üblich, Webseiten in die Sperrlisten aufzunehmen, die den Hersteller des Sperrprogramms kritisieren [...] oder allgemein gegen Rating argumentieren.
(162) Aber auch in der jüngsten Vergangenheit gibt es Beispiele, in denen die Macht über die Filterliste dazu genutzt wurde, mißliebige, aber nach den offiziellen Kriterien nicht filterungswürdige Webseiten zu blockieren. So wurde etwa der Branchendienst für Informationstechnologie The Register durch die weit verbreitete Filtersoftware Cyber Patrol vollständig gesperrt, weil in ihm ein Artikel veröffentlicht wurde, der über ein Programm der Organisation Peacefire berichtete, mit dem das Filterprogramm ausgeschaltet bzw. umgangen werden konnte.
(163) Es ist natürlich logisch absolut notwendig, daß das Filterprogramm den Zugriff auf eine Seite verhindert, die beschreibt, wie man das Filterprogramm ausschalten kann (wobei dadurch natürlich nicht gewährleistet ist, daß die Informationen nicht auf anderem Wege an ihr Ziel gelangen), aber in diesem Fall hat der Hersteller der Negativliste die gesamte Webseite gesperrt, weil ein Bericht einen Hinweis auf eine andere Homepage enthielt, die das Filterprogramm ausgehebelt hätten. Das kann man in etwa mit dem vollständigen Verbot einer Tageszeitung vergleichen, weil in einer Ausgabe ein Artikel indiziert
(164) wurde. Die Sperrung der gesamten Seiten des Nachrichtendienstes war deshalb besonders unsinnig, weil die Seite, die das fragliche Programm bereithielt, sowieso durch das Filterprogramm geblockt wurde.
(165) Zumindest hätte es ausgereicht, den Bericht selbst zu blocken, der zu dem Zeitpunkt, an dem die Filterung wirksam wurde, bereits über zwei Monate alt war,
(166) anstatt den gesamten Nachrichtendienst zu sperren. Der Verdacht drängt sich auf, daß es sich hierbei mehr um eine Strafmaßnahme als um eine verantwortliche Sperrung gefährlicher Informationen gehandelt hat. In diesem Fall jedoch sah sich der Hersteller des Filterprogramms mit einer großen Anzahl massiver Proteste konfrontiert,
(167) weil auch viele Firmen den Internetzugang ihrer Angestellten mit dieser Software (bzw. mit der Negativliste dieses Unternehmens) filtern,
(168) die jedoch nicht technische Informationen von ihnen fernhalten wollen, sondern eher das Surfen auf Sexseiten während der Arbeitszeit unterbinden wollen.
(169) Die Herstellerfirma sah sich daher gezwungen, die Seiten des Nachrichtendienstes wieder freizuschalten und zukünftig nur noch den fraglichen Artikel selbst zu sperren.
(170) Die erfolgreiche Aufhebung der Sperrung dürfte nicht unerheblich damit zusammenhängen, daß The Register mit ungefähr 1 Million Leser täglich
(171) über erhebliche Bekanntheit und entsprechenden Einfluß verfügt, so daß man davon ausgehen kann, daß kleineren Webseiten dies nicht gelungen wäre.
4. 4. 2. 3. 2. 3. Logisch notwendiges Blocken an sich harmloser Seiten
In der Auseinandersetzung mit dem Hersteller der Filtersoftware warf The Register diesem u.a. vor, daß der Nachrichtendienst unter der Kategorie Sex eingetragen sei, obwohl diese Klassifizierung nicht das geringste mit dem Inhalt des Dienstes zu tun hat.
(172) Wahrscheinlich war die Seite jedoch nicht nur dort, sondern unter allen vorhandenen Kategorien eingetragen, um sie generell zu blockieren, unabhängig davon, welche Kategorien nach dem Willen des Anwenders gefiltert werden sollen. So fand sich etwa die Seite der Organisation Peacefire, die sich generell gegen Zensurprogramme ausspricht und deswegen auf ihrer Webseite auch Anleitungen zum Deinstallieren aller gängigen Filterprogramme bereithält, in allen möglichen Kategorien, wie etwa Sex, Gewalt, Satanismus, Drogen und Militanz und Extremismus geführt,
(173) obwohl dort keiner dieser Inhalte aufzufinden ist. Das gleiche Schicksal trifft Anonymisierungsdienste und alle automatischen Übersetzungsprogramme, weil mit ihrer Hilfe jeder beliebige Inhalt betrachtet werden kann, ohne daß die Filtersoftware ihn als unerwünscht erkennen kann.
(174) In der Folge der Sperrung der Übersetzungsdienste sind die Recherche- bzw. Nutzungsmöglichkeiten des Internets bei Installation eines Filterprogramms noch weiter eingeschränkt. Wenn allerdings Corinth die Sperrung der Übersetzerdienste als extreme Dummheit bezeichnet, da die automatischen Übersetzungen von Erotikseiten alles andere als erotisierend oder gar anmachend kling[en], und Bilder von [dem Übersetzungsprogramm] Babelfish sowieso nicht 'übersetzt' werden
(175) , übersieht er offensichtlich, daß nicht übersetzen sich von nicht anzeigen durchaus unterscheidet (alle Graphiken der fremdsprachigen Ausgangsseite werden bei der automatischen Übersetzung von Webseiten regelmäßig übernommen und angezeigt) und bei den meisten Erotikseiten der Grund für die gewünschte Filterung nicht ausschließlich in den Texten liegt. Die Sperrung ist daher durchaus logisch notwendig und keinesfalls so absurd wie Corinth es erscheinen lassen will. Allerdings muß ebenfalls festgestellt werden, daß durch diese Sperrung erneut harmlose und nützliche Seiten vollständig dem Zugriff der befilterten Nutzer entzogen sind.
4. 4. 2. 3. 2. 4. Versteckte, nicht aufhebbare Sperranweisungen
Im Zusammenhang mit der Auseinandersetzung zwischen The Register und dem Hersteller der Filterliste wies dieser darauf hin, daß es zumindest dem Nutzer mit Administratorrechten möglich war, die Sperrung des Newsdienstes abzuschalten, so daß die Seite (ohne generelle Entfernung aus dem Filter) für die Nutzer zugänglich gewesen wäre, deren Administrator sie freigeschaltet hätte.
(176) Allerdings können vier der 16 Kategorien sogar durch den berechtigten Anwender nicht abgeschaltet werden,
(177) was allerdings erst durch eine illegale, und dem entsprechend (zivil-)juristisch verfolgte Aufdröselung des Filterprogramms bekannt wurde.
(178) Es besteht also zumindest die Gefahr, daß diese Kategorien (und die grundsätzliche Geheimhaltung der Filterkriterien bzw. tatsächlich geblockten Seiten) für Blockaden im Interesse des Herstellers genutzt werden, die aber vom Nutzer gar nicht erwünscht sind, aber von ihm auch nicht beeinflußt werden können.
4. 4. 2. 3. 3. Filter funktionieren nicht wie erforderlich
Die vorgehende Darstellung hat gezeigt, daß Abelsons und Godwins optimistische Sicht der Softwarefilter nicht zu halten ist. Zwar hat Volokh nur das Problem der notwendigerweise zu wenig Inhalte filternden Negativlisten herausgestellt und damit nur einen Bruchteil der Problematik erfaßt, allerdings ist seine Analyse damit zutreffender als die von Abelson und Godwin. Er folgert daher in seinem Artikel, daß per Gesetz ein Ratingsystem eingeführt wird, anhand dessen alle (amerikanischen) Webseiten ihrem Inhalt gemäß gekennzeichnet werden sollen.
(179) Die von ihm anvisierte Lösung kombiniert damit zwei bereits existierende technische Lösungsversuche (Filterprogramme und Ratingsysteme) mit dem Vorschlag, sie per Gesetz obligatorisch für alle (amerikanischen) Websites zu machen. Abelson und Godwin lehnen den gesetzlichen Kennzeichnungszwang ab und setzen statt dessen auf den durch das World Wide Web Consortium (W3C) entwickelten Bewertungsstandard PICS.
(180)
4. 4. 3. Der Bewertungsstandard für Webseiten PICS
Das WWW-Konsortium W3C, das für die Weiterentwicklung der Webprogrammiersprache HTML zuständig ist,
(181) verabschiedete mit PICS (Platform for Internet Content Selection) bereits 1995 einen Standard, mithilfe dessen Webseiten bewertet werden können.
(182) Es handelt sich bei PICS um eine rein technische Spezifikation
(183) , durch die nur die äußeren Rahmenbedingungen festgelegt werden, die aber keinerlei inhaltliche Vorgaben zu den möglichen Selektionskriterien enthält.
(184) PICS ist also nicht selber ein Bewertungssystem
(185) , sondern stellt einen offenen Standard dar, anhand dessen verschiedene konkurrierende Bewertungsschemata erstellt werden können.
(186) Hiermit sind neben den klassischen Bewertungskategorien aus dem (amerikanischen) Jugendschutz Gewalt, Nacktheit, Sex und 'explizite' (lies: 'anstößige')
(187) Sprache
(188) beliebige weitere Kategorien möglich, wie etwa historische Korrektheit, Vorkommen von Intoleranz oder Diskriminierung auf der Webseite oder die politische Haltung des Autors.
(189) So könnte technisch gesehen jede Organisation oder soziale Gruppe (das Simon Wiesenthal Center und die Imperial Knights des K[u]K[lux]K[lans]
(190) ) eigene Bewertungsschemata nach jeweils unterschiedlichen [...] Bewertungsgrundsätzen
(191) erstellen.
(192) Da die Bewertungssysteme (bzw. Ratingsysteme) nach dem System der freiwilligen Selbstkontrolle funktionieren sollen,
(193) kann der Autor einer Webseite diese innerhalb des von ihm ausgewählten Bewertungssystems selbst bewerten.
(194) Dafür integriert der Autor die Einstufung in den verschiedenen Kategorien in den Quellcode seiner Seite,
(195) ebenso wie alle anderen HTML-Befehle, aus denen die Webseite besteht, so daß das Rating somit Teil der Seite selber ist.
Daneben sieht PICS aber auch die Möglichkeit vor, daß die Seite durch andere eingestuft wird (Third-Party Ratings = Drittbewertung).
(196) Die Bewertungen fremder Seiten werden separat, etwa als Datenbank, von der Institution angeboten, die die Bewertungen erstellt hat,
(197) sind hier also von der bewerteten Seite an sich unabhängig. Der Autor der Webseite hat auf diese Art der Bewertung dann keinen Einfluß, eventuell wird er von der Bewertung seiner Seite auch nicht erfahren.
(198) Der Nutzer (bzw. derjenige, der den Filter für den Nutzer einstellt) kann anhand des Bewertungsschemas auswählen, welche Art von Webseiten er zulassen will. Um ein einfaches Beispiel zu nehmen, kann der Nutzer sich dafür entscheiden, keinerlei Sex auf dem Internetbildschirm zu dulden. In einem vielleicht fünfstufigen System wird der Wert für Sex auf Null gesetzt. Enthält eine angewählte Seite eine Bewertung, die in einer der Kategorien über dem zugelassenen Wert liegt (hier also größer Null), so wird die Seite nicht angezeigt.
(199) (Ebenso sind natürlich Zwischenwertungen möglich, wenn das Schema sie vorsieht. So könnte etwa der Grad an Nacktheit bestimmt werden. Wenn der Nutzer höchstens partial nudity zulassen will, die Seite aber mit frontal nudity bewertet ist, wird sie nicht angezeigt,
(200) bei der Bewertung partial nudity oder no nudity wird die Seite angezeigt.) Ist eine Seite nicht bewertet - weder durch den Autor selbst, noch durch einen Dritten - dann kann die Seite entweder deswegen ausgeblendet werden oder aufgrund mangelnder Bewertungsmöglichkeit angezeigt werden.
(201) Der Umgang mit (eventuell bewußt) ungekennzeichneten Webseiten dürfte das größte Problem des PICS-Standards darstellen.
(202) Obwohl ursprünglich eine große Anzahl verschiedener miteinander im Wettbewerb stehender Ratingsysteme auf Grundlage des Standards PICS entstehen sollten,
(203) existieren praktisch bisher nur zwei konkurrierende Systeme.
(204) Hierbei handelt es sich zum einen um das System ICRASafe, der Internet Content Rating Association, einer sich als gemeinnützig ausweisende Privatunternehmung
(205) , zu der sich Medienunternehmen wie Microsoft, IBM, AOL Europe, British Telecom, T-Online und die Bertelsmann Stiftung zusammengeschlossen haben.
(206) ICRA ist das Ergebnis der unter maßgeblicher Beteiligung der Bertelsmann Stiftung durchgeführten
(207) Weiterentwicklung des älteren, ebenfalls auf PICS basierenden Systems RSACi,
(208) mit dem Webseiten lediglich in vier Kategorien nach jeweils fünf Intensitätsgraden eingestuft werden konnten.
(209) Dem steht ein kommerzielles Ratingsystem gegenüber, das durch das amerikanische Firma SafeSurf entwickelt wurde.
(210) Hier kann in neun Kategorien eine Abstufung nach neun Graden erfolgen.
(211) Da das System der ICRA neben seiner auch gegenüber SafeSurf ausgefeilteren Einstufungsmöglichkeiten auch den Vorteil hat, daß es von einer (zumindest in erster Linie) nichtkommerziellen Vereinigung getragen wird, zu deren Mitgliedern zahlreiche potente und im Internetbereich sehr einflußreiche Unternehmen zählen, statt - wie im Falle von SafeSurf - durch ein privatwirtschaftliches Unternehmen, das mit seinem System Geld verdienen will, scheinen die Chancen zur Durchsetzung von ICRA weitaus größer als die von SafeSurf. Aus diesem Grund beschränkt sich die folgende Darstellung im wesentlichen auf das System der ICRA.
4. 4. 4. Das PICS-System ICRA
Das Ziel von ICRA ist es, durch ein ausdifferenziertes Kategoriensystem eine mehr objektive Beschreibung von Webseiten zu ermöglichen, so daß der Nutzer tatsächlich entscheiden kann, welche Art von Informationen er auf seinem Bildschirm zulassen will, anstatt sich auf vage Einteilungen verlassen zu müssen.
(212) Ola-Kristian Hoff, Europa-Direktor der ICRA, erläutert, daß ICRA [...] die einzige Organisation [ist], die mit dem Vatikan und der 'Adult'-Industrie arbeiten kann, weil wir nicht versuchen, den Leuten zu sagen, was gut oder schlecht ist.
(213) Die aktuelle Version des Klassifizierungssystems der ICRA
(214) will das erreichen, indem es statt vager und kulturell abhängiger Angaben wie relativ wenig Nacktheit auf objektive Kriterien wie nackte Brüste bzw. keine nackten Brüste setzt.
(215) Dem Vorgängersystem wurde von Kritikern oft entgegengehalten, dass unter dem Ratingsystem vom RSAC der Kontext, in dem etwa sexuelles Material enthaltende Inhalte auftauchen, nicht beachtet wird
(216) , so daß sowohl Pornoseiten als auch Lehrmaterial unter dieselbe Kategorie fallen und somit zumeist gemeinsam ausgefiltert werden. ICRA hat auf die Kritik reagiert und versucht in ihrem System, den Kontext der Informationen zu berücksichtigen.
4. 4. 4. 1. Das Kategoriensystem von ICRA
Allerdings besteht das neue Kategoriensystem im Grundsatz aus den alten Kategorien des RSAC Nacktdarstellungen und sexuelle Inhalte (jetzt zu einer Kategorie zusammengefaßt), Gewalt und Sprachgebrauch, die um Chat und die Sonstiges-Kategorie Andere Themenbereiche ergänzt wurden. Der Kontext der Informationen und Darstellungen soll durch die zusätzliche Angabe weiterer Optionen in der Unterkategorie Nacktdarstellungen und sexuelle Inhalte / Zusammenhang erfaßt werden.
(217) So kann etwa eine Webseite, die die Geburt der Venus von Sandro Botticelli
(218) enthält und daher nach objektiven Kriterien die Seiten mit den Angaben Weibliche Brüste auszeichnen muß, dies durch die Angabe Dieses Material erscheint in einem Zusammenhang mit künstlerischer Absicht und ist für jüngere Kinder geeignet relativieren kann. Daneben existieren noch zwei weitere Möglichkeiten, die Kategorie Nacktdarstellungen und sexuelle Inhalte in den Kontext einzuordnen. Sie sind mit der zitierten gleichlautend, nur die künstlerische Absicht ist jeweils durch erzieherische bzw. medizinische Absicht ersetzt. Die Kategorie Gewalt kann durch die gleichen Kontextbeschreibungen erläutert werden, zusätzlich findet sich hier noch die Möglichkeit, daß die Gewalt in einem sportlichen Zusammenhang erscheint.
(219) Spötter haben natürlich die offensichtlichen Lücken des Systems aufgedeckt, so daß etwa Espenschied und Freude darauf hinweisen, daß die Möglichkeit zur Einordnung einer Seite, die Sexualgewalt / Vergewaltigung in einem sportlichen Zusammenhang enthält, besonders interessant [sein] dürfte.
(220) Der schwierigen Kontroverse darüber, was in den Bereichen Gewalt und Nacktdarstellungen und sexuelle Inhalte als Kunst anzusehen ist, dürften die Entwickler von ICRA durch den pragmatischen Entschluß entgangen sein, daß die Kategorisierung als Kunst sofort mit der Einschätzung einhergehen muß, daß sie auch für jüngere Kinder geeignet ist. Die Kontextbewertung ist auf diese zwei Kategorien beschränkt. Weiter kann in eigenen Kategorien angegeben werden, ob die Seite die Möglichkeit zum Online-Chat bietet, und der Sprachgebrauch eingeschätzt werden, wobei mit Ermert zu bemerken ist, daß etwa sexualisierte Sprache und derber Sprachgebrauch oder Gotteslästerung nicht unbedingt eindeutige Kriterien zur Bewertung des auf einer Webseite verwandten Sprachstiles darstellen.
(221) Die letzte Kategorie enthält dagegen eine größere Anzahl rein wertender Auswahlmöglichkeiten, mit denen kaum ein Websitebetreiber sein Angebot selbst bezeichnen würde, so daß sie ausschließlich zur Drittbewertung gedacht sein können: neben den (vielleicht noch von Seiten der entsprechenden Werbeindustrie aus Imagegründen angewandten) Labels Positive Darstellung von Alkohol bzw. Tabak finden sich Drogen und Waffen in einer eigenen Kategorie, ebenso wie die Möglichkeit, anzugeben, daß das eigenen Webangebot Inhalte, die jüngere Kinder beeinträchtigen könnten enthält. In gewissen Fällen besteht noch die Möglichkeit, daß die zuvor genannten Selbsteinschätzungen von kommerziell orientierten Seiten vorgenommen werden, die sich selbst keinen Vorteil davon versprechen, wenn Kinder ihre Webseite besuchen, da diese noch keine Kunden werden können, und gleichzeitig an einem gesellschaftlich sauberen Image interessiert sind,
(222) fast grundsätzlich auszuschließen ist jedoch, daß sich Internetseiten selbst unter Aufruf zur Diskriminierung von oder Gewalt gegen Personen kategorisieren. Spätestens hier kann die ICRA nicht mehr auf Selbstklassifizierung durch die Urheber der Webseiten ausgelegt sein, wie auch deren Europadirektor Hoff zugesteht.
(223) Deshalb setzt das System der ICRA ergänzend auf Drittbewertungen, über die pornographische und nationalsozialistische Seiten blockiert werden sollen.
(224) Solche Negativlisten, die durch vertrauenswürdige
(225) Dritte erstellt werden sollen, stellen bisher das Bundeskriminalamt,
(226) die Anti-Defamation-League und die Deutsche Bischofskonferenz zur Verfügung.
(227)
4. 4. 4. 2. Grundsätzliche Probleme von PICS im allgemeinen und ICRA im besonderen
Um zu verhindern, daß die Negativlisten zu Linksammlungen besonders interessanter Seiten umfunktioniert werden, werden sie auch bei ICRA nicht offengelegt,
(228) so daß zumindest bei den Drittbewertungen der einzelne Nutzer (wie bei konventionellen Filterprogrammen) auf die Redlichkeit der Ersteller der Negativlisten vertrauen muß. Ein weiteres Problem sind die Seiten, die selbst auf eine Einstufung verzichten (und auch nicht durch Drittbewertung erfaßt sind). Wenn das System sicher arbeiten soll, bleibt nur die Möglichkeit, die nicht eingestuften Seiten zu blockieren, da andernfalls das System einfach dadurch zu umgehen ist, daß die eigenen Seiten nicht eingestuft werden. Da mit jeder Einstufung gleichzeitig die potentielle Gefahr wächst, daß die eigene Seite nicht angezeigt wird, zumeist aber jeder Homepagebesitzer daran interessiert ist, daß möglichst viele Surfer ihre Seiten besuchen, wäre es sehr wahrscheinlich, daß die wenigsten ihre Seite einstufen würden.
Das Ausblenden ungekennzeichneter Seiten birgt allerdings auch Probleme, da die Autoren mancher Seiten das Kennzeichnungssystem für ihre Seiten als unzureichend und unpassend empfinden. Im einfachsten Fall betrifft es die Nachrichtenseiten, die über das Weltgeschehen berichten. Das Webangebot des amerikanischen Nachrichtenkanals MSNBC, der von der Fernsehgruppe NBC und dem Softwareunternehmen Microsoft betrieben wird, hatte zunächst versucht, alle ihre Meldungen korrekt zu labeln, um die Funktionsfähigkeit des von Microsoft unterstützten Systems in der Praxis zu beweisen. Allerdings zeigte sich bald, daß die Einstufung jeder einzelnen Nachricht zu zeitaufwendig war. Eine einheitliche Einstufung des kompletten Angebots andererseits hätte zur Folge gehabt, daß sie für Jugendliche gleich ganz unzugänglich gewesen wäre
(229) , weil Berichte über Gewalt und weitere bedenkliche Themen zum normalen Weltgeschehen hinzugehören. Der Vorschlag einiger Nachrichtenanbieter, eine eigene Kategorie für Nachrichten zu schaffen, in der die üblichen Jugendschutzkategorien nicht angewandt werden,
(230) ist im aktuellen Standard der ICRA nicht verwirklicht worden.
(231)
In seinem Essay Why I Will Not Rate My Site hat Jonathan Wallace dargelegt, warum er nicht bereit ist, seine Webseite An Auschwitz Alphabet, auf der er über den Holocaust informiert, nach einem Ratingsystem zu kennzeichnen. Er geht dabei davon aus, daß es eine ähnliche Abstufung wie beim amerikanischen System zur Bewertung von Kinofilmen geben würde. Aufgrund der notwendigerweise auf der Seite beschriebenen Grausamkeiten müßte er seine Seite in eine Kategorie einordnen, die sie auf eine Stufe stellt wie irgendeine Sexseite ohne pädagogischen Nutzen.
(232) Allerdings ist zu beachten, daß Wallaces Artikel 1996 geschrieben wurde und das aktuelle System der ICRA es nun vorsieht, den Inhalt von Seiten wie die von Wallace als in einem Zusammenhang mit erzieherischer Absicht stehend kennzeichnen kann. Eventuell könnte das die Vorbehalte von Wallace gegen die Kennzeichnung nivellieren. Dagegen spricht allerdings, daß er weiterhin objektiv seine Seite mit den Labels Sexualgewalt / Vergewaltigung, Blut und Blutvergießen, Menschen und Tötung von Menschen beschreiben müßte, was im Effekt doch zu einer Sperrung in den meisten Fällen führen könnte, da Eltern wahrscheinlich nicht gewillt sind, Sexualgewalt und Töten von Menschen - auch in erzieherischer Absicht - zuzulassen.
Durch die Marktmacht der Mitglieder der ICRA könnte sich deren Bewertungssystem tatsächlich als Quasi-Standard durchsetzen, insbesondere da die ICRA die entsprechende Software von der Mitgliedsfirma Microsoft entwickeln läßt, die bekannt dafür [ist], 'Innovationen' gleich in ihre Betriebssysteme zu integrieren.
(233) Da Microsoft den Markt für Betriebsysteme dominiert, wäre durch eine Integration von ICRA in kommende Versionen des Microsoft-Betriebsystems Windows die Infrastruktur fürs Filtern [...] auf zahlreichen Desktops implementiert.
(234) Folgerichtig gehört zu den zukünftigen Fähigkeiten des von Microsoft hergestellten Webeditors (Programms zur Erstellung von Webseiten) Frontpage die Integration des ICRA-Labels in den Html-Code per Mausklick.
(235) Bereits 1997 hatten die Betreiber der populären Suchmaschinen Lycos, Yahoo und Excite angekündigt, demnächst nur noch nach dem PICS-Standard gekennzeichnete Seiten aufzunehmen.
(236) Da sowohl Yahoo als auch Lycos mittlerweile Tochterfirmen besitzen, die eine große Anzahl kostenloser Homepages anbieten, könnten sie sich auch dazu entscheiden, diesen Dienst zukünftig ebenfalls ausschließlich für nach ICRA eingestufte Seiten anzubieten. Besonders der Ausschluß nichtgelabelter Seiten aus den Suchmaschinen würde praktisch dafür sorgen, daß der Autor einer Homepage zur Selbsteinstufung gezwungen ist, wenn er von einer großen Anzahl von Nutzern noch gefunden werden will.
(237)
Eines der größten Probleme dürfte aus der Möglichkeit resultieren, daß Seiten sich absichtlich falsch auszeichnen, um die Filterung zu umgehen. Für diesen Fall sieht die ICRA vor, die Nutzung des Codes auf der Webseite zu verbieten, da sie die Urheberrechte an dem Code besitzt und somit den Einsatz bei Mißbrauch auch verbieten kann.
(238) Durch den Versuch der ICRA, Konfliktfälle zivilrechtlich über das Urheberrecht zu regeln, vermeidet sie, den jeweiligen Staat sich durch eigens konstruiert Gesetze gegen das falsche Einstufen von Webseiten an der Filterung zu beteiligen. Die Durchsetzung auch des zivilrechtlichen Anspruchs ist allerdings ohne ein Eingreifen des Staates nicht möglich, so daß eine Lösung im staatsfreien Raum durch ICRA nicht erreicht wird. (Möglich wäre eine solche Lösung mittels verschlüsselter Zertifikate, was allerdings wiederum Probleme anderer Art nach sich zöge.
(239) ) Andererseits birgt der Umstand, daß der Code, der zur Beurteilung der Webseiten benötigt wird, Privatbesitz ist, die Gefahr, daß der Urheber seine Rechte an dem Code über den zunächst propagierten Zweck hinaus nutzt. Unliebsamen Webseiten könnte die Nutzung untersagt werden, obwohl die Einstufung korrekt ist (dies könnte z. B. die Gegner von ICRA treffen) und theoretisch wäre sogar die Erhebung einer Gebühr für die Nutzung des Codes denkbar. Auch bei der ungerechtfertigten Entziehung des Labels (was allerdings allein durch den Anbieter des Labels - also hier der ICRA - nur geschehen könnte, wenn verschlüsselte Labels eingesetzt würden, deren Gültigkeit auch beendet werden kann
(240) ) wäre der Staat die einzige Möglichkeit, über die sich ein ungerecht behandelter Webautor wehren könnte.
(241)
Allerdings funktioniert der zivilrechtliche Weg auch nur in den Ländern, die das Urheberecht der ICRA an dem Code anerkennen und sowohl das Interesse als auch die Möglichkeiten haben, die Urheberechte der ICRA durchzusetzen. In Ländern, wo das nicht der Fall ist, könnte ein gefälschtes ICRA-Label ohne Probleme genutzt werden, da die ICRA selbst keine Möglichkeit hat, die mißbräuchliche Verwendung ihres Systems zu verhindern. Eventuell würde man in diesem Fall dazu übergehen, Seiten, deren falsche Auszeichnung entdeckt wurden, generell zu blocken. Ebenfalls wäre denkbar, daß Seiten aus den fraglichen Ländern generell ausgeblendet würden, um so auf der einen Seite keine unerwünschten Seiten wegen ihres unzutreffenden Labels anzuzeigen und auf der anderen Seite auch die Regierung des Landes unter Druck zu setzen, gegen die fehlerhaften Kennzeichnungen vorzugehen.
Hoff betont, daß der Einsatz der Filtersoftware der ICRA freiwillig ist und somit jeder Nutzer selbst entscheiden muß, ob er die Lösung der ICRA einsetzen will oder nicht. Er selbst wolle etwa nicht die ganze Zeit von einer Software verfolgt werden.
(242) Eine solche Freiwilligkeit funktioniert allerdings nur dann, wenn das fragliche Filterprogramm ausschließlich auf dem Computer des Nutzers installiert ist. Sobald etwa der Internetprovider das Programm standardmäßig einsetzt, kann der Nutzer die Filter nicht mehr ausschalten.
Außerdem kann das Filterprogramm durch den Nutzer bisher nicht gänzlich frei konfiguriert werden, so daß es völlig von seinen Interessen abhängt, welche Seiten er zulassen möchte (auch abgesehen von den Beschränkungen die durch das Design des Filtersystems der ICRA selbst entstehen), da sowohl Pornoseiten als auch rassistische Webseiten grundsätzlich ausgeblendet werden.
(243)
4. 4. 4. 2. 1. Änderung der Struktur des Internets
Lawrence Lessig, Jura-Professor in Harvard, faßt seine ablehnende Haltung gegenüber PICS kurz und pointiert in dem Satz zusammen Blocking software is bad enough - but in my view, PICS is the devil.
(244) Seine Ablehnung beruht auf der Überlegung, daß durch die flächendeckende Einführung von PICS die Ratinginformationen wie selbstverständlich zu den Dokumenten des Internets hinzugehören werden, also auch ein Teil der Infrastruktur des Netzes werden. Dadurch würde es unfreien Staaten wie China einfach gemacht, ihre Bürger von unerwünschten Webinhalten fernzuhalten,
(245) weil die nötigen Informationen darüber, welche Seite harmlos ist und welche nicht, nicht erst schwierig von den staatlichen Zensoren für jede einzelne Webseite herausgefunden werden muß, sondern bereits vom Autor der Seite automatisch in sein Dokument eingebaut wird. Der Abruf ungekennzeichneter Seiten könnte dann etwa in China überwacht und überprüft werden (im Gegensatz zur aktuellen Lage, in der alle Zugriffe überwacht werden müßten, was praktisch nicht zu leisten ist) und dann nach den eigenen Kriterien bewertet werden, so daß, falls Tan sich Dokumente runterzieht, die die Demokratie glorifizieren, [ihm ...] wohlmöglich jemand einen Besuch abstattet.
(246) Durch die Integration der Inhaltswertung in die Dokumente wäre dadurch nicht nur leichter möglich, unerwünschte Inhalte zu sperren, sondern auch die Überwachung der einzelnen Nutzer wäre erheblich vereinfacht, da durch die inhaltliche Klassifizierung weitaus einfacher Nutzungsprofile erstellt werden könnten als durch umständliche Analyse aller aufgerufenen Seiten. Das gefährdet in erster Linie Bürger totalitärer Staaten und vermindert damit die Hoffnung,
(247) daß durch den freien Informationsfluß über das Internet die Einwohner totalitärer Staaten mit den Ideen der Freiheit im westlichen Sinne in Berührung kämen und es so allmählich zu Veränderungen in diesen Staaten kommt,
(248) kann aber auch in demokratischen Staaten virulent werden, in denen zwar der Staat verfassungsmäßig an der Erstellung von Nutzungsprofilen gehindert ist, aber eine solche Überwachung aus kommerziellen Gründen (etwa zur wirkungsvolleren Werbung) durch privatwirtschaftliche Firmen durchgeführt werden könnte. Für solche Fälle fordert Lessig - gegen die sonst verbreitete Staatsfeindlichkeit der Internet-Bürgerrechtler - daß der Staat den Auftrag hat, eine solche Überwachung zu verhindern.
(249)
Fußnote 64
Hierunter zählt Schröder u.a. die Berliner Erklärung der Konferenz Verbreitung von Hass im Internet vom 27. Juni 2000. Vgl. Burkard Schröder, Rechtsextremismus im Internet, in: Aus Politik und Zeitgeschichte 39/2000 (Schröder), 50.
Fußnote 65
Schröder 51.
Fußnote 66
Dragan Espenschied / Alvar C. H. Freude, Das Netzwerk ist dezentral, in: dies., insert-coin. 19. 1. 2001 (Espenschied / Freude).
Fußnote 67
Schröder 51.
Fußnote 68
Daneben besteht für Studenten die Möglichkeit, sich ohne zusätzliche Gebühren über das Netzwerk des DFN (Deutsches Forschungsnetz) mit dem Internet zu verbinden. Da die für den Zugang meist anfallenden Gebühren für Ortsgespräche der Deutschen Telekom jedoch die Internetgebühren der ISPs übersteigen, wird diese Möglichkeit fast ausschließlich durch öffentlich zugängliche Rechner der Universität genutzt, die direkt an das DFN angeschlossen sind, so daß keine Telefongebühren anfallen.
Fußnote 69
Vgl. Espenschied / Freude.
Fußnote 70
Vgl. Florian Rötzer, Saudi Arabien sperrt wegen Pornographie Zugang zu den Yahoo-Clubs, in: Telepolis 14. 8. 2000
Fußnote 71
Ein Proxy-Server kann grundsätzlich zwischen den Rechner des Nutzers und dem Internet geschaltet werden. Er empfängt die Anfragen des Nutzers und leitet sie an die entsprechenden Server im Netz weiter, empfängt das Ergebnis und leitet dieses an den anfragenden Rechner weiter. Normalerweise dient ein solches Vorgehen nicht der Zensur, sondern der Wirtschaftlichkeit oder der Sicherheit des Nutzers. Vgl. Jens Elkner, Wissenswertes über Proxy Caches.
Fußnote 72
Dragan Espenschied / Alvar C. H. Freude, Die Filter-Software, in: dies., insert-coin 25. 3. 2001 (Filter).
Fußnote 73
Der Proxyserver von Espenschied und Freude basiert auf der frei verfügbaren Webserver-Software Apache, die sich mittels der Programmiersprache Perl an die Bedürfnisse der jeweiligen Serverbetreiber anpassen läßt. Vgl. Filter.
Fußnote 74
Dabei handelte es sich um alle Zugriffe, die über das interne Netzwerk der stuttgarter Merz-Akademie erfolgten, einer staatlich anerkannten Hochschule für Gestaltung.
Fußnote 75
Vgl. Dragan Espenschied / Alvar C. H. Freude, Manipulationen und Reaktionen, in: dies., insert-coin 12.05. 2001 (Manipulationen); Filter.
Fußnote 76
Vgl. ebd.
Fußnote 77
Webdesigner nutzen zur Strukurierung des html-Quellcodes ihrer Homepages oft Kommentare, die zwar bei der Betrachtung der Seite vom Browser nicht angezeigt werden, aber im Quellcode sichtbar sind, so daß die Autoren der Seite einfacher Veränderungen an den z. T. sehr komplex programmierten Seiten vornehmen können.
Fußnote 78
Webmaildienste erlauben des Versenden von eMails über Formulare auf ihren Seiten im Web. Normalerweise sind zur Versendung von eMails eigenständige eMail-Programme nötig. Durch die Webmaildienste können eMails von jedem Computer mit Internetzugang empfangen und abgeschickt werden.
Fußnote 79
Die In-Box ist der Briefkasten, also der Bereich, in dem alle eingegangenen eMails aufgelistet werden. Auf ihn kann normalerweise neben dem Betreiber des Dienstes nur der Empfänger der eMails zugreifen, er gehört also zur Privatsphäre im weiteren Sinne.
Fußnote 80
Manipulationen.
Fußnote 81
Vgl. Manipulationen.
Fußnote 82
Manipulationen.
Fußnote 83
Hierbei handelte es sich um einen Internet-Gag, der sich auf das auf breite Ablehnung gestoßene Vorgehen des Kinder-Schokoladen-Herstellers Ferrero bezieht, aufgrund ihrer Marke Kinder etwa die Internetdomain kinder.at für sich zu beanspruchen und den bisherigen Besitzer gerichtlich zur Überlassung zwingen zu wollen. Vgl. Süßwarenkonzern will "Kinder"-Domain freiklagen, in: heise online 22.12.2000.
Fußnote 84
Vgl. Manipulationen.
Fußnote 85
Vgl. ebd.
Fußnote 86
Manipulationen.
Fußnote 87
Um die Leistungsfähigkeit des Proxy-Servers von Espenschied und Freude zu testen, habe ich meinen Browser absichtlich auf den manipulierten Proxy-Server eingestellt. Dabei waren mir die Veränderungen auf den absichtlich zum Überprüfen des Proxys aufgerufenen Seiten bewußt, auf den Seiten, die ich normalerweise aufrufe und die automatisch aktualisiert wurden, fielen sie mir allerdings erst auf, als ich den Proxy abgeschaltet hatte und die echte Seite betrachtete.
Fußnote 88
Thomas C Green, US company defeats Brit RIP Act, in: The Register 30. 3. 2001 (Green).
Fußnote 89
Vgl. Frank Patalong, Jetzt kommt der Hacker-Browser, in: Spiegel online 8. 5. 2001 (Patalong); Jason Soares, Hacker tool lets freedom ping: 'Peekabooty' set to circumvent state-sponsored censorship, in: The Experiment 11. 5. 2001 (Soares); Hacker wollen schrankenlose Informationsfreiheit, in: heise online 6. 5. 2001; Anti-Zensur-Projekt von Hackergruppe verzögert sich, in: heise online 28. 6. 2001 (Anti-Zensur-Projekt).
Fußnote 90
Vgl. Green; Patalong; Soares; Anti-Zensur-Projekt.
Fußnote 91
Vgl. Erik Möller, Kopieren ohne Grenzen. Dateien tauschen in Peer-to-Peer-Netzen, in: magazin für computertechnik 6/2001 (Möller), 150.
Fußnote 92
Möller 150.
Fußnote 93
Als AOL aufgrund eigener entgegengesetzter wirtschaftlicher Interessen die Weiterentwicklung von Gnutella einstellte, wurde das den ersten Programmen zugrundeliegende Softwareprotokoll von einigen Hackern dokumentiert, so daß mittlerweile eine große Anzahl unabhängiger Programme existieren, die dieses Protokoll benutzen. Vgl. Möller 151.
Fußnote 94
Vgl. ebd.
Fußnote 95
Vgl. ebd.
Fußnote 96
Vgl. ebd. 152f.
Fußnote 97
Vgl. Green.
Fußnote 98
Vgl. ebd.
Fußnote 99
The Hacktivismo FAQ v1.0, 10. 7. 2001 (Hacktivismo FAQ).
Fußnote 100
Hacktivismo FAQ: It allows clients to evade most forms of DNS filtering and make Web page requests directly to a distributed server cloud that processes the requests and trans-serves content back to the requesting client.
Fußnote 101
Vgl. Steve Gold, Filter-Bypassing Web Browser 'Peekabooty' Coming Soon, in: Newsbytes 16. 5. 2001.
Fußnote 102
Vgl. Thomas C Green, Censorware outfit targets cDc's anonymity app 'Peekabooty', in: The Register 18. 5. 2001.
Fußnote 103
Anti-Zensur-Projekt.
Fußnote 104
Patrick Brauch, Alarmstufe Neun. Hackermesse in Las Vegas, in: magazin für computertechnik 16/2001 (Alarmstufe), 40.
Fußnote 105
Peer-to -Peer (P2P) ist nur eine der Möglichkeiten, die das hier im englischen Text gebrauchte peer networking enthält, so daß tatsächlich eine größere Bandbreite an Möglichkeiten der Nutzung von Peekabooty existieren wird, die Beschränkung auf das oben erläuterte P2P-Prinzip dürfte in unserem Zusammenhang aber ausreichend sein.
Fußnote 106
Thomas C Green, Will cDc privacy app Peekabooty put users at risk?, in: The Register 19. 7. 2001 (Privacy app): Peekabooty is a peer networking application which enables users in countries where Internet content is censored to host and retrieve forbidden content [...].
Fußnote 107
Vgl. ebd; Alarmstufe 40.
Fußnote 108
Aus Privacy app wird allerdings nicht deutlich, ob der Nutzer in der Diktatur den verbotenen Inhalt auf seinem eigenen Rechner bereithält oder Nutzer in anderen Ländern Resourcen auf ihren Rechnern dafür bereithalten werden.
Fußnote 109
Privacy app: quickly wipe the disk of the tool (securely) . Der Programmierer betont, daß die Löschung sicher geschieht, weil beim normalen Löschen unter Windows die Daten nicht gelöscht, sondern nur ihr Platz auf der Festplatte wieder als frei deklariert wird. Die gesamten Daten können solange ohne den geringsten Datenverlust wiederhergestellt werden, bis sie vollständig von anderen Informationen überschrieben werden, was allerdings im Normalfall erst nach einiger Zeit geschieht. Vgl. Harald Bögeholz / Peter Siering , Datenpuzzle.Mit dem Diskeditor auf Datensuche. in: magazin für computertechnik 6/2000.
Fußnote 110
Vgl. Privacy app.
Fußnote 111
Das bedeutet, daß der Quelltext des Programms ebenfalls frei erhältlich ist und von jedermann verändert d.h. weiterentwickelt werden darf. Zumeist muß die Weiterentwicklung dann ebenfalls im Quelltext frei zugänglich sein.
Fußnote 112
Vgl. Privacy app.
Fußnote 113
Vgl. Wolfgang Coy, Media Control. Wer kontrolliert das Internet?
Fußnote 114
Eugene Volokh, Speech and Spillover, in: Slate 18. 7. 1996 (Volokh).
Fußnote 115
Volokh: very sexually explicit.
Fußnote 116
Volokh: Psychologists and philosophers can debate this, but as a constitutional matter, the question is settled.
Fußnote 117
Vgl. Volokh.
Fußnote 118
Volokh: Perhaps [...]spillover questions should always be resolved in favor of free speech. Perhaps children's increased vulnerability is a price worth paying for extra freedom for adults.
Fußnote 119
Volokh: mark[] 'dirty' in a way that computers can easily recognize.
Fußnote 120
Vgl. Volokh.
Fußnote 121
Vgl. Hal Abelson / Mike Goldwin, Response to Volokh article ("Speech and Spillover," posted Thursday, July 18) in Slate e-mag (30. 7. 1996) (Abelson / Goldwin).
Fußnote 122
Abelson / Godwin: Volokh attempts to raise doubts about the effectiveness of
selection/filtering software.
Fußnote 123
Ebd.: to support his thesis that technical solutions will never resolve what he sees as a perennial 'spillover' problem.
Fußnote 124
Ebd.: inexpensive and highly adaptable tools.
Fußnote 125
Ebd.: two important social interests -- the protection of children and the preservation of First Amendment rights.
Fußnote 126
Patrick Brauch, Schutz vor Schmutz? Was Internet-Filtersoftware in der Praxis taugt, in: magazin für computertechnik 23/2000 (Brauch), 230; Harry Hochheiser, Computer Professionals for Social Responsibility Filtering FAQ. Version 1.1 (25. 12. 1997) (Hochheiser); Seth Finkelstein / Lee Tien, Blacklisting Bytes (=EFF/Finkelstein Censorware White Paper #1) (6. 3. 2001) (Finkelstein / Tien).
Fußnote 127
Vgl. Mini-Internet für Kinder, in: Hamburger Abendblatt 14. 11. 2000 (Mini-Internet); Abelson / Godwin; Hochheiser.
Fußnote 128
Vgl. Brauch 230; Finkelstein / Tien.
Fußnote 129
Vgl. Brauch 231; Hochheiser.
Fußnote 130
Vgl. Abelson / Godwin; Brauch 231;Finkelstein / Tien; Hochheiser.
Fußnote 131
Vgl. Brauch 232f.238.
Fußnote 132
Vgl. Alexander Ochs, Sicheres Surfen für die ganze Familie, in: xdial 25. 4. 2001 (Ochs); Mini-Internet.
Fußnote 133
Im Fall der Installation des Filterprogramms auf Nutzerseite gibt es zwei Arten von Nutzern, die im folgenden aber nicht explizit auseindergehalten werden, da der Kontext dies zumeist erübrigt: zunächst gibt es den Nutzer, der das Filterprogramm installiert und gegebenenfalls auch deinstallieren darf (bei einer Eltern-Kind-Konstellation also die Eltern) und den Nutzer, der den Computer nur mit dem Filterprogramm nutzen kann (Kind). Ebenso verhält es sich im Falle Arbeitgeber-Angestellter und ähnlicher Konstellationen.
Fußnote 134
Brauch 238.
Fußnote 135
Brauch 232.
Fußnote 136
Vgl. ebd.
Fußnote 137
Brauch 238 umschreibt das Alter so: ein paar Jahre älter als ein sechs- oder achtjähriges Kind.
Fußnote 138
Vgl. Brauch 238.
Fußnote 139
Teilweise läßt sich jedoch bei den Filtern auf Anbieterseite die Filterfunktion durch die Eingabe eines Paßwortes ausschalten.
Fußnote 140
Vgl. Mini-Internet; Ochs.
Fußnote 141
Die potentiell über Mininetz zugänglichen Seiten halten sich in sehr engen Grenzen, bei meinem Zugriff am 31. 7. 2001 waren ca. 2000 Seiten als zugänglich aufgelistet, tatsächlich aber war auch am folgenden Tag ausschließlich die Startadresse www.mininetz.de zugänglich, alle anderen Seiten waren gesperrt. Hingegen kann die Filtersoftware Safe-T, die ebenfalls mit einer reinen Positivliste arbeitet, allerdings auf dem PC des Nutzers installiert wird, mit einen Umfang von immerhin 2 Millionen freigeschalteter Webseiten aufwarten. Vgl. Stefan Krempl, Neue Kindersicherung fürs Netz. in: Telepolis 18.05.2001.
Fußnote 142
Vgl. Finkelstein / Tien; Hochheiser.
Fußnote 143
[Bennett Haselton], Blocking Software FAQ (Haselton).
Fußnote 144
Vgl. Brauch 236.
Fußnote 145
Vgl. Finkelstein / Tien.
Fußnote 146
Vgl. ebd.
Fußnote 147
Vgl. Brauch 231; Hochheiser.
Fußnote 148
Vgl. Finkelstein / Tien; Hochheiser.
Fußnote 149
Vgl. Helmut Merschmann, Anne Sexton wird ausgefiltert, in: Berliner Zeitung 13. 1. 2000.
Fußnote 150
Vgl. Haselton.
Fußnote 151
Vgl. Dragan Espenschied / Alvar C. H. Freude, Filtersysteme sind grundsätzlich abzulehnen, in: dies., insert-coin 27. 1. 2001 (Filtersysteme).
Fußnote 152
Vgl. Finkelstein / Tien.
Fußnote 153
Vgl. Brauch 234.
Fußnote 154
Vgl. Brauch 232. Da die Anpassung an deutsche Verhältnisse unzureichend durchgeführt wurde, wurden nur 45 Prozent der deutschen Sexseiten gesperrt.
Fußnote 155
Vgl. Brauch 232.235.
Fußnote 156
Filtersysteme.
Fußnote 157
Unter anderem die Tennessee Christian Coalition und Americans for Tax Reform.
Fußnote 158
Vgl. Brief einiger rechtskonservativer Gruppen an Mitglieder des amerikanischen Senats und des Repräsentatenhauses bezüglich eines Gesetzentwurfs zur Filterung des Internetzugangs in öffentlichen Schulen und Bibliotheken vom 11. 9. 2000. (Dokumentiert als Right-wing groups' letter to legislations opposing censorware riders).
Fußnote 159
Vgl. Finkelstein / Tien; Hochheiser.
Fußnote 160
Vgl. Filtersysteme; Finkelstein / Tien.
Fußnote 161
Vgl. Florian Rötzer, Kann eine GNU General Public Lizenz widerrufen werden?, in: Telepolis 28. 3. 2000 (Lizenz).
Fußnote 162
Marit Köhntopp / Kristian Köhntopp / Martin Seeger, Sperrung im Internet, in: Datenschutz und Datensicherheit 11/97; vgl. Marit Köhntopp / Kristian Köhntopp, Why Internet Content Rating and Selection does not work. 13. 9. 2000 (Köhntopp / Köhntopp).
Fußnote 163
Vgl. Kieren McCarthy, Cyber Patrol bans The Register, in: The Register 5. 3. 2001; Drew Cullen, This story is why Cyber Patrol banned The Register, in: The Register 8. 3. 2001 (Cullen); Web-Filtersoftware blockte IT-Newsdienst "The Register", in: heise online 11. 3. 2001 (Web-Filtersoftware).
Fußnote 164
Der Vergleich hinkt natürlich, da er insbesondere weder der deutschen Indizierungspraxis noch der inhaltlichen Ausrichtung des Nachrichtendienstes für Informationstechnologie gerecht werden kann. Er soll hier ausschließlich das Ausmaß der Filterung illustrieren.
Fußnote 165
Vgl. Drew Cullen, Cyber Patrol unblocks The Register, in: The Register 9. 3. 2001 (Cyber Patrol).
Fußnote 166
Vgl. Cullen.
Fußnote 167
Vgl. Cyber Patrol.
Fußnote 168
Vgl. Cyber Patrol; Web-Filtersoftware.
Fußnote 169
Vgl. Christiane Schulzki-Haddouti, Chaos Computer Club verleiht Preis an Siemens für Filtersoftware (Update), in: Telepolis 27. 3. 2001.
Fußnote 170
Vgl. Cyber Patrol.
Fußnote 171
Vgl. Cyber Patrol; Web-Filtersoftware.
Fußnote 172
Vgl. ebd.
Fußnote 173
Vgl. Florian Rötzer, Hacker aus Kanada und Schweden haben die Filtersoftware Cyberpatrol geknackt, in: Telepolis 16. 3. 2000 (Hacker).
Fußnote 174
Vgl. Ernst Corinth, Babelfish ist ein Pornograf, in: Telepolis 7. 3. 2001 (Corinth); Finkelstein / Tien.
Fußnote 175
Corinth.
Fußnote 176
Vgl. Cyber Patrol.
Fußnote 177
Vgl. Hacker.
Fußnote 178
Vgl. Lizenz.
Fußnote 179
Vgl. Volokh.
Fußnote 180
Vgl. Abelson / Godwin.
Fußnote 181
Damit soll vermieden werden, daß je nach Browserhersteller eigene, miteinander nicht kompatible Dialekte von HTML entstehen, so daß einzelne Webseiten nicht mehr allgemein, sondern nur in speziellen Browsern zu betrachten sind. W3C gibt damit (zumindest für HTML) den Standard vor, den alle Firmen beachten sollten.
Fußnote 182
Vgl. Patrick Brauch, Content-Rating: PICS gegen Schmuddeltexte, in: magazin für computertechnik 23/2000 (Content-Rating), 231.
Fußnote 183
[Boris Gröndahl], Privatisierung der Zensur, in: Spiegel online 15. 8. 1997 (Gröndahl).
Fußnote 184
Vgl. Dragan Espenschied / Alvar C. H. Freude, Die Standardisierung der Zensur, in: dies., insert-coin 10. 1. 2001 (Standardisierung); Alexander Gruhler, PICS - eine moderne Version der Zensur?, in: Telepolis 7. 5. 1998 (Gruhler); Gröndahl; Hochheiser.
Fußnote 185
Vgl. Simson Garfinkel, Good Clean PICS, in: Hotwired 5. 2. 1997 (Garfinkel); Lawrence Lessig, Tyranny in the Infrastructure, in: Wired 5.07 (Juli 1997) (Lessig).
Fußnote 186
Vgl. Garfinkel; Gröndahl; Gruhler; Hochheiser.
Fußnote 187
Gröndahl.
Fußnote 188
Vgl. Gruhler.
Fußnote 189
Vgl. Garfinkel.
Fußnote 190
Garfinkel.
Fußnote 191
Gröndahl.
Fußnote 192
Vgl. Garfinkel; Hochheiser; Lessig.
Fußnote 193
Vgl. Stefan Krempl, Die große Filteroffensive, in: Telepolis 10. 9. 1999 (Filteroffensive); Content-Rating 231; Gröndahl; Standardisierung.
Fußnote 194
Vgl. Stefan Krempl, Filterinitiative ICRA: Wir sind die Guten, in: Telepolis 10. 4. 2001 (Filterinitiative); Gröndahl; Hochheiser; Standardisierung.
Fußnote 195
Vgl. Content-Rating 231.
Fußnote 196
Vgl. Gröndahl; Hochheiser.
Fußnote 197
Vgl. Garfinkel; Gröndahl; Hochheiser.
Fußnote 198
Vgl. ebd.
Fußnote 199
Vgl. Gruhler; Hochheiser.
Fußnote 200
Vgl. Gruhler.
Fußnote 201
Vgl. Hochheiser; Conten-Rating 231;
Fußnote 202
Siehe unten.
Fußnote 203
Vgl. Garfinkel; Gröndahl; Gruhler; Hochheiser.
Fußnote 204
Vgl. Gröndahl; Gruhler; Hochheiser; Content-Rating 231; Standardisierung. Ein drittes System namens NetShepard konnte sich nicht durchsetzen, vermutlich auch, weil es statt der Selbstklassifizierung auf die Einstufung durch die eigene Organisation setzte und somit wie die Anbieter von konventioneller Filtersoftware nur eine begrenzte Anzahl der existierenden Webseiten bewerten konnte. Ein weiterer Grund dürfte das Bewertungssystem selbst gewesen sein, da es nur eine Bewertung von einem bis zu fünf Sternen vorsah. Es ist wenig wahrscheinlich, daß sich daneben weitere Standards etablieren können, da eine große Anzahl von Seiten diese neuen Systeme berücksichtigen müßten, damit deren Nutzung sinnvoll wäre. Vgl. Hochheiser.
Fußnote 205
Filterinitiative.
Fußnote 206
Vgl. Filterinitiative; Filteroffensive.
Fußnote 207
Vgl. Filterinitiative; Filteroffensive.
Fußnote 208
Vgl. Monika Ermert, Internet-Filtern auf gut Deutsch, in: heise online 1. 3. 2001 (Ermert).
Fußnote 209
Vgl. Gruhler; Hochheiser.
Fußnote 210
Vgl. Standardisierung.
Fußnote 211
Vgl. Hochheiser; Standardisierung.
Fußnote 212
Vgl. ICRA: Inhaltsfilter fürs Web vorgestellt, in: heise online 8. 9. 2000 (Inhaltsfilter).
Fußnote 213
Ola-Kristian Hoff, zitiert nach Ermert.
Fußnote 214
Vgl. Internet Content Rating Association (ICRA), Klassifizierung Ihrer Site, [Webformular] (ICRA-Webformular).
Fußnote 215
Vgl. Inhaltsfilter.
Fußnote 216
Filteroffensive. Vgl. Filterinitiative; Gruhler.
Fußnote 217
Vgl. ICRA-Webformular.
Fußnote 218
Beispiel nach Standardisierung.
Fußnote 219
Vgl. ICRA-Webformular.
Fußnote 220
Standardisierung.
Fußnote 221
Vgl. Ermert.
Fußnote 222
Vgl. Filterinitiative.
Fußnote 223
Vgl. ebd.
Fußnote 224
Vgl. Gröndahl.
Fußnote 225
Vgl. Filterinitiative.
Fußnote 226
Vgl. Gröhndahl, Inhaltsfilter.
Fußnote 227
Vgl. Inhaltsfilter.
Fußnote 228
Vgl. ebd.
Fußnote 229
Gröndahl.
Fußnote 230
Vgl. Gröndahl.
Fußnote 231
Vgl. ICRA-Webformular. Es sei denn, man versteht die Informationen in Nachrichten grundsätzlich als in einem Zusammenhang mit erzieherischer Absicht stehend und erklärt sie damit als für jüngere Kinder geeignet.
Fußnote 232
Vgl. Jonathan Wallace, Why I Will Not Rate My Site, in: The Ethical Spectacle [1996].
Fußnote 233
Filterinitiative.
Fußnote 234
Ebd.
Fußnote 235
Vgl. Inhaltsfilter.
Fußnote 236
Vgl. Joseph D. Lasica, Ratings today, censorship tommorow, in: Salon 31. 7. 1997; Gröndahl; Gruhler.
Fußnote 237
Vgl. Sierk Harmann, Die Bundesregierung rät: schalten Sie gelegentlich Ihren Filter ab! [Interview von Monika Ermert], in: Telepolis 6. 2. 2000 (Harmann); Gruhler; Filterinitiative;
Fußnote 238
Vgl. Inhaltsfilter.
Fußnote 239
Vgl. Köhntopp / Köhntopp.
Fußnote 240
Vgl. ebd.
Fußnote 241
Vgl. Harmann.
Fußnote 242
Ola-Kristian Hoff, zitiert nach Filterinitiative.
Fußnote 243
Vgl. Filterinitiative. Das ist gleichzeitig ein Hinweis darauf, daß das System zum gegenwärtigen Zeitpunkt nicht darauf ausgelegt ist, an einer in der Netzhierarchie höher stehenden Position als dem Rechner des einzelnen Nutzers selbst (bzw. des Netzwerks eines Unternehmens) eingesetzt zu werden, da bekanntlich Sexseiten zu den meistgenutzten Seiten des Internetz zählen, so daß sich Provider selbst ein Bein stellen würden, wenn sie den Zugang dazu nicht mehr anbieten würden. Außerdem würden die Anbieter von Pornoseiten dann kaum bereit sein, ihre Seiten selber zu kennzeichnen.
Fußnote 244
Lessig.
Fußnote 245
Vgl. Lessig.
Fußnote 246
Garfinkel: if Tan is pulling down documents that glorify democracy, somebody might just pay [him ...] a visit.
Fußnote 247
Vgl. Garfinkel.
Fußnote 248
Vgl. Florian Rötzer, Lässt sich das Internet wirksam von autoritären Staaten kontrollieren?, in: Telepolis 22. 7. 2001; Garfinkel.
Fußnote 249
Vgl. Sara Miles, The Law of the Code, in: Wired 7.11 (November 1999).