Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Erinnerung und Vergessen im Netz: Ausgrabungen im digitalen Raum
> Unmengen an Daten werden produziert, gespeichert – und vergessen. Wird
> das alles archiviert? Ein Blick auf künftige Archäologie.
Bild: Vergangenes wird unscharf und unvollständig, auch im Netz
Wer sich im Internet als Hobbyhistoriker betätigen will, der kann mit einem
Mausklick das [1][Internet Archive] konsultieren. Die
Non-Profit-Organisation hat auf ihren Servern 396 Milliarden Webseiten
archiviert. Man findet dort zum Beispiel die Online-Ausgabe der New York
Times vom 11. September 2001 oder einen Snapshot von Spiegel Online aus dem
Jahr 1997, das an das Web 1.0 und die Anfangszeiten der Homepage-Bastler
erinnert. Das Netzgedächtnis, das in einer ehemaligen Kirche in San
Francisco lagert, ist mehr als nur ein Privatarchiv, es ist auch ein Stück
Kultur- und Computergeschichte, das die Entwicklungen der Technologie auf
eindrückliche Weise dokumentiert – wenn auch nur bruchstückhaft.
Doch jedes Archiv, jede Bibliothek (wenn es nicht gerade die totale
Bibliothek von Babel mit unendlich vielen Büchern und Zeichen ist, wie
sie der argentinische Schriftsteller Jorge Luis Borges imaginierte) ist
selektiv: Sie kann schon allein aufgrund des begrenzten Raums nur eine
limitierte Anzahl von Büchern und Schriften archivieren, und bei einer
digitalen Bibliothek ist es aufgrund der begrenzten Speicherkapazitäten der
Rechner nicht anders.
Die Frage ist, ob die Archivierung beziehungsweise Konservierung von
Sinneinheiten in Zeiten digitaler Bilder- und Informationsflut überhaupt
sinnvoll erscheint. Pro Minute werden allein auf Facebook eine halbe
Million Kommentare gepostet, auf YouTube 500 Stunden Videomaterial
hochgeladen. Wer soll das alles aufbewahren? Und warum? Die International
Data Corporation (IDC) prognostiziert, dass das Datenvolumen bis 2025 auf
175 Zettabyte anschwellen wird. Gewiss, Daten sind nicht gleich
Informationen. Doch schon heute ist es schwierig, die Informationen im Netz
zu strukturieren.
Der Webanalyst JJ Rosen geht davon aus, dass der Google-Index lediglich 4
Prozent der Informationen aus dem Netz repräsentiert. Laut einer Studie der
Fachzeitschrift Nature hat Google rund 16 Prozent der Web-Oberfläche
indexiert. Die tieferen Schichten des World Wide Web, das sogenannte Deep
Web, hat der Suchmaschinenriese mit seinen Fangnetzen, den sogenannten
Webcrawlern, noch nicht durchdrungen.
## Kurze Halbwertszeit
Das Deep Web ist ein riesiger Ozean aus Informationen: Datenbanken,
Statistiken, Archive, Geheimdienstdokumente, Facebook-Posts – all das kann
über Google nicht gefunden werden. Es ist ein wenig so, als würde man mit
einem Boot auf offenem Meer in den ersten zwei bis drei Metern unter der
Wasseroberfläche fischen. Doch bis in die Tiefen des Meeres dringt man
nicht vor.
Vint Cerf, „Chief Internet Evangelist“ bei Google und einer der „Väter�…
Internets, [2][warnte vor einigen Jahren vor einem „digitalen Dark Age“]:
Künftige Generationen könnten unter einer Art digitalen Amnesie leiden,
weil alte Formate nicht mehr lesbar seien. „Was über die Zeit passieren
kann, ist, dass, selbst wenn wir große Archive mit digitalen Inhalten
anlegen, wir möglicherweise nicht wissen, was es ist.“ Der Grund: Die
relativ kurze Halbwertszeit digitaler Speichertechnologien.
Blu-ray hat eine durchschnittliche Lebensdauer von 50 bis 100 Jahren
(abhängig von Wärme, Licht, Feuchtigkeit und Kratzer), bei USB-Sticks liegt
sie bei 30 Jahren (wobei die Schreibzyklen begrenzt sind), bei Servern
zwischen zwei bis zehn Jahren. Bedenkt man, dass Inschriften auf Steinen
(etwa der keilschriftlich überlieferte Codex Hammurapi, eine Sammlung von
Rechtssprüchen aus dem antiken Mesopotamien) Jahrtausende überdauert haben,
nimmt sich das als relativ kurze Periode aus.
Angenommen, man schreibt das Jahr 2100 und googelt nach einem Begriff
(sofern die Suchmaschine bis dahin überhaupt noch existiert): Würde man
eine Seite finden, die anno 2019 indexiert wurde? Man kann diese
Überlegungen zu folgendem Gedankenexperiment verdichten: Angenommen, es
gäbe Ende des Jahrhunderts die Profession des Internetarchäologen, der mit
digitalen Werkzeugen die untersten Schichten des World Wide Web freilegt.
Was würde er sehen? Kopien von Selfies? Hasskommentare? Digitalen Müll?
Gelänge es ihm, den Code freizuschaufeln, jenen Baustoff elektronischer
Dörfer, der den Alltag von Millionen Menschen strukturiert? Was würden
Internetarchäologen über den Google- oder Facebook-Algorithmus
herausfinden? Und wäre es nicht auch eine Pflicht der Entwickler, diese
Black-Box-Systeme zu archivieren und der Nachwelt zu überliefern?
Die Entwicklerplattform Github will ihren Open-Source-Code [3][mithilfe
eines Lasers auf einer Quarzglasscheibe eingravieren] und in einem Endlager
in der norwegischen Arktis archivieren. Im Packeis sollen die Daten 10.000
Jahre überdauern. Es geht dabei ja auch um die Erinnerungskultur, um die
Frage, was eine Gesellschaft als konservierbar erachtet, was Eingang in das
Zivilisationsarchiv findet – eine Entscheidung, die man nicht Algorithmen
überantworten kann.
Das Recht auf Erinnern, das als Gegenstück zum [4][Recht auf Vergessen]
bisweilen zu kurz kommt, ist ja ein konstitutives Element der
Öffentlichkeit. Allein, wie will man sicherstellen, dass die Kopien ein
Abbild vergangener Lebenswelten zeichnen, wo schon gut erhaltene
Steinplatten nicht mehr sind als Näherungswerte an vergangene Realität mit
hoher Fehleranfälligkeit? Ist der Gedanke, Informationen zu archivieren,
nicht ein sehr analoger? Können digitale Informationen doch jederzeit
überschrieben werden. Und woher rührt die Speicherwut der digitalen
Gesellschaft, alles aufzeichnen zu wollen?
## Das Internet vergisst
Nach Michel Foucault war das Archiv „das Gesetz dessen, was gesagt werden
kann, das System, das das Erscheinen der Aussagen als einzelner Ereignisse
beherrscht“. Mit der Dekonstruktion wollte der Poststrukturalist nicht nur
die bürgerliche Institution der Bibliothek sprengen, sondern auch das
Wechselspiel zwischen der Erfassung von Aussagen und der Aussagbarkeit
aufzeigen. Für Foucault ist das Archiv eben kein statischer Speicher,
sondern ein dynamisches Aussagesystem, dem a priori bestimmte Machtcodes
eingeschrieben sind.
Überträgt man diesen Gedanken auf die digitale Welt, würde das bedeuten,
dass mit der Indexierung von Informationen bei Google – das dem
Archivierungsprozess sehr nahe kommt – Aussagen über die generelle
Aussagbarkeit von Informationen getroffen werden. Sowohl in dem Sinn, was
unsere Daten über uns aussagen, als auch in dem Sinn, welche Aussagen eine
Suche über die Wirklichkeit im Netz trifft.
Die Diagnose, dass das Problem des Internets nicht in der mangelnden
Fähigkeit des Erinnerns, sondern in der „schwindenden Möglichkeit des
Vergessens“ liege (Roberto Simanowski), wird zuweilen als Störung oder
Defekt eines speicherwütigen Mediums betrachtet. Doch das Internet hat
durchaus die Fähigkeit zum Vergessen. Im März 2019 [5][vermeldete das
soziale Netzwerk MySpace einen riesigen Datenverlust]: Im Rahmen einer
Servermigration seien Millionen Songs, Fotos und Videos, die vor 2015
auf der Seite hochgeladen worden waren, vernichtet worden. 12 Jahre,
einfach so verschwunden.
MySpace war zwischen 2005 und 2008 ein populäres soziales Netzwerk. Doch
dann kam Facebook – und damit begann der Abstieg. MySpace gilt heute als
tot, es gibt kaum noch aktive Nutzer. Doch der Datenverlust macht deutlich,
dass das Vergessen nicht gerichtlich angeordnet werden muss, sondern auch
durch technisches oder menschliches Versagen geschehen kann.
Wissen ist in der Geschichte immer wieder vernichtet, verworfen, verborgen
oder aufgegeben worden, sei es durch Brände, Bücherverbrennung oder
schlichtes Aussortieren. Der britische Historiker Peter Burke beschreibt in
seinem Buch „Die Explosion des Wissens“, wie im 18. Jahrhundert erstmals
der Gedanke aufkam, Bücher nicht deshalb zu vernichten, weil sie ketzerisch
oder subversiv waren, sondern weil sie schlicht nutzlos erschienen.
Bibliotheken sortierten immer wieder Bestände aus, um Platz für neues
Wissen zu schaffen.
## Trump-Tweets müssen aufbewahrt werden
Das gilt auch für digitale Bestände. Die Online-Enzyklopädie Wikipedia
löscht regelmäßig Artikel – das Portal „Deletionpedia“, das es sich zur
Aufgabe machte, gelöschte Artikel aufzubewahren, wurde 2009 eingestellt,
was ja auch ein Indiz für die Vergeblichkeit totaler Speicherung ist. Auch
die Library of Congress, die seit 2010 jeden Tweet archivierte und bis 2013
auf eine stattliche Sammlung von 170 Milliarden Kurznachrichten kam,
[6][hat dieses babylonische Unternehmen 2017 aufgegeben] – das Datenvolumen
war schlicht zu groß.
Einzig die Tweets von Donald Trump müssen nach Vorgabe des Presidential
Records Act of 1978 von Amts wegen aufbewahrt werden – auch die, die er
gelöscht hat. Der Rechtsakt wurde erlassen, um zu verhindern, dass die
Tonbandmitschnitte von Gesprächen mit Ex-Präsident Richard Nixon vernichtet
werden. Die Demokratie erhält sich ein langes Gedächtnis.
13 Feb 2020
## LINKS
[1] https://web.archive.org/
[2] https://www.bbc.com/news/science-environment-31450389
[3] https://archiveprogram.github.com/
[4] /Beschluss-fuer-das-Recht-auf-Vergessen/!5641007
[5] /Datenverlust-bei-MySpace/!5581108
[6] https://www.npr.org/sections/thetwo-way/2017/12/26/573609499/library-of-con…
## AUTOREN
Adrian Lobe
## TAGS
Internet
Archäologie
Recht auf Vergessen
Google
Donald Trump
Schwer mehrfach normal
Google
Tauchen
Bundesgerichtshof
Schwerpunkt Meta
Recht auf Vergessen
Recht auf Vergessen
Google
## ARTIKEL ZUM THEMA
Klüger werden durch Google: Kannst du vergessen
Ich dachte, dass wir unser Gesamtwissen durch die Googelei erweitern
würden. Das Gegenteil stimmt. Wissenschaftler sprechen gar von Digitaler
Amnesie.
Urteil zum Recht auf Vergessenwerden: Keine Fake News bei Google-Treffern
Die Suchmaschine muss Falschinformationen aus ihrer Ergebnisliste
entfernen. Das hat der Europäische Gerichtshof entschieden.
Unterwasser-Archäologe über seinen Job: „Ein bisschen Indiana Jones“
Florian Huber ist Unterwasser-Archäologe und hat kürzlich eine Enigma
gefunden. Ein Gespräch über Geisternetze in der Ostsee und grauen Alltag.
Urteil des BGH zu Suchmaschinen: Google muss nicht vergessen
Kritische Berichte muss die Suchmachine auch nach Jahren nicht auslisten,
urteilt der Bundesgerichtshof. Zumindest nicht, wenn sie stimmen.
Filter bei Facebook und Microsoft: Beim Livetest versagt
Algorithmische Verfahren können mit humaner Wahrnehmung nicht mithalten –
zeigen zwei im „Guardian“ dokumentierte Fälle.
Beschluss für das „Recht auf Vergessen“: Eine einleuchtende Entscheidung
Das Bundesverfassungsgericht hat entschieden: Das Internet muss auch mal
vergessen können. Aber der Beschluss birgt auch eine Gefahr.
Urteil des Verfassungsgerichts: Recht auf Vergessen gestärkt
Die Verfassungsbeschwerde eines 1982 verurteilten Mörders war erfolgreich.
Sein Name muss zukünftig aus Online-Artikeln gelöscht werden.
Entscheidung zur Privatsphäre im Netz: Echtes Vergessenwerden ist Illusion
Der Europäische Gerichtshof zwingt Google, bestimmte Daten von Franzosen in
der EU nicht zu zeigen. Doch globales Link-Entfernen ist keine Lösung.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.