Das Internet zum Vergessen auffordern?

Wie gelöschte Inhalte im Internet-Gedächtnis trotzdem auffindbar bleiben.

So mancher hat das “Internet Archives” alias “Wayback Machine” schon einmal genutzt. Das Service, welches als Non-Profit Unternehmen “universal access to all knowledge” verspricht, wurde 1996 in San Francisco gegründet. Es ist DIE Internet Bibliothek schlechthin, mehr als 150 Milliarden Websites der vergangenen 15 Jahre sind dort angeblich gespeichert. Jedes Monat wird von jeder Website eine Version auf den großen Servern abgelegt und ist von JEDERMANN einsehbar. So weit, so gut.

Überholte digitale Identitäten – veraltete Inhalte – rufschädigende Inhalte auf ewig gespeichert?

Wayback - Explorer Internet Archive

Wayback - Explorer Internet Archive

Probleme können mit dem Internet-Gedächtnis aber in Fällen auftauchen, wenn etwa jemand eine Domain verkauft, unrichtige Inhalte zu einem gewissen Zeitpunkt veröffentlicht waren, oder – im schlimmsten Fall – strafrechtlich relevante Inhalte im Archiv immer noch auftauchen?

Zwei konkrete “Gedächtnis-Fälle”, die zum Problem werden könnten

1. Sie nehmen eine Homepage (mit urheberrechtlich geschützten Inhalten) aus dem Netz und stellen später fest, daß andere Webseiten diese Inhalte (aus dem Web-Archiv entnommen) verwenden. Wie könnten Sie die rechtswidrige Nutzung vorgehen? Es wird nicht leicht, denn wo ist ihr Original zu finden? wie können Sie nachweisen, wo die Inhalte gestohlen wurden?

2. Sie mussten – aus rechtlichen Gründen – (einstweilige Verfügung, Abmahnung, Gerichtsbeschluss) Inhalte aus Ihrer Website entfernen. Jedoch sind Sie noch immer im Webarchiv auffindbar. Das kann weiteren juristischen Ärger mit sich bringen, obwohl Sie bereits lt. Verfügung gehandelt haben.

Abhilfe: Kontrolle Ihrer digitaler Daten, Werke, Identität

Die Frage ist: Was kann man auf der eigenen Webdomain tun, um eine unerwünschte Archivierung von Inhalten zu unterbinden? Im Prinzip ist es ganz einfach. Man schließt einfach die Suchmaschine (Robot) des Internet Archives aus, die eigene Seite zu lesen.

Internet Archiv erfolgreich ausgeschlossen...

Internet Archiv erfolgreich ausgeschlossen...

Eine simple Anweisung in der sogenannten “robots.txt – Datei”, die sich meist in Ihrem Root Verzeichnis am Website-Server befindet, reicht dazu aus. Auch bis dato archivierte Inhalte können so entfernt werden. Dazu müssten sie in das Stammverzeichnis ihrer Seiten eine Textdatei mit Angaben für genau diesen Cawler von Web-Archiv (lediglich zwei Zeilen) hochladen. Robots suchen im Stammverzeichnis nach dieser Textdatei mit dem Dateinamen ‘robots.txt’ und befolgen die dort notierten Anweisungen.

Robots.txt richtig konfigurieren (zum Ausschluss der Internet Suchmaschine auf Ihrem Server)

Der Robot mit dem Namen “ia_archiver” wird durch die folgende Anweisung für alle Verzeichnisse ausgeschlossen:

User-agent: ia_archiver
Disallow: /

Für den Ausschluss einzelner Verzeichnisse nutzen Sie:

User-agent: ia_archiver
Disallow: /name-des-verzeichnisses-welches-ausgeschlossen-werden-soll

Es können unendlich viele Verzeichnisse, oder auch einzelne Dateien ausgeschlossen werden, beispielsweise ein Bild:

User-agent: ia_archiver
Disallow: /images/zu-entfernende-bilddatei.jpg

Diese zweizeilige Anweisung als Textdatei (ohne Formatierungen) speichern Sie

1. als ‘robots.txt’ lokal als Datei ab (vorzüglich ein simpler Texteditor) und laden diese
2. mit ihrem FTP-Programm in das Stammverzeichnis hoch

Fertig.

Weitere Informationen und Hinweise zur Aufrechterhaltung einer “sauberen” digitalen Identität, die eine eventuell Rufschädigung im Internet vermeiden hilft, finden Sie in meinen anderen Blogkategorien zum Thema:

->>  digital identity management und

->>  Suchmaschinenoptimierung

Keine Kommentare »

Es gibt noch keine Kommentare.

RSS-Feed für Kommentare zu diesem Artikel. TrackBack URI

Einen Kommentar hinterlassen