Webmonitoring und Markenbeobachtung auf Twitter

Social Media Monitoring auf Twitter via RSS (Atom) Feed

Vor einiger Zeit änderte Twitter die Möglichkeit, Suchergebnisse auf Twitter via RSS-Feed zu beziehen.
Da dies aber immr noch eine sehr einfache und schnelle Möglichkeit darstellt, eine Marke oder bestimmte sensible Suchbegriffe auf Twitter einem Monitoring zu unterziehen, möchte ich hier die wichtigsten Funktionen erklären, wie man ohne die ehemaligen “RSS-Feed-Buttons” auf Twitter zum Monitoring-Erfolg gelangt.

Webmonitoring – EINRICHTUNG:

Wollen Sie in Ihrem Newsreader oder einer anderen Monitoring-Software einen Twitter RSS Feed parsen lassen, dann sieht die URL für das Monitoring eines Begriffes auf Twitter grundsätzlich wie folgt aus:

https://search.twitter.com/search.atom?q=KEY_WORD

WEBMONITORING FILTER:

Es ist sogar möglich, einen Filter für bestimmte Sprachen in den Ergebnissen zu setzen. Dies sieht dann so aus:
https://search.twitter.com/search.atom?lang=en&q=KEY _WORD (für Englisch, verwenden Sie anstatt “de” einfach “en”.)

Auch die Suche nach zwei Schlüsselbegriffen ist wenig kompliziert:
https://search.twitter.com/search.atom?q=KEY_WORD+KEY _WORD2

Exact Phrase Match:
Für exakte Keywordkombinationen können Sie auch die Keywords unter Anführungszeichen setzen:
https://search.twitter.com/search.atom?q=”KEY_WORD+KEY _WORD2″

Filter Finetuning:
Um bestimmte Begriffe vom Ergebnisfeed auszuschließen, bedient man sich des bekannten Syntax -KEY_WORD
Ein Feed könnte also so aussehen: https://search.twitter.com/search.atom?lang=de&q=KEY_WORD1 -KEY_WORD2

Dadurch würden nur Ergebnisse enthalten sein, die über KEY_WORD1 verfügen, ausgenomme jene, die auch KEY_WORD2 beinhalten, was sehr praktisch ist, wenn man etwa bestimmt Zusatzangaben ausschließen möchte.
Beispiel: Sparkasse -Deutschland, wenn man nur Sparkassen-Ergebnisse aus Österreich erhalten möchte.

Auch eine Möglichkeit: “-RT” – dadurch werden Retweets ausgenommen, man braucht ja eher nur den Originaltweet und nicht hunderte Dubletten.

Rich Snippets in Google Suchergebnissen (SEO)

Höhere Click Through Rates (CTR) mit Rich Snippets auf Google

Was sind Rich Snippets?

Bei Rich Snippets handelt es sich um die wenigen Zeilen Text, die unter jedem Suchergebnis erscheinen. Sie sollen Nutzern eine Vorstellung davon vermitteln, was die Seite enthält und warum sie für ihre Suchanfrage relevant ist. Rich Snippets sind im Rahmen von SEO Maßnahmen sinnvoll, wenn beispielsweise Produkte, Brancheneinträge, Veranstaltungen, Musik, Personen, Unternehmen, Rezepte mit Erfahrungsberichten, Previews (Musik) und Bewertungen (Sterne) versehen werden sollen. Die Attraktivität für Suchende wird dadurch gesteigert, da die Einträge dann einen “von Usern bewerteten Charakter” erzeugen. Die Click Through Rates sollten steigen, vor allem, wenn man sich mit Ergebnissen schon auf den vorderen Rängen befindet.

Beispiele für Rich Snippets auf Google:

Rich Snippet für Technikprodukte

Rich Snippet für einen Drucker

Rich Snippet für Rezepte

Rich Snippet für Rezepte

Rich Snippet für Musik - mit Vorschau und Link zu einzelnen Tracks

Rich Snippet für Musik (Vorschau zu Tracks)

Rich Snippet für ein Unternehmen

Rich Snippet für ein Unternehmen

Google-Dokumentation zu Rich Snippets:

Umfassende Informationen zur Erstellung von Rich Snippets bietet Google auf seinen Rich Snippets Hilfeseiten

Achtung: Spam in Rich Snippets meiden!

Will jemand mit seinem Rich Snippet Fake-Informationen verbreiten (selbst definierte Bewertungen, etc…), können User in einem eigens von Google zur Verfügung gestellten Formular (Report Spam in Rich Snippets) Einträge melden. Das wäre kontraproduktiv. Daher sollten solche microdata Formate nur eingebunden werden, wenn User auch tatsächlich Ratings vergeben können und diese in das jeweilige Rich Snippet Format einfließen. Gefälschte Bewertungen werden leicht als Spam erkannt.

Die wichtigsten Schemas für Rich Snippets (Google-approved) finden sich auf http://schema.org/docs/schemas.html

Mythen und Wahrheiten – wie man in Google News kommt

Google News ’Geheimnisse’ -
Mythen und Wahrheiten für News-Publishers

Sehr oft fragen Medienunternehmen, wie man am besten Artikel in die Google News Sektion urgiert. Auf der Suche nach Antworten gibt es einige Verwirrung, wie Google das Ranking zu News Artikeln bestimmt.

Hier der Versuch, Klarheit zu bekommen – Schnellfassung:

UPDATE – 09/2012

Meta Tags verbessern das Ranking WAHR

Lt. einer neuesten Empfehlung von Google News hat die News-Suchmaschine einen neuen Meta Tag speziell für News-Portale vorgeschlagen, der die thematische Zuordnung von News-Artikel erleichtern soll.
Neuer Meta Tag für Google News Optimierung

Ein Artikelbild verbessert das Ranking MYTHOS

Mehrere Updates zu bereits veröffentlichten Artikeln stören das Ranking in Google News WAHR

Der Zeitpunkt der Veröffentlichung bestimmt das Ranking MYTHOS

Artikel, die nur Bilder und Videos beinhalten, werden nicht gerankt WAHR

Der Grund, warum Artikel nicht erscheinen, ist unklar MYTHOS

Eine Sitemap hilft für besseres Ranking MYTHOS

Ein Redesign kann die Erscheinung in Google News beeinträchtigen WAHR

Teilnehmer am AdSense Programm werden bevorzugt MYTHOS

Weiterführende Links zu Google News Fragen

Google News Support zur optimalen Gestaltung

Häufige Fragen von Medienleuten und Verlegern
´

Google Secure Search – SEO Relevanz

Die Relevanz für SEO – Google stellt auf SSL-Verbindung um

Google Secure Search - SEO - SSL Search

Google Secure Search - SEO - SSL Search

Schon vor Monaten hat Google seine Suche auf über www.google.com auf Secure Search umgestellt.
Demnächst werden auch sämtliche lokalen Google-Suchen (z.Bsp. www.google.AT oder .DE) verschlüsselt.
Diese ist vorerst nur in Kraft, wenn man bei Google einen Account hat und eingeloggt ist.

Was Datenschützer freut, ist für SEO Menschen bzw. für die Auswertung Ihrer Website, eine Crux.

GOOGLE – Begründung

Klar – die Begründung “….helps protect your search results and, in most cases, your search terms (exceptions outlined below) from being intercepted by a third party. This provides you with a more secure and private search experience..” spricht zu Gunsten des Users und natürlich sind auch Datenschutzgründe damit einhergehend, die es ja zu schützen gilt, vor allem für eingeloggte User.

Was ist eine verschlüsselte Suche (Secure Search)?

Bzw. was bedeutet es, eine verschlüsselte Suche zu bedienen?

Bei Click auf ein Suchergebnis in Google wird dann immer eine Seite bei Google aufgerufen (etwa: www.google.com/?gehezu=www.gefunden.com&keywords=meine+keywords).
Diese Seite leitet dann erst auf die Zielseite weiter. Es werden also pro Click zwei Seiten aufgerufen, wobei der SSL-Filterstep einige Auswirkungen hat, vor allem aus SEO Sicht:

- Die Google-Zwischenseite enthält nun den Referrer (für interne Auswertung)

- Mit Google Analytics verbundene Websites erhalten diese Referrers nicht mehr (Keyword “not provided”)

- Nur mehr Google Adwords und Google Webmaster Tools können eine Liste von Suchbegriffen lt. Suchanfragen eingeloggter Google User auswerfen.

Das heißt: alle Keyword Reports (egal ob Google Analytics, SiteCatalyst, Piwik, etc.. ) werden bald Auswertungslücken haben, was die Evaluierung von organischen Suchanfragen und Besuchen über diese betrifft.



Nicht gut für Google Analytics User, aber gut fürs Google Adword Programm

Da die vollständigen Daten in der Secure Search Lösung von Google u.a. auch an Google Adwords übergeben wird, liegt der Verdacht nahe, dass sich Google den Sicherheitsaspekt zu Nutze macht, um noch mehr Kunden in das Google Adwords Programm zu locken. Man kann doch annehmen, dass jede Maßnahme zur Stützung der Cash Cow des Unternehmens (Adwords trägt ca. 95% zum Umsatz von Google bei)  – also auch die SSL Suche – genug Motivator ist, um das weltweit auszurollen. Der Datenschutzaspekt ist sicher nur ein willkommenes Vehikel.

Interessante Weblinks zum Thema:

http://www.icompetence.de/keyword-not-provided-google-secure-search/

http://www.seoptimise.com/blog/2011/11/why-is-not-provided-my-most-popular-keyword-in-google-analytics-and-how-can-i-fix-it.html



Linkaufbau – Linkbuilding – Top Ten Tipps

Linkaufbau – worauf ist zu achten? Bewährte Tipps aus der Praxis

Um in organischen Suchergebnissen (i.e. auf Google) zu guten Rankings für bestimmte Suchanfragen zu gelangen, ist die Linkpopularität einer Website einer der wesentlichsten Faktoren, neben anderen Suchmaschinenoptimierungsmethoden. Die Linkpopularität (Link Wikipedia) ist kurz gesagt “… ein Maßstab für die Anzahl und Qualität von Links…” und wird von Suchmaschinen zur Bewertung von Webseiten verwendet.

Um die Linkpopularität zu steigern, bedarf es eines gezielten Aufbaues von externen Links in relevanten Webumgebungen (themenorientiert). Weiters entscheidend ist ein “gesunder Mix” aus unterschiedlichen Plattformen (Directories, Weblogs, Social Media, etc….) und strategische Diversifikation von Links anhand unterschiedlicher, zielgerichteter Link-Formulierungen (Link-wording, Link-phrasing anhand selektiver Keywords)

Backlink Anteile an Start-/bzw. UnterseitenTOP TEN TIPPS für den LINKAUFBAU

1. Mix aus Links zur Startseite bzw. zu Unterseiten:
Soll eine Website Relevanz aufweisen, sollte sie, nicht wie im Chart rechts, alle Aufmerksamkeit auf die Startseite richten im Linkaufbau. Eine Website ist für Suchmaschinen am interessantesten, wenn sich viele verschiedene Inhalte hinter den eingehenden Links finden. Es ist wohl klar, dass die Inhalte möglichst “unique” im Netz sein sollten, also keine kopierten Artikel, die sich auf anderen Webseiten auch finden….

2. Themenrelevanz. Content muss sich “vertragen”. Links Indie Rock Musik wirken auf einem Musikblog optimaler, als in einem Seniorenforum.

3. Linkphrasing, Linkwording: Keine Links nach dem Schema: “Wir haben die besten Tipps für neue Musik! Klicken Sie hier!” sondern: “Hier haben wir die besten Tipps für neue Musik gefunden!”

4. Linktypen: Link ist nicht gleich Link. Ein Link auf Facebook wirkt anders, als in einem Follow Blog, oder in einem Kommentar eines Nachrichtenartikels. Der Mix macht es aus und der Fokus auf “follow Links only” hat sich mittlerweile relativiert. Alles ist gut, der Mix ist entscheidend.

5. Intensität: Der Linkaufbau soll permanent und moderat von statten gehen. Keine Ho-Ruck Aktionen für 1-2 Monate und dass war’s dann.

5. Blogs / Social Media: Links in Blogs, in Kommentaren, auf Facebook sind mittlerweile für den Gesamtmix wichtig.

6. Wikipedia: Ein Backlinks von Wikipedia ist, auch wenn nofollow, immer eine gute Referenz.

7. Das eigene Netzwerk nutzen: Oft werden die unmittelbaren Freunde und Partner für den Linkaufbau übersehen. Lieferanten, Kunden, Freunde, etc.. sind der ideale Partner im ersten Schritt!

8. Kostenloses anbieten: Das Web ist voll von Plattformen und privaten Blogs, die sich gegenseitig und die Welt über “Kostenloses im Web” unterhalten.

9. Nachrichtenportale mit Kommentaroptionen: Der Linkaufbau über Kommentare ist nicht 1. Priorität, doch es lassen sich über Nachrichtenportale und themenrelevante Beiträge immens viele neue Besucher für eine Website erzielen.

10. Social Bookmarks: Links auf Delicious, Misterwong und Co sind keine tollen Bringer für neue Visits, sie gehören aber zum runden Bild von thematisch und technologisch gut verteilten Links im Web.

Simples Trendmonitoring im Social Web

Einfache Visualisierung von Trends in Social Media

Ja, es gibt Google Trends und Google Insights (beide eine Art Suchvolumenindex), aber es gibt auch noch andere….

1.Boardreader

Notes: Ein recht nettes Tool, Statistiken lassen sich per in eine Website einbinden. Optional Auswertung nach Wochen/Monat, absolute und relative Auswertungen, Tipp: nur < iframe > Part von bereitgestelltem html code embedden….

2. Auch nicht schlecht: Streamgraph @leebyron
Streamgraph Leebyron Beispiel
Notes: Streamgraph Generator ist eine open source Application, die das Twitterrauschen visualisieren kann, leider konnte ich das noch nicht selber testen, aber die Visualisierung verspricht einiges…

3. Für jene, die den Rush in Social Media Outlets nicht ganz glauben…

Zwei interessante Links zum Tag (SEO/Journalismus)

(1) Liegt doch auf der Hand: DAS SELBSTINTERVIEW

oder wie Sie Ihre Reputation im Netz verbessern könnten,

wenn Sie aufgrund mangelnder Berühmtheit selten von Journalisten interviewt werden….

Aus dem Web-Prospekt von Whohub

Whohub wurde im Juli 2008 gegründet und steht in sechs Sprachen zur Verfügung: Englisch, Spanisch, Französisch, Italienisch, Portugiesisch und Deutsch.

SELBSTINTERVIEW-Whohub-seo-reputation

SELBSTINTERVIEW auf Whohub zur Steigerung der Reputation im Netz

Mit einem Selbst-Interview in Whohub haben Sie u.a. folgende Vorteile:

  • Mit der Beantwortung der Fragen im Interview spiegeln Sie Ihren Werdegang und Ihr Werk wider.
  • …eine neue Form, von potentiellen Kunden, Angestellten, Geschäftspartnern oder Kollegen gefunden zu werden.
  • Sie haben die Gelegenheit, Links auf Ihre übrigen Internet-Präsenzen zu setzen. Damit wiederum verstärken Sie Ihre Position in den Suchmaschinen.
  • Sie gestalten Ihre Präsenz im Netz menschlicher und bereichern sie. Das ist effektiver als ein üblicher Lebenslauf.
  • Sie öffnen sich der Welt. Whohub erhält tausende von Besuchern täglich, die aus über 100 Ländern stammen.

Na mal gucken – den SELBSTINTERVIEW Selbsttest werde ich gleich durchführen und SEO-Auswirkungen bzgl. meines Namens oder einzelner Keywords überprüfen (Vorher/Nachher….). Update folgt im Kommentar.

(2) Kontakt zu Journalisten um $1 pro Zeichen

oder der teuerste Twitter-Pressedienst der Welt,

wenn Sie sich als PR-Berater bisher keinen Journalistenverteiler aufgebaut haben.

Muck-Rack-press-releases-twitterstyle

Muck-Rack Service für Press Releases im Twitterstyle

Muck Rack verspricht, ein Verzeichnis der wichtigsten twitternden Journalisten zu sein. Das hat den Vorteil, dass man, nach einzelnen Rubriken geordnet, Journalisten findet, welche zu bestimmten Themen berichten bzw. twittern. Also hat man potentiell drei Chancen.

1. Vorab zu erfahren, worüber Journalisten eventuell morgen berichten (via deren Tweets, für PR Leute bzgl. Monitoring nicht unbrauchbar…)

2. Journalisten direkt kennenzulernen (via FOLLOW bzw. deren Tweets)

3. Journalisten per Muck Rack Presseaussendungsservice direkt mit Unternehmensinformationen zu versorgen.

Letzteres Service kostet allerdings pro Zeichen der Press-Release Kurzinfo 1 Dollar ($1). Nicht billig, aber für sensible Reaktion auf ev. bevorstehende Enthüllungen bzw. zur schnellst möglichen Richtigstellung von falschen Fakten durchaus überlegenswert. Die Presseaussendung kostet minimal $50, maximal 90 Zeichen sind erlaubt. Aber natürlich kann man mittels Link in der Presseaussendung zu ausführlichen Informationen weiterleiten.

Die Idee ist jedenfalls keine schlechte, das Service ist verständlicherweise und aufgrund der Provenienz sehr US-lastig, ein deutschsprachiger Dienst in diese Richtung könnte man fast schon als erfolgsträchtiges Business Model in Erwägung ziehen.

Google Adwords: BANANABAY – EIS.DE; ein EuGH Urteil mit Folgen?

Verwendung markenrechtlich geschützter Keywords für Google Adwords

Darf man, oder darf man nicht? Das war bisher oftmals die Frage.

Google Adwords - Anzeigen

Google Adwords - Anzeigen

Die Anzeigen, welche auf Suchmaschinenergebnisseiten bei Google angezeigt werden, generiert Google’s Anzeigenprogramm Adwords (adwords.google.com) über einen komplizierten Algorithmus, errechnet aus der jeweiligen Suchanfrage des Nutzers und den hinterlegten Daten für die Anzeigen von Werbekunden. Ein Kriterium für das Auslösen einer Werbeanzeige auf Google sind die vom Werbenden definierten “Keywords”. Diese haben mit dem Anzeigentext nicht unbedingt etwas zu tun und können frei gewählt werden. Zumindest in den meisten Ländern (Frankreich hat Google bereits früher Beschränkungen auferlegt). Nach einigen EuGH-Urteilen (das letzte vom 26. März 2010) herrscht nunmehr etwas mehr Klarheit, wobei die Urteile z.T. noch nicht rechtskräftig sind.

EuGH-Urteil im Fall “bananabay vs. Eis.de”

Im letzten Fall “bananabay vs. Eis.de” gab es kurz formuliert folgenden Entscheid des Gerichts:

“Der Inhaber einer Marke darf es einem Werbenden verbieten, auf ein mit dieser Marke identisches Schlüsselwort, das von diesem Werbenden ohne seine Zustimmung im Rahmen eines Internetreferenzierungsdienstes ausgewählt wurde, für Waren oder Dienstleistungen, die mit den von der Marke erfassten identisch sind, zu werben, wenn aus dieser Werbung für einen Durchschnittsinternetnutzer nicht oder nur schwer zu erkennen ist, ob die in der Anzeige beworbenen Waren oder Dienstleistungen von dem Inhaber der Marke oder einem mit ihm wirtschaftlich verbundenen Unternehmen oder doch von einem Dritten stammen.”

Die entsprechende Rechtsgrundlage bietet Art. 5 Abs. 1 Buchst. a der Ersten Richtlinie 89/104/EWG des Rates vom 21. Dezember 1988 zur Angleichung der Rechtsvorschriften der Mitgliedstaaten über Marken.

Google Adwords – Beispiele & Annäherungen

Ein Beispiel sollen verdeutlichen, was wahrscheinlich zu Unterlassungsklagen führen würde, mit entsprechenden Gerichtskosten, bzw. was wahrscheinlich “erlaubt” ist. Die beiden folgenden imaginären Anzeigen sollen dies verdeutlichen…

Red Bull als Keyword für Google Adword Anzeigen

Im ersten Fall wäre es, lt. Rechtssprechung, für Durchschnittsnutzer nicht, oder nur schwer erkennbar, dass die angebotene Ware die mit der vom Markeninhaber erfassten, identisch sind. Die Verwendung des Keywords “Red Bull” würde also sicher der Richtlinie widersprechen.

Im zweiten Fall wird ein Produkt beworben, welches vom Markeninhaber “Red  Bull” wahrscheinlich nicht geschützt ist. Die Bewerbung eines Produktes, welches für Nutzer im Zusammenhang mit der Marke sinnvoll und nützlich erscheint, könnte wohl unter Verwendung des geschützten Begriffes rechtlich einwandfrei sein.

Erste Schritte zum kostenlosen Webmonitoring

Video-Tutorial von salzburg.research zum Thema Webmonitoring

Ja, etwas “deutscher Ansatz”, aber kann man durchaus als Einstiegsvideolektüre zum Thema Online Reputation Monitoring empfehlen.

Markus, Mark & Schaffert, Sandra (2009). Webmonitoring aus Unternehmenssicht – Einsatzmöglichkeiten der Beobachtung und Analyse des Web 2.0. Vortrag beim Salzburg new Media Talk.

credits: Salzburg Research

Das Internet zum Vergessen auffordern?

Wie gelöschte Inhalte im Internet-Gedächtnis trotzdem auffindbar bleiben.

So mancher hat das “Internet Archives” alias “Wayback Machine” schon einmal genutzt. Das Service, welches als Non-Profit Unternehmen “universal access to all knowledge” verspricht, wurde 1996 in San Francisco gegründet. Es ist DIE Internet Bibliothek schlechthin, mehr als 150 Milliarden Websites der vergangenen 15 Jahre sind dort angeblich gespeichert. Jedes Monat wird von jeder Website eine Version auf den großen Servern abgelegt und ist von JEDERMANN einsehbar. So weit, so gut.

Überholte digitale Identitäten – veraltete Inhalte – rufschädigende Inhalte auf ewig gespeichert?

Wayback - Explorer Internet Archive

Wayback - Explorer Internet Archive

Probleme können mit dem Internet-Gedächtnis aber in Fällen auftauchen, wenn etwa jemand eine Domain verkauft, unrichtige Inhalte zu einem gewissen Zeitpunkt veröffentlicht waren, oder – im schlimmsten Fall – strafrechtlich relevante Inhalte im Archiv immer noch auftauchen?

Zwei konkrete “Gedächtnis-Fälle”, die zum Problem werden könnten

1. Sie nehmen eine Homepage (mit urheberrechtlich geschützten Inhalten) aus dem Netz und stellen später fest, daß andere Webseiten diese Inhalte (aus dem Web-Archiv entnommen) verwenden. Wie könnten Sie die rechtswidrige Nutzung vorgehen? Es wird nicht leicht, denn wo ist ihr Original zu finden? wie können Sie nachweisen, wo die Inhalte gestohlen wurden?

2. Sie mussten – aus rechtlichen Gründen – (einstweilige Verfügung, Abmahnung, Gerichtsbeschluss) Inhalte aus Ihrer Website entfernen. Jedoch sind Sie noch immer im Webarchiv auffindbar. Das kann weiteren juristischen Ärger mit sich bringen, obwohl Sie bereits lt. Verfügung gehandelt haben.

Abhilfe: Kontrolle Ihrer digitaler Daten, Werke, Identität

Die Frage ist: Was kann man auf der eigenen Webdomain tun, um eine unerwünschte Archivierung von Inhalten zu unterbinden? Im Prinzip ist es ganz einfach. Man schließt einfach die Suchmaschine (Robot) des Internet Archives aus, die eigene Seite zu lesen.

Internet Archiv erfolgreich ausgeschlossen...

Internet Archiv erfolgreich ausgeschlossen...

Eine simple Anweisung in der sogenannten “robots.txt – Datei”, die sich meist in Ihrem Root Verzeichnis am Website-Server befindet, reicht dazu aus. Auch bis dato archivierte Inhalte können so entfernt werden. Dazu müssten sie in das Stammverzeichnis ihrer Seiten eine Textdatei mit Angaben für genau diesen Cawler von Web-Archiv (lediglich zwei Zeilen) hochladen. Robots suchen im Stammverzeichnis nach dieser Textdatei mit dem Dateinamen ‘robots.txt’ und befolgen die dort notierten Anweisungen.

Robots.txt richtig konfigurieren (zum Ausschluss der Internet Suchmaschine auf Ihrem Server)

Der Robot mit dem Namen “ia_archiver” wird durch die folgende Anweisung für alle Verzeichnisse ausgeschlossen:

User-agent: ia_archiver
Disallow: /

Für den Ausschluss einzelner Verzeichnisse nutzen Sie:

User-agent: ia_archiver
Disallow: /name-des-verzeichnisses-welches-ausgeschlossen-werden-soll

Es können unendlich viele Verzeichnisse, oder auch einzelne Dateien ausgeschlossen werden, beispielsweise ein Bild:

User-agent: ia_archiver
Disallow: /images/zu-entfernende-bilddatei.jpg

Diese zweizeilige Anweisung als Textdatei (ohne Formatierungen) speichern Sie

1. als ‘robots.txt’ lokal als Datei ab (vorzüglich ein simpler Texteditor) und laden diese
2. mit ihrem FTP-Programm in das Stammverzeichnis hoch

Fertig.

Weitere Informationen und Hinweise zur Aufrechterhaltung einer “sauberen” digitalen Identität, die eine eventuell Rufschädigung im Internet vermeiden hilft, finden Sie in meinen anderen Blogkategorien zum Thema:

->>  digital identity management und

->>  Suchmaschinenoptimierung