Das Jahr 2006 begann mit einer Ente. Und die blieb nicht lange allein.
Am 01.01.2006 um 10.43 Uhr verbreitete Associated Press (AP) unter der Überschrift „Bund Deutscher Juristen fordert Aussagen unter ‚leichter Folter'“ die Nachricht: „Claus Grötz“, Strafrichter am BGH und Vorsitzender des „Bund Deutscher Juristen“ habe gefordert, zur Terrorbekämpfung müsse die Gewinnung von Aussagen unter ‚leichter Folter‘ möglich sein. So zufolge einer am Vortag um 17.14 Uhr per E-Mail versandten Pressemeldung mit Verweis auf die Website des „Bund Deutscher Juristen“.

[AUde]


Der wurde angeblich bereits 1952 von Richtern des Bundesverfassungsgerichts und des Bundesgerichtshofs gegründet. Angeblich gehören ihm über 2.700 namhafte Juristen an. Für eine Mitgliedschaft bedarf es zweier Ehrenbürgen – angeblich. Der angebliche BDJ sorgt unter anderem für „Vielfalt in der öffentlichen Debatte“ – in der Tat.
Tatsächlich gibt es keinen Bundesrichter Claus Grötz, keinen Bund Deutscher Juristen, und die Website (deren Pages im Fuß den Hinweis „© BDJ/AgenturOMF 1999-2006“ tragen) wurde am 28.12.2005 erstellt. Am selben Tag erst war auch die Domain registriert worden.
Um 12.17 Uhr am Neujahrstag zog AP die Meldung ersatzlos zurück. Aber in den vergangenen 94 Minuten hatten bereits Medien (10.50 h MDR, 11.00 h Yahoo.de Nachrichten, 11.53 h Spiegel online) diesen Hoax übernommen, und auch danach (13.03 h Saar Echo, ohne Zeitangabe: ntv und der WDR) fand er noch den Weg in die Presse, und eine Politikerin der Grünen forderte, Grötz müsse ‚zurück treten‘ (sic! – wehe dem, der hinter im stünde…)

Wer auch immer solcherart vorführen wollte,
– wie leicht Falschmeldungen auch zu brisanten Themen zu lancieren sind,
– auf welch niederem Niveau in deutschen Medien gearbeitet wird,
– wie wenig gewissenhaft Meldungen geprüft (= nachrecherchiert) werden,
er kann sich auf die Schulter klopfen.

Doch es blieb nicht bei dieser Ente…

Die zweite Ente hinter der ersten: Das Zurückrudern der Verantwortlichen und die dahingeschwiemelten ErklärungsEntschuldigungsversuche: Am 3. Januar schreibt die Netzeitung „AP-Chefredakteur Gehrig warnt vor den Gefahren der Routine“. Spiegel online faselt schreibt von einen „nachrichtenarmen Feiertag mit beschränkten Recherchemöglichkeiten“.

Hier offenbart sich, wie wenig selbstverständlich kompetente Online-Recherche in deutschen Medien (auch Online-Medien) ist. Die Ursache dieses Recherchefehlers liegt eher daran, wer an „nachrichtenarmen Feiertagen“ in Agenturen und Redaktionen zur Schicht eingeteilt ist.

– Jemand, der nicht skeptisch wird, wenn eine Website des Impressums ermangelt.
– Jemand, dem nicht bekannt ist, dass jede Webdomain in einer WhoIs-Datenbank erfasst ist.
– Jemand, der die Mühe scheut, z.B. bei der ‚WayBackMachine‘ die Entwicklung einer Website zu überblicken.
– Jemand, der keinen Blick in den HTTP-Header wirft.

Selbstverständlichkeiten, soweit – Routine bei jeder Website, die Quelle sein soll.

Erläuterungen

Hoaxes
Als Hoax werden in Netz Falschmeldungen aller Art bezeichnet, vor allem Kettenbriefe und falsche Virenwarnungen. Einzelheiten in der Wikipedia List of Hoaxes:
http://en.wikipedia.org/wiki/List_of_hoaxes.

Hoax-Info Service – Über Computer-Viren, die keine sind (sog. „Hoaxes“) und andere Falschmeldungen und Gerüchte
http://www.hoax-info.de/,
http://www.tu-berlin.de/www/software/hoax.shtml.

„Snopes.com – Rumor Has It“ – Urban Legends Reference Pages:
http://www.snopes.com/.

Impressum
Die Impressumspflicht für deutsche Webseiten ist im Mediendienste-Staatsvertrag (MDStV) geregelt:
http://www.datenschutz-berlin.de/recht/de/stv/mdstv.htm.

Whois
Ein Internet-Dienst, mit dem Datenbanken abgefragt werden künnen, die über die Inhaber von Domains Auskunft geben. Die derzeit gültige Whois-Spezifikation wurde 2004 in einem RFC (Request for Comments) definiert:
http://www.rfc-editor.org/rfc/rfc3912.txt.

Deutsche Domaindaten können beim Denic abgefragt werden:
http://www.denic.de/.

Internationale Domaindaten lassen sich z.B. bei Allwhois abfragen:
http://allwhois.com/.

Ein umfangreiches Verzeichnis weiterer Whois-Dienste bietet das Open Source Directory Project:
http://dmoz.org/Computers/Internet/Domain_Names/Name_Search/.

Internet Archive
Diese als WayBackMachine bezeichnete Site archiviert Websites, so dass deren Entwicklung nachvollzogen werden kann – allerdings selten lückenfrei. Wohlvermerkt: Was man bei archive.org findet, kann man verwenden. Findet man dort nichts, ist dies kein Beleg für irgendwas, da die WayBackMachine den Robots Exclusion Standard beachtet.
http://www.archive.org/

The Web Robots Pages
Der Robots Exclusion Standard ist ein – inoffizieller – Standard, aufgrund dessen Suchmaschinen und Websites miteinander kommunizieren:
http://www.robotstxt.org/wc/robots.html

HTTP-Header
Neben dem – obligaten! – Blick in den Quelltext einer Webseite (die hat einen HTML-Header) muss man den HTTP-Header analysieren. Er gibt Aufkunft darüber, was der Webserver über die Page weiss – u.a., seit wann sie auf dem Server liegt. Falls der Sysadmin der Redaktion kein eigenes Skript hierfür zur Verfügung stellt, kann man sich der Webseite von Klaus Schallhorn bedienen:
www.kso.co.uk/de/tools.html (Klick auf Server HEAD ansehen).
Wenn die Ausgabe dieses Scripts die Zeile „Last-Modified:“ enthält, findet man dort das Datum und die Uhrzeit (Achtung: GMT!), seit wann die Page auf dem Webserver liegt.

[AUde]

Leave a Reply

Your email address will not be published. Required fields are marked *