Die FAZ vom 31. Mai wartet mit einem schönen Beispiel auf, wie man mit kurzer Recherche den großen Vorstandsvorsitzenden den Bahn der Lüge überführen kann. Der hatte im ZDF-Morgenmagazin nämlich behauptet, im neuen Hauptbahnhof würde – wegen des verkürzten Dachs – allenfalls der Zugführer im Regen stehen, nicht aber der werte Bahnkunde. „pes.“ (Kürzel) von der FAZ ist hingegangen und hat nachgesehen: Mindestens zwei Wagen würden, wenn es regnet, im Regen stehen. Und das ganz planmäßig, denn der von der FAZ in Augenschein genommene ICE stand laut Wagenstandanzeiger planmäßig.
So ist das mit der Recherche: Nachschauen hilft.
Kategorie: Allgemein
-
Schnell zu recherchieren: Mehdorn lügt! – Journalismus & Recherche
-
Alles böse im Netz, oder was? (Studie LfM, Teil II) – Journalismus & Recherche
Er hat es schon wieder gesagt: Alles wird schlimmer mit der Recherche und schuld ist das Internet; Selbstreferentialität sei eine Folge des Internets, gab Thomas Leif (Vorsitzender Netzwerk Recherche e.V.) zu Protokoll – auch wenn das vorangegangene Podium schon zu dem Konsens gekommen war, dass diese Trends weder neu, noch ursächlich mit dem Internet zusammenzubringen seien …
(Was Leif darüber sagt, wie Recherche besser vermittelt werden könnte, kann man so bejahen – die Formen der Wissensvermittlung sind nicht angemessen, training on the job und inhouse müssten verstärkt werden.) Materialauswertung, Telefonate, persönliche Treffen – erst dann käme die Internetrecherche als Ergänzung zu einzelnen Punkten, doziert Leif. Das mag bestenfalls für das, was sich Leif unter Recherche vorstellt, noch gerade so gelten. Im Redaktionsalltag – und darum ging es in der Studie – sieht es anders aus. Google ist neben dem Telefon schon das zentrale Rechercheinstrument. Nun kritisiert Leif ja gerade, dass die Studie eben dies nur feststelle anstatt es zu kritisieren. Zu dieser Auffassung kommt er nur, weil er die Möglichkeiten der Online-Recherche fundamental unterbewertet.Mal ein paar Gegenthesen:
-
2. Band des „Handbuch Internet-Suchmaschinen“ – Journalismus & Recherche
Das von Dirk Lewandowski herausgegebene „Handbuch Internet-Suchmaschinen“ bekommt einen zweiten Band: Neue Entwicklungen in der Web-Suche.
Der Band soll laut Verlagsanzeige: In 12 Kapiteln geben namhafte Wissenschaftler und Praktiker aus dem deutschsprachigen Raum den Überblick über den State of the Art, zeigen Trends auf und geben Handlungsempfehlungen für alle, die sich als Forscher, Entwickler oder Nutzer von Suchmaschinen mit dem Thema Suche beschäftigen. Der Band wird ca. 350 Seiten umfassen. Bei Bestellungen bis zum 15. Mai 2011 gilt der Subskriptionspreis 48,00 Euro, danach kostet das Buch 60,00 Euro.
Den 2009 erschienenen ersten Band gibt es übrigens kapitelweise frei im Netz. Dazu hatte ich in diesem Blog ja schon ein verlinktes Inhaltsverzeichnis gepostet.
Ferner gibt es das Buch „Web-2.0-Dienste als Ergänzung zu algorithmischen Suchmaschinen„, herausgegeben von Dirk Lewandowski und Christian Maaß, erschienen im August 2008 im Logos-Verlag Berlin. Man kann es ebenfalls kapitelweise als PDF aus dem Netz ziehen.
-
Message-Werkstatt zum Web 2.0 ist da! – Journalismus & Recherche
Der neuen Ausgabe der Fachzeitschrift Message liegt ein Werkstatt-Heft zum Web 2.0 bei. Mit allem, was jeder Journo dazu wissen sollte, mit Beiträgen von uns hier! Unsere Idee hat übrigens auf das Hauptheft abgefärbt, so dass es dort einen Web-2.0-Schwerpunkt gibt. Michael Haller schreibt in seinem Vorwort mit dem Web 2.0 sei es wie mit der Eroberung Amerikas, die Auswanderer hätten vor allem drei Motive geleitet: Glaubensfreiheit, bittere Not oder wirtschaftliches Abenteurertum 😉
Viel Spaß beim Lesen!
-
Plug-in – Journalismus & Recherche
Hinweis: Hier fehlen noch etliche Verlinkungen. Sie werden im Laufe des Tages ergänzt. Ich bitte um Verständnis. Gute Nacht 😉
Google hat laut „heise online“-Newsticker in Deutschland im September 2006 die 90-Prozent-Hürde beim Marktanteil in Deutschland genommen. Das heißt, mehr als 90 Prozent der Web-Suchanfragen in Deutschland werden bei Google gestellt – und von Google beantwortet. Wie es dazu kam? Google hat sich mit seiner Pagerank-Suchtechnologie und einer einfachen Bedienung die Marktführerschaft erobert und gilt seither als Suchmaschine Nr. 1 im Web. In vielen Browsern ist Google seit Jahren als Standardsuchmaschine voreingestellt. Wir können zwar damit unzufrieden sein, dass Google so marktbeherrschend ist. Fakt ist allerdings: Google ist neben oder vielleicht sogar vor Yahoo und MSN nach wie vor die beste Allround-Suchmaschine. Aus Recherche-Sicht ist es sicher klug, viele Suchmaschinen, vor allem auch Spezialsuchmaschinen, zu kennen. Aber wenigstens den Marktführer Google sollte man nicht nur kennen, sondern auch gut beherrschen. Daher hier die Basics zum Platzhirschen aus Mountain View (Kalifornien). -
Fragen nach WhatsApp – Journalismus & Recherche
Wem seine Privatsphäre wichtig ist, dem helfen fünf Fragen, um Angebote im Web zu beurteilen – einerlei, ob soziale Netze, Suchmaschinen oder was immer:
- Wo ist der Sitz der Firma, also: welches Recht gilt dort? Um das herauszubekommen, reicht ein Blick ins Impressum.
- Wo stehen die Server der Firma: wohin werden die Daten übermittelt und verarbeitet? Das sollte die Firma eigentlich selbst publizieren. Mit dem Addon WorldIP für den Webbrowser Firefox kann man die Frage selbst beantworten.
Diese ersten beiden Fragen sind wichtig, weil Geheimdienste üblicherweise an Daten herankommen, die sich in ihrem Hoheitsgebiet befinden. Im Falle der USA gibt es die so genannten „Security Letters“, mit den Firmen zur Öffnung ihrer Daten und Verschlüsselungen gezwungen werden. Und darüber dürfen die nicht mal mit ihren Anwälten frei sprechen. Am 8. August 2013 löschte der E-Mail-Dienstleister Lavabit lieber alle Daten seiner Kunden, als der US-Regierung Zugriff zu gewähren. Lavabit-Gründer Ladar Levison dazu „Solange es keine klaren Aktionen des Kongresses oder der Justiz gibt, kann ich nur jedem dringend davon abraten, private Daten einem Unternehmen anzuvertrauen, das direkte physische Verbindungen zu den Vereinigten Staaten hat.“ - Wem gehört die Firma, welche Rechtsform hat sie und wer ist daran beteiligt? Diese Frage kann man oft mithilfe der englischen Wikipedia beantworten.
- Wie werden die Daten übermittelt: kann man die Dienste der Firma mit dem verschlüsselten Protokoll HTTPS via Secure Socket Layer (SSL) abrufen? Wenn das geht, ist nämlich das Ablauschen der Daten während der Übermittlung schwierig, wenn nicht gar unmöglich. Das Addon HTTPS Everywhere von der Electronic Frontier Foundation leistet hier gute Dienste. Es versucht, jede Verbindung im WWW via HTTPS aufzubauen.
- Welche Daten sammelt die Firma? Hier ist man – leider – wohl oder übel auf die Selbstaussagen in der „Privacy Policy“ angewiesen. Es sei denn, die Firma lässt das extern prüfen („zertifizieren“), was allerdings mit Kosten verbunden ist, die gerade kleinere Anbieter scheuen.
Nach dem Kauf von WhatsApp durch Facebook kommt noch eine weitere Frage dazu:
Was passiert mit meinen Daten bei einem Kauf der Firma? (Oder einer Insolvenz?) Und darauf gibt es gar keine Antwort. -
Data Harvest Konferenz in Brüssel – Journalismus & Recherche
Data Harvest Konferenz in Brüssel von Sonntag bis Dienstag, 6. bis 8. Mai 2012 in Brüssel, Erasmushogeschool, 70 Zespenningenstraat. Journalismfund.eu, Wobbing.eu und Farmsubsidy.org laden zur „Data Harvest“ Konferenz. Sie bietet Journalisten und Programmierern aus Europa beste Gelegenheiten grenzüberschreitend Kontakte zu knüpfen, sich zu vernetzen, das eigene Wissen zu mehren und auch konkrete Projekte voran zu bringen.
Themenschwerpunkte sind Informationsfreiheitsgesetze und wie man an Daten kommt („Wobbing“), wie man die Daten verarbeitet und visualisiert („Journo Lab“), zudem werden erfahrene Journalisten Werkzeuge und Methoden in praktischen Workshops vorstellen. Ebenso werden die neuen Datenschätze von Farmsubsidy und deren Anwendungsmöglichkeiten vorgestellt.
Referenten sind u.a. Brigitte Alfter, Helena Bengtson, Stefan Candea, Christina Elmer, Thommy Kaas, Nils Mulvad und Paul Myers. Teilnahmegebühr: 70,- Euro (für die Konferenz und zwei Mittagessen (Montag und Dienstag), zu überweisen an IBAN: BE17 7330 5268 9521 / SWIFT-BIC: KREDBEBB / KBC Bank). Anmeldungen bis zum 27. April an:
administration@journalismfund.eu – Bewerbungsschluss ist der 27. April!
Detailinformationen, Programm und Liste vorgeschlagener Hotels:
http://www.wobbing.eu/news/data-harvest-conference-2012 .
-
Mangelhafte Recherche: die Winnenden-Ermittlungspanne – Journalismus & Recherche
Der Innenminister von Baden-Württemberg päsentierte ein angeblich vor der Tat im Internet veröffentlichtes ‚Bekennerschreiben‘ des Mörders von Winnenden. Das offenbart mangelhafte Online-Recherche der Ermittlungsbehörden. Dabei hatten diese mindestens zwei mal exklusiven Zugriff auf Quellen.
Erstens konnten sie den Computer von Tim K. untersuchen. Hätten sie dort Spuren gefunden, z.B. in der History des Browsers oder in dessen Cache, wäre der Beweis erbracht. Wenn sie keine Spuren gefunden haben, beweist das andererseits nichts – Tim K. könnte von einem anderen Rechner gearbeitet haben oder Experte für digitales Spurenverwischen sein. Der positive Beweis (etwas ist passiert) ist eben leichter als der negative (etwas ist nicht passiert). Letzterer kann sogar unmöglich sein.
Zweitens hatten die Ermittler frühen Zugriff auf krautchan.net, wo die Nachricht angeblich publiziert worden ist. Wer krautchan.net betreibt, weiß derzeit nur die Firma Domains by Proxy. Als die Nachricht in der Welt war, gingen die Server wegen der vielen Nutzeranfragen in die Knie – „slashdotting“ nennt man das im Jargon, auf Deutsch habe ich auch schon mal gelesen, ein Webauftritt sei „geheiset“ worden. Alle Deep-Links auf krautchan, die man durch die Caches z.B. von Google und Yahoo nachweisen konnte, lieferten nur 404-Meldungen. Die Polizei aber wusste von der angeblichen Veröffentlichung dort vorher; sie hätten also die Echtheit prüfen können.Die Fälschung zu beweisen, ist jetzt kaum noch möglich. Nicht-Funde in Caches sind dieser Beleg streng genommen nicht. Nachträgliche Wieder-Veröffentlichungen des krautchan-Threads auch nicht. Serverlogs von krautchan wären es vielleicht, wenn sie garantiert unverändert sind.
Entscheidend ist aber: Auch für die Echtheit des ‚Bekennerschreibens‘ gibt es keinen Beleg. Und unbelegtes Material verwenden, das nennt man Gerüchteküche, das dürfen weder Journalisten, noch Polizei, noch Innenminister.
Der baden-württembergische Innenminister Heribert Rech (CDU) sollte jetzt die politische Verantwortung übernehmen, immerhin ist die Panne in seinem Apparat passiert. Damit meine ich nicht, dass er zurücktreten solle. Er soll dafür sorgen, dass in es seinen Ermittlungsbehörden künftig ausreichende Kompetenz für digitale Spurensicherung gibt. -
Dezember 2012 – Journalismus & Recherche
Der Informatikstudent Henning Tillman untersucht im Rahmen seines Diploms, wie einfach Nutzer des World Wide Web zu identifizieren sind. Er untersucht nicht allbekannte Techniken wie etwa Cookies, sondern die eher unbekannte Methode des „Browser Fingerprints“. Tillmann bittet um Teilnahme an seiner Erhebung, die noch bis zum 15. Dezember läuft. Persönliche Daten wie Name oder Ort werden dabei nicht erhoben. Wer teilnimmt, bekommt seinen Browser Fingerprint angezeigt und kann sich per E-Mail über die Ergebnisse informieren lassen. Erhebung: Wie einfach sind Sie zu identifizieren?
http://bfp.henning-tillmann.de/ .
-
Wie hoch sind die Mauern von Bin Ladens Versteck? – Journalismus & Recherche
Susanne Lob hat mich gestern darauf aufmerksam gemacht, dass in deutschen Medien die Angaben zur Höhe der Mauer rund um Bin Ladens Versteck variieren – während FTD und Mopo an einer Stelle 5,40 Meter und an einer anderen 3,60 Meter angeben, nennen FAZ und SZ 5,50 Meter bzw 3,70 Meter, also jeweils 10 Zentimeter mehr. Die Ursache ist relativ schnell zu finden. Als Quelle der Grafik wird die CIA angegeben. Mit dieser Google-Suche findet sich das Original recht schnell: site:cia.gov abbottabad
https://www.cia.gov/news-information/cia-the-war-on-terrorism/usama-bin-ladin-operation/abbottabad-compound-graphics.html
Hier werden 12 und 18 feet angegeben. Offensichtlich haben sich es FTD und Mopo einfach gemacht und einfach mit 30 Zentimetern pro Fuß gerechnet, während FAZ und SZ genauer umgerechnet haben: Ein Fuß entspricht 0.3048 Metern. In der Summe kommen, aufgerundet, dann jeweils 10 Zentimeter mehr raus.
Die Ungenauigkeit durch das jeweilige Aufrunden ist allerdings fest genau so groß wie die Ungenauigkeit durch die ungenaue Umrechnung. Legt man die Originalangabe in Fuß zu Grunde kann man eine Genauigkeit von plus/minus einem Fuß ausgehen. Gemessen daran würde eine Angabe auf einen Zentimeter genau eine Scheingenauigkeit suggerieren.