Blog

  • Security-Artikelserie und Crypto-Party der Zeit online – Journalismus & Recherche

    Do., 28.02.2013, Berlin, Redaktion Zeit online.
    Patrick Beuth, Redakteur im Ressort Digital bei Zeit online, hat in einer kurzen Serie die wichtigsten Werkzeuge für Anonymisierung und Verschlüsselung vorgestellt. Die Beiträge seiner Serie Mein digitaler Schutzschild sind sehr lesbar und anwendungspraktisch verfasst.

    Vorgestellt werden:

    Beuth betont: „Alle von mir getesteten Werkzeuge sind legal. Und sie sind, auch wenn sie etwas kompliziert erscheinen und ihnen teilweise der Ruf anhaftet, vor allem von Kriminellen genutzt zu werden, für den alltäglichen Gebrauch konzipiert. Ich betrachte ihren Einsatz als digitalen Schutzschild, mitunter als digitale Notwehr.“ Er verschweigt nicht, dass es weitere Möglichkeiten der digitalen Selbstverteidigung gibt, aber die Beiträge (mit hilfreichen Links) ist für Leser eine verständliche und nützliche Einführung in das Thema. Nach dem Vorbild der so genannten CryptoPartys veranstaltet ZEIT ONLINE am 28. Februar 2013 ab 18 Uhr einen Workshop im Veranstaltungsraum in der Redaktion in Berlin. Redakteur Patrick Beuth und die Organisatoren der Berliner CryptoPartys laden die Leserinnen und Leser von ZEIT ONLINE ein, ihre Notebooks mitzubringen und die in der Serie vorgestellten Programme einzurichten und zu testen. Die Veranstaltung ist kostenlos, eine Anmeldung ist erforderlich:

    http://de.amiando.com/crypto_zeitonline1.html

    Bei der Registrierung werden Name und E-Mail-Adresse abgefragt – wer anonym bleiben möchte, kann einen Fantasienamen angeben. Die E-Mail-Adresse, die Sie angeben, dient nur dazu, um Sie über eventuelle kurzfristige Planänderungen informieren zu können. Im Sinne der CryptoPartys können Sie auch eine anonyme E-Mail-Adresse verwenden. Der einfachste Weg, um die Adresse von der eigenen Identität zu entkoppeln, ist, sie in einem Internetcafe zu registrieren und auch nur dort zu nutzen. Bequemere Wege der Anonymität werden auf der Party selbst vorgestellt.

    Die Anzahl der Plätze ist begrenzt. Einnahmen aus dem Getränkeverkauf gehen an das Tor-Projekt.

  • Gezieltes Nichtwissen als Taktik – Journalismus & Recherche

    Rezension von Oliver Hochadel in der NZZ: Nichtwissensgesellschaft : Studien zur gezielten Produktion von Ignoranz. Besprochen wird das von Robert Proctor und Londa Schiebinger herausgegebene Buch Agnotology: The Making and Unmaking of Ignorance. Thema sind ‚wissenschaftliche‘ Studien, deren Zweck darin besteht, mittels Fear, Uncertainty and Doubt (FUD) gezielt Verwirrung zu stiften und Entscheidungen zu verhindern oder zu verzögern. Das scheint eine lohnende Lektüre für Journalisten zu sein, die mit wissenschaftlichen Studien zu tun haben. Agnotology: The Making and Unmaking of Ignorance (Hardcover) by Robert Proctor (Editor), Londa Schiebinger (Editor) Stanford University Press; illustrated edition edition (May 13, 2008) 312 pages ISBN-10: 080475652X ISBN-13: 978-0804756525

    (gefunden bei Hal Faber im WWWW)

  • Jetzt offiziell: dpa setzt auf CAR – Journalismus & Recherche

    Wir haben es schon am Rande der Jahrestagung erfahren, ein Vortrag fiel deswegen aus … Die Deutsche Presseagentur (dpa) setzt auf computer assisted reporting (CAR). Das neue Angebot heißt „RegioData“ und soll im Herbst starten. dpa meldet in eigener Sache: „Auf der Basis von frei verfügbaren statistischen Daten werde dpa die Geschichte hinter den Zahlen recherchieren und Hintergründe beleuchten.“
    Das ist ein Anfang! Wir hoffen, über viele der Recherchen hier lesen und berichten zu können. dpa beobachtet schon seit einiger Zeit die CAR-Szene und war auch auf dem allerersten deutschen CAR-Seminar (in Kooperation mit DICAR) vertreten.

  • Internet – Journalismus & Recherche

    Hinweis: Hier fehlen noch etliche Verlinkungen. Sie werden im Laufe des Tages ergänzt. Ich bitte um Verständnis. Gute Nacht 😉
    Google hat laut „heise online“-Newsticker in Deutschland im September 2006 die 90-Prozent-Hürde beim Marktanteil in Deutschland genommen. Das heißt, mehr als 90 Prozent der Web-Suchanfragen in Deutschland werden bei Google gestellt – und von Google beantwortet. Wie es dazu kam? Google hat sich mit seiner Pagerank-Suchtechnologie und einer einfachen Bedienung die Marktführerschaft erobert und gilt seither als Suchmaschine Nr. 1 im Web. In vielen Browsern ist Google seit Jahren als Standardsuchmaschine voreingestellt. Wir können zwar damit unzufrieden sein, dass Google so marktbeherrschend ist. Fakt ist allerdings: Google ist neben oder vielleicht sogar vor Yahoo und MSN nach wie vor die beste Allround-Suchmaschine. Aus Recherche-Sicht ist es sicher klug, viele Suchmaschinen, vor allem auch Spezialsuchmaschinen, zu kennen. Aber wenigstens den Marktführer Google sollte man nicht nur kennen, sondern auch gut beherrschen. Daher hier die Basics zum Platzhirschen aus Mountain View (Kalifornien).

  • NR-Jahrestreffen 2008: Programmübersicht des Panels „Recherche Online“ – Journalismus & Recherche

    Wie angekündigt, sollen alle Beiträge zum Panel „Recherche online“, die auf dem Jahrestreffen des Netzwerk Recherche e.V. am 13./14. Juni 2008 im Hamburg gehalten wurden, in diesem kleinen Weblog dokumentiert werden. Hier die Programmübersicht, die Links auf die einzelnen Postings werden nachgetragen.
    nr Jahrestreffen 2008, Programmübersicht des Panel „Recherche Online“
    Freitag, 13. Juni 2008 11:00 Uhr

    Vorratsdatenspeicherung, Online-Durchsuchung & Co. – Recht und Gesetz sind nicht immer dasselbe

    Rechtsanwalt Dr. Jan K. Köcher (DFN-CERT) 12:00 Uhr

    Digitaler Informantenschutz

    Matthias Spielkamp, Jürgen Sell, Autoren Journalismus & Recherche 13:00 Uhr

    Google für Einsteiger

    Jan-Michael Ihl, Autor Journalismus & Recherche 14:00 Uhr

    Hey, hey Wiki – Wissensmanagement für Journalisten

    Anton Simons (Redakteur der Rhein-Zeitung, Koblenz) 15:00 Uhr

    Unsichtbares sichtbar und kommunizierbar machen: zur Visualisierung komplexer Netzwerke.

    PD Dr. Lothar Krempel (Max-Planck Institut für Gesellschaftsforschung MPIfG, Köln) 16:00 Uhr

    Deutschlands erste CAR-Redaktion

    Bernd Matthies, RegioData 17:00 Uhr

    CAR & Statistik –Wie finde ich statistische Daten für mein Thema?

    Sebastian Moericke-Kreutz, dpa-RegioData, Autor Journalismus & Recherche 18:00 Uhr

    www.journascience.org: ein Informationsportal als innovative Kooperation zwischen Wissenschaft und Journalismus

    Prof. Dr. Gisela Losseff-Tillmanns, FH Düsseldorf Sonnabend, 14. Juni 2008 11:00 Uhr

    Entenjagd – Quellenprüfung als Minimalkanon der Online-Recherche .

    Albrecht Ude (freier Journalist) 12:00 Uhr

    Social Network Analysis für Journalisten

    Haiko Lietz 13:00 Uhr

    Google für Fortgeschrittene

    Markus Lindemann, Autor Journalismus & Recherche 14:00 Uhr

    Suchmaschinenoptimierung als journalistischer Erfolgsfaktor

    Peter Schink (Blogger, Journalist, Webworker, Welt Online) 15:00 Uhr

    Alternativen zu Google

    Dirk Lewandowski, Hochschule für angewandte Wissenschaften 16:00 Uhr

    Hinter den Kulissen: Einblicke in die Suchmaschinen-Werkstatt

    Dr. Wolfgang Sander-Beuermann (Geschäftsführer SuMa-eV, Leiter Suchmaschinenlabor) 17:00 Uhr

    RSS-Feeds: Die Informationsflut kanalisieren

    Christina Elmer, dpa-RegioData

  • CAR – Seite 2 – Journalismus & Recherche

    Das NDR-Medienmagazin ZAPP berichtet über Datenjournalismus. Dazu gibt’s die Interviews, die im Beitrag als Kurz-Statements erscheinen, in voller Länge (Links unten).

    Das Interview mit Lorenz Matzat, Freier Datenjournalist (24:17

  • Was ist „reich“ für einen FAZ-Autor? – Journalismus & Recherche

    Seit es den Zeitungsverlagen schlecht geht (oder sollte man sagen: seit sie nicht mehr die Monopolrenditen der Vergangenheit verdienen), bekommt man auch bei Air Berlin die FAZ (der SZ geht es offenbar noch nicht schlecht genug…). Das ist natürlich eine erhebliche Verbesserung gegenüber dem Zustand, nur den Focus, die Gala und die Welt Kompakt angeboten zu bekommen (das ist der Rest der Auswahl). Außerdem bekommt man so die Chance, die Qualität der einstmals „besten Tageszeitung der Welt“ (war in den 90ern Mal Eigenwerbung aufgrund irgendeiner Umfrage) zu überprüfen.
    In der heutigen Ausgabe findet sich ein Portrait des Kochs und Unternehmers Daniel Boulud, geschrieben von Roland Lindner. Die Überschrift lautet: „Restaurants machen nicht reich“, und im Text wird Boulud zitiert mit der Aussage: „Die Leute denken immer, nur weil man ein Restaurant hat, hat man auch viel Geld. In Wirklichkeit investieren wir den größten Teil des Gewinns wieder ins Geschäft.“ Sehen wir mal davon ab, dass ich nie dachte, wer ein Restaurant hat, sei reich. Höchstens: Wer ein Imperium von zehn Luxusrestaurants in New York City, Vancouver, Paris, Palm Beach, Las Vegas und Peking hat, ist mit einiger Wahrscheinlichkeit nicht wirklich arm. Aber es geht ja nicht um einen Eindruck, sondern das, was im Artikel steht:

    Dinex (Bouluds Unternehmen) beschäftigt 900 Mitarbeiter, den Umsatz beziffert Boulud auf „zwischen 50 und 100 Millionen Dollar.“

    Etwas weiter hinten:

    Generell nimmt sich Boulud bei seinen Restaurants vor, dass 8 bis 12 Prozent vom Umsatz als Gewinn übrig bleiben.

    Boulud hält die Hälfte der Anteile an Dinex, den Rest teilen sich zwei Partner. Das bedeutet also, dass beim schlechtesten Szenario (50 Mio. Dollar Umsatz, 8 Prozent Gewinn) 4 Millionen Dollar übrig bleiben, von denen die Hälfte Boulud gehören. Jährlich. Beim optimistischsten Szenario sind es 6 Millionen Dollar (die Hälfte von 12% von 100 Mio. Dollar). Ein so schlechter Geschäftsmann, dass die Aussage: „Wir investieren den Gewinn“ bedeutet, dass Boulud keine Abschreibungen geltend machen kann, wird der Herr über 900 Angestellte wohl nicht sein. Aber nehmen wir mal an, dass er dadurch netto noch einmal die Hälfte seines Gewinns „verliert“ – dann bleibt ihm ein Gewinn von 1 bis 3 Millionen US-Dollar im Jahr. Darauf hätte Herr Lindner, Betriebswirt und Wirtschaftskorrespondent der FAZ in New York, auch selbst kommen können (finde ich).

    Es kann natürlich sein, dass derartige Einkünfte für festangestellte FAZ-Redakteure noch lange nicht bedeuten, jemand sei reich. Die Grenzen verschieben sich beständig in einer Welt, in der die FAZ freien Autoren 1,20 Euro pro gedruckter Zeile bezahlt. Aber muss man dann gleich die Überschrift daraus machen?

  • OpenData und Journalismus – Folien online – Journalismus & Recherche

    Am Samstag habe ich gemeinsam mit Lorenz Matzat beim Jahrestreffen des Netzwerks Recherche einen Workshop zum Thema „OpenData und Journalismus“ geleitet. Hier sind die Folien:

    Opendata und Journalismus View more presentations from datenjournalist.

    Außerdem nochmal mal als PDF (2,4 MB) zum Runterladen.

  • Kombi aus Suchmaschine & Katalog – Journalismus & Recherche

    Ich habe vor langer Zeit aufgehört, Kataloge wie das Yahoo-Verzeichnis oder auch das Open Directory Project in Seminaren vorzustellen, weil sie einfach nichts mehr taugen im Vergleich mit Volltextsuchmaschinen. Jetzt gibt es ein neues, interessantes Projekt namens Mahalo (na gut, gibt’s schon seit 2007, aber ist seit Januar 2008 im Beta-Stadium. Man kann ja nicht immer alles sofort bemerken 😉 )
    Dort wird versucht, Meta-Suche (Google, Yahoo etc.) mit redaktionell und durch NutzerInnen erstellten Infos und Einordnungen zu verknüpfen. Noch ist alles ziemlich mau, aber die Einträge zu Suchbegriffen wie Obama zeigen auf, dass da durchaus Potenzial drinsteckt. Nur ist fraglich, wie lange das Projekt durchhält. Gründer Jason Calacanis ist ein sehr erfahrene Web-Unternehmer, aber dass da Geld drin steckt, ist einfach nicht sicher.

  • Das Zwei-Quellen-Missverständnis – Journalismus & Recherche

    Nachwort zur Factchecking-Konferenz des netzwerk recherche beim Spiegel (27./28.3.)
    Vorab: Es war eine der besten Veranstaltungen des netzwerk recherche – selten geht es dort so sach- und handwerksbezogen zu wie am vergangenen Wochenende auf der Factchecking –Tagung im Spiegel-Hochhaus.
    Das mit dem Zwei-Quellen-Prinzip haben die Journalisten hierzulande noch nicht so recht verstanden – von den Journalisten, die diese Regel kennen, meinen die meisten, es genüge, wenn man den zu belegenden Fakt in zwei anderen Medienquellen gefunden habe. Ich habe schon einmal gezeigt, dass das selbst bei so einfachen Fragen wie der Entfernung zwischen zwei Städten zu katastrophalen Fehlern führt, die sich dann aber gleich in allen Medien finden – auch in solchen, die man ansonsten gerne als Qualitätsprodukte lobt. Dokumentare vom Spiegel zeigten am Wochenende ein weiteres Beispiel dieses vermutlich täglich in jeder deutschen Zeitung zu findenden Fehlers: Kaffee sei, so liest man oft, „der nach Erdöl am zwei häufigsten gehandelte Rohstoff der Welt“. Zum Abschreiben gibt es viele, vermeintlich gute Quellen – allein es stimmt bei weitem nicht.
    Auch die Denke der Nachrichtenredakteure, die eine zweite Agentur abwarten, bevor sie eine Meldung übernehmen, führt zu Fehlern. Nämlich dann, wenn beide Agenturen auf dieselbe Quellen zurückgreifen, etwa einen Politiker, der Unsinn erzählt. Die Zwei-Quellen-Regel spricht nämlich von zwei voneinander unabhängigen Quellen. Die Regel kann demnach nur für Ereignisse gelten, bei denen man weiß oder zumindest davon ausgehen darf, dass beide Agenturen einen Reporter haben und diese beiden nicht auf dieselbe gemeinsame Quelle zurückgreifen. Über weite Strecken scheint es daher gängig zu sein, vermeintliche Fakten aus zwei, möglichst anerkannten Medien zu übernehmen. Doch das ist bestenfalls unter großem Zeitdruck noch eine zu akzeptierende Vorgehensweise – die Gefahr, sich dennoch lächerlich zu machen, ist groß. Wie weit verbreitet diese Praxis ist, zeigen zwei Beispiele:

    So berief sich ein großer deutscher Rechercheur, als ihm Fehler in seinem Bestseller nachgewiesen wurden, darauf, dass er diese „Fakten“ aus anerkannten deutschen Medien wie der Bild (!), der FAZ und anderen abgeschrieben „übernommen“ habe und diese ihre Berichte nicht korrigiert hätten (was m.E. kein Kriterium für den Wahrheitsgehalt ist und auch nur schwer abschließend recherchiert werden kann).

    Als ich hier darauf hingewiesen habe, dass auch anerkannte Medien gerne mal Quatsch aus Meldungen oder Vorab-Meldungen gedankenlos übernehmen, teilte mir der zuständige Chefredakteur (der netterweise antwortete) mit, er verstehe meine Kritik nicht, da man die Meldung doch richtig wiedergegeben habe. (Es sei doch richtig, dass die genannte Regionalzeitung das Wiedergegebene geschrieben habe.) Dass die Meldung in sich nicht stimmen konnte, widersprüchlich war, störte ihn offensichtlich nicht. Nur aus dieser Haltung erklärt sich, dass falsche Zahlen zur HartzIV-Lohnabstandsdebatte lange kursierten mit Hinweis auf die seriöse Quelle FAZ.

    Einfacher und dank des Internets oft auch schnell zu erledigen wäre es, eine gute, vielleicht sogar eine privilegierte Quelle zu einer Frage zu finden. Das wird zu selten versucht gemacht.

    Bildblog hat sich die richtigen Zahlen von der Bundesagentur für Arbeit bestätigen lassen. Genau das ist der Weg. So nah ran an eine Primärquellen wie möglich und dann lieber mit nur einer Quelle, die man im Zweifel benennt, als mit mehreren gleichermaßen falschen.
    Entsprechend anders wird das Zwei-Quellen-Prinzip auch im angeslächsischen Journalismus gehandhabt (exemplarisch siehe z.B. „The Essentials of Reuters Sourcing“).
    Das Interesse am fact-checking ist erstaunlich groß – oder ist das gerade deshalb so, weil es so vielen so fremd ist?!