Kategorie: Allgemein

  • Journalismus & Recherche » Blog Archive » Der Programmierer als Journalist – Interview mit Adrian Holovaty, Washingtonpost.com

    Alle glauben sich im Klaren darüber, wie man Journalismus als Schreiber oder Fotograf betreibt. Aber was tut der Programmierer als Journalist? Ein Interview des Online Journalism Review mit dem Web-Guru von Washingtonpost.com, Adrian Holovaty.

    Tags: CAR

  • Journalismus & Recherche » Blog Archive » WikiLeaks & Co.: Chancen und Risiken – Guido Strack über Whistleblower

    Einen ausgezeichneten Vortrag hat Guido Strack vom Whistleblower-Netzwerk e.V. auf der re:publica gehalten und uns erlaubt, seine Folien (PDF, 1,5 MB) zu veröffentlichen. Besonders interessant sind meiner Einschätzung nach die Beschreibung der aktuellen Rechtslage, die Forderungen, was zu ändern ist und die Kritik am Gesetzesentwurf (S. 20-27). Aber auch die Definition des Whistleblowings: ich hatte den Begriff bisher immer so verstanden, dass Whistleblowing erst dann stattfindet, wenn der Hinweisgeber an die Öffentlichkeit geht. So sieht es auch die Wikipedia, aber Strack hat mich recht schnell überzeugt, dass das zu kurz greift (S. 3,11).

    WikiLeaks & Co.: Chancen und Risiken – Guido Strack über Whistleblower View more presentations from spieli.

    Hier außerdem ein Interview von Peter Welchering und Tim Pritlove mit Guido Strack fürs Deutschlandradio auf dem 27c3, dem Jahreskongress des Chaos Computer Clubs.

    CrossTalks 1.3 – Whistleblower from Gerd Pasch on Vimeo.

    Außerdem ein Mitschnitt des Vortrags „Whistleblowing ist mehr als Wikileaks – Licht ins Dunkel bringen!“ von Strack und Johannes Ludwig vom Dok-Zentrum AnsTageslicht.de, ebenfalls vom 27c3.

  • Journalismus & Recherche » Blog Archive » Datenvisualisierung: Die Diskussion

    Im „lab“, dem Trainingsblog der Deutschen Welle über „Neue Medien, multimediale Projekte, Anwendungen und Darstellungsformen im Netz“, hat Marcus Bösch einen Beitrag zur Datenvisualisierung geschrieben, worauf Jakob Jochmann (Mitbegründer und Herausgeber der Kontextschmiede) eine rege, lesenswerte Diskussion ausgelöst hat.

    Da ich hier bei recherche-info.de der Visualisierungsbeauftragte bin, habe ich mich erstens auch beteiligt, zweitens die genannten Sites (Beispiele, Blogs etc.) bei Delicious etikettiert (bzw. „getagged“). “datenvisualisierung” ist zwar ein etwas sperriger Tag, aber dafür umso eindeutiger. Wäre schön, wenn alle Interessierten ihn im Blick behalten. Futter für die RSS-Reader.

  • Journalismus & Recherche » Blog Archive » Erster Open Data Hackday in Deutschland – am 17. und 18. April in Berlin

    Hacks 4 Democracy – Open Data Hackday ist die Überschrift, unter der das Open Data Network seine Veranstaltung ankündigt, die einem BarCamp bzw. Hackathon ähnlich sein soll. Es wird darum gehen, Daten zu erschließen, auszuwerten, zu visualisieren und mit anderen Informationen zu mischen. „So entstehen neue Webseiten, Anwendungen und Prototypen für Transparenz und Partizipation“, wie es auf der Website heißt. Und weiter:

    Mit dem Opendata Hackday “Apps 4 Democracy” wollen wir einen Beitrag dazu leisten Daten aus Politik und Verwaltung öffentlich zugänglich zu machen.

    Die Veranstaltung soll dabei in erster Linie praxisorientiert sein:

    Der Ideenwettbewerb ist eröffnet: Wer hat die besten Ideen für Webseiten / Apps / Visualisierungen / Mashups um die Daten der öffentlichen Verwaltung zugänglich zu machen und so dazu beizutragen Verwaltung und Regierung offen, transparent und bürgernah zu gestalten?

    Und, wie der Gründer des Open Data Networks, Daniel Dietrich, in seiner Ankündigungsmail schreibt: „Caution: This event is „hands on“ – if you prefer to talk about what could be done by others you might get lonely ;)“

    Hacks 4 Democracy – Open Data Hackday:
    http://opendata.hackday.net/

    Am 17. & 18. April 2010

    Samstag, 17. April, in der Kalkscheune Johannisstr. 2

    10117 Berlin

    Sonntag, 18. April, im Upstream – Agile Adalbertstrasse 7-8

    10999 Berlin

    Der Open Data Hackday wird gefolgt vom Open Democracy Camp, das am on 8. & 9. Mai stattfinden wird, ebenfalls in Berlin.

    Da kann man gespannt sein, welche neue Dynamik das Thema jetzt bekommen wird, welche Daten zur Verfügung stehen und was damit gemacht werden kann.

  • Journalismus & Recherche » Blog Archive » Das Zwei-Quellen-Missverständnis

    Nachwort zur Factchecking-Konferenz des netzwerk recherche beim Spiegel (27./28.3.)

    Vorab: Es war eine der besten Veranstaltungen des netzwerk recherche – selten geht es dort so sach- und handwerksbezogen zu wie am vergangenen Wochenende auf der Factchecking –Tagung im Spiegel-Hochhaus.

    Das mit dem Zwei-Quellen-Prinzip haben die Journalisten hierzulande noch nicht so recht verstanden – von den Journalisten, die diese Regel kennen, meinen die meisten, es genüge, wenn man den zu belegenden Fakt in zwei anderen Medienquellen gefunden habe. Ich habe schon einmal gezeigt, dass das selbst bei so einfachen Fragen wie der Entfernung zwischen zwei Städten zu katastrophalen Fehlern führt, die sich dann aber gleich in allen Medien finden – auch in solchen, die man ansonsten gerne als Qualitätsprodukte lobt. Dokumentare vom Spiegel zeigten am Wochenende ein weiteres Beispiel dieses vermutlich täglich in jeder deutschen Zeitung zu findenden Fehlers: Kaffee sei, so liest man oft, „der nach Erdöl am zwei häufigsten gehandelte Rohstoff der Welt“. Zum Abschreiben gibt es viele, vermeintlich gute Quellen – allein es stimmt bei weitem nicht.

    Auch die Denke der Nachrichtenredakteure, die eine zweite Agentur abwarten, bevor sie eine Meldung übernehmen, führt zu Fehlern. Nämlich dann, wenn beide Agenturen auf dieselbe Quellen zurückgreifen, etwa einen Politiker, der Unsinn erzählt. Die Zwei-Quellen-Regel spricht nämlich von zwei voneinander unabhängigen Quellen. Die Regel kann demnach nur für Ereignisse gelten, bei denen man weiß oder zumindest davon ausgehen darf, dass beide Agenturen einen Reporter haben und diese beiden nicht auf dieselbe gemeinsame Quelle zurückgreifen.
    Über weite Strecken scheint es daher gängig zu sein, vermeintliche Fakten aus zwei, möglichst anerkannten Medien zu übernehmen. Doch das ist bestenfalls unter großem Zeitdruck noch eine zu akzeptierende Vorgehensweise – die Gefahr, sich dennoch lächerlich zu machen, ist groß.

    Wie weit verbreitet diese Praxis ist, zeigen zwei Beispiele:

    So berief sich ein großer deutscher Rechercheur, als ihm Fehler in seinem Bestseller nachgewiesen wurden, darauf, dass er diese „Fakten“ aus anerkannten deutschen Medien wie der Bild (!), der FAZ und anderen abgeschrieben „übernommen“ habe und diese ihre Berichte nicht korrigiert hätten (was m.E. kein Kriterium für den Wahrheitsgehalt ist und auch nur schwer abschließend recherchiert werden kann).

    Als ich hier darauf hingewiesen habe, dass auch anerkannte Medien gerne mal Quatsch aus Meldungen oder Vorab-Meldungen gedankenlos übernehmen, teilte mir der zuständige Chefredakteur (der netterweise antwortete) mit, er verstehe meine Kritik nicht, da man die Meldung doch richtig wiedergegeben habe. (Es sei doch richtig, dass die genannte Regionalzeitung das Wiedergegebene geschrieben habe.) Dass die Meldung in sich nicht stimmen konnte, widersprüchlich war, störte ihn offensichtlich nicht.

    Nur aus dieser Haltung erklärt sich, dass falsche Zahlen zur HartzIV-Lohnabstandsdebatte lange kursierten mit Hinweis auf die seriöse Quelle FAZ.
    Einfacher und dank des Internets oft auch schnell zu erledigen wäre es, eine gute, vielleicht sogar eine privilegierte Quelle zu einer Frage zu finden. Das wird zu selten versucht gemacht.
    Bildblog hat sich die richtigen Zahlen von der Bundesagentur für Arbeit bestätigen lassen. Genau das ist der Weg. So nah ran an eine Primärquellen wie möglich und dann lieber mit nur einer Quelle, die man im Zweifel benennt, als mit mehreren gleichermaßen falschen.

    Entsprechend anders wird das Zwei-Quellen-Prinzip auch im angeslächsischen Journalismus gehandhabt (exemplarisch siehe z.B. „The Essentials of Reuters Sourcing“).

    Das Interesse am fact-checking ist erstaunlich groß – oder ist das gerade deshalb so, weil es so vielen so fremd ist?!

  • Journalismus & Recherche » Blog Archive » Konferenz „Informare“ in Berlin

    Auf der diesjährigen Konferenz „Informare“ (Claim: Mehr WISSEN. Besser Entscheiden.) wird es neben der ‘klassischen’ Konferenz auch Workshops und eine „Lange Nacht der Suchmaschinen“ geben, ferner Ausstellungen und ein Barcamp. Themen der Konferenz sind Informationsbereitstellung, Informationsbeschaffung und Wissensvermittlung im digitalen Umfeld, und zwar aus technischer, organisatorischer, politischer und gesellschaftlicher Sicht.
    Die akademisch ausgerichtete Konferenz bietet auch viele für Journalisten und Rechercheure relevante Veranstaltungen, z.B.: – „Web-Suche? Gibt’s nicht mehr!“ von Prof. Dirk Lewandowski (HAW Hamburg) – „Information in Raum und Zeit“ von Prof. Dr. Werner Kuhn (Institut für Geoinformatik, Universität Münster) – „Current Developments in the Websearch World: Global, Local, and Google – Implications for the Information Professionals“ von Marydee Ojala (Editor, ONLINE, USA)

    – „Deutschland, wo sind Deine Kopisten und Kombinierer? Warum wir für Innovationen mehr Imitationen brauchen“ von Gunnar Sohn (Wirtschaftsjournalist, Blogger und Medienberater, Bonn)

    Ferner eine Podiumsdiskussion „Guttenplag, Axolotl Roadkill & RapidShare. Was das Internet aus Autorenethik, Nutzerethik und Urheberrecht macht“ und ein Workshop: „Websuche. Das Nutzerverhalten in der Web-Suche – und was Anbieter von Informationssystemen daraus lernen können“.

    Konferenz „Informare“, Di.-Do., 03.-05.05.2011, Berlin, Cafe Moskau: Homepage, Programm und Anmeldung:

    http://informare-wissen-und-koennen.com/ ,

    http://informare-wissen-und-koennen.com/page/programm-4 ,
    http://informare-wissen-und-koennen.com/page/anmeldung-4 .

    Das Programm mit Abstracts gibt es auch als PDF zum Download.

    Tags: Berlin, Informare, Konferenz

  • Journalismus & Recherche » Blog Archive » “Deep Search” – Politik des Suchens jenseits von Google

    Das Buch liegt bereits seit Monaten auf dem Tisch, aber wie es eben leider oft so ist – mir ist etwas dazwischen gekommen auf dem Weg zur Rezension. Die hat aber inzwischen zum Glück Philipp Albers für die Sendung Breitband in Deutschlandradio Berlin geliefert (auch schon wieder mehr als eine Woche her…):

    Die digitale Explosion konfrontiert uns seit Jahren mit einem regelrechten Daten-Tsunami. Die Suchmaschinen sind es, die uns helfen, diesen Tsunami zu beherrschen. Das Verheerende: Was wir über die Welt wissen, erfahren wir fast immer durch Google. Anders gesagt: Was Google nicht findet, existiert für viele Menschen nicht. Mit dieser Situation und ihren Implikationen beschöftigen sich Medientheoretiker, Kulturwissenschaftler, Soziologen und Politologen im Sammelband “Deep Search – Politik des Suchens jenseits von Google”.

    • Konrad Becker / Felix Stalder (Hrsg.): “Deep Search: The Politics of Search beyond Google”, StudienVerlag & Transaction Publishers, Wien 2009. 216 Seiten, 24,90 €

    deutsche Ausgabe:

    • Konrad Becker/ Felix Stalder (Hrsg.): “Deep Search: Die Politik des Suchens jenseits von Google”, Studienverlag & Transaction Publishers, Wien 2009. ca. 220 Seiten, 24,90 €

    Hier der Beitrag zum Anhören:

    Die MP3 zum Runterladen (3,4 MB)

  • Journalismus & Recherche » Blog Archive » Wie hoch sind die Mauern von Bin Ladens Versteck?

    Susanne Lob hat mich gestern darauf aufmerksam gemacht, dass in deutschen Medien die Angaben zur Höhe der Mauer rund um Bin Ladens Versteck variieren – während FTD und Mopo an einer Stelle 5,40 Meter und an einer anderen 3,60 Meter angeben, nennen FAZ und SZ 5,50 Meter bzw 3,70 Meter, also jeweils 10 Zentimeter mehr.

    Die Ursache ist relativ schnell zu finden. Als Quelle der Grafik wird die CIA angegeben. Mit dieser Google-Suche findet sich das Original recht schnell:

    site:cia.gov abbottabad

    https://www.cia.gov/news-information/cia-the-war-on-terrorism/usama-bin-ladin-operation/abbottabad-compound-graphics.html

    Hier werden 12 und 18 feet angegeben. Offensichtlich haben sich es FTD und Mopo einfach gemacht und einfach mit 30 Zentimetern pro Fuß gerechnet, während FAZ und SZ genauer umgerechnet haben: Ein Fuß entspricht 0.3048 Metern. In der Summe kommen, aufgerundet, dann jeweils 10 Zentimeter mehr raus.

    Die Ungenauigkeit durch das jeweilige Aufrunden ist allerdings fest genau so groß wie die Ungenauigkeit durch die ungenaue Umrechnung. Legt man die Originalangabe in Fuß zu Grunde kann man eine Genauigkeit von plus/minus einem Fuß ausgehen. Gemessen daran würde eine Angabe auf einen Zentimeter genau eine Scheingenauigkeit suggerieren.

  • Journalismus & Recherche » Blog Archive » Verification Handbook angekündigt

    Fact Checking und digitale Quellenprüfung sind journalistisches Alltagsgeschäft. Man muss nicht nur was finden, sei es im Netz oder offline, man braucht auch Massstäbe und Methoden, um beurteilen zu können, ob das Gefundene verwendbar ist, ob man es besser nur mit spitzen Fingern anfasst, oder ob man besser ganz die Finger davon lässt.

    Mit diesem Themenkomplex beschäftigen sich viele Researcher. Die Qualität der Funde nachzuprüfen ist schließlich genau so wichtig wie das Finden selbst. Und so gibt es viele Anleitungen, wie man mit digitalen Quellen umgehen muss (z.B. von Jan Eggers, Paul Bradshaw, Konrad Weber und auch mir). Das netzwerk recherche hatte diesem Thema 2010 eigens eine Fachkonferenz gewidmet: Hier die danach veröffentlichte Broschüre. Mein alter Artikel „Wahrheitsfindung : Webinhalte auf ihre Glaubwürdigkeit prüfen“ aus c’t (2007/21, S. 84-88) ist in der nr-Werkstatt 9: Quellenmanagement – Quellen finden und öffnen nachgedruckt.

    Angloamerikanische Kollegen von BBC, Storyful, ABC, Digital First Media und anderen legen jetzt das „Verification Handbook“ vor:

    Verification Handbook : A definitive guide to verifying digital content for emergency coverage
    Die Schwerpunkte des Buches (laut dem Press Kit) lassen auf eine erfreulich umfangreiche Behandlung des Themenkreises schließen:

    1. Introduction: When Emergency News Breaks
    2. Verification Fundamentals: Rules to Live By
    3. Verifying User Generated Content
    4. Verifying Images
    5. Verifying Video
    6. Putting the Crowd to Work
    7. Preparing for Disaster Coverage at Newsrooms
    8. Creating a Verification Process and Checklists

    Das Buch wird voraussichtlich ab 28. Januar 2014 zum kostenfreien Download bereit stehen, später wird es auch eine gedruckte Version geben:
    http://www.verificationhandbook.com/ .

    Tags: Fact Checking, Quellenprüfung, Verification

  • Journalismus & Recherche » Blog Archive » Bundesagentur gibt sich freundlicher als sie ist

    Nur kurz. Die internen Weisungen der Bundesagentur für Arbeit (BA) sind jetzt online.
    Die BA teilt hierzu in einer Pressemitteilung mit: „Die Bundesagentur für Arbeit (BA) hat im Internet bisher interne Weisungen und Informationen veröffentlicht.“ Genau und kein einziges Dokument darüber hinaus. Und das obwohl auch einzelnen andere Dokumente bereits nach dem IFG herausgegeben wurden und diese dann eigentlich online gestellt werden sollten.
    Weiter heißt es „Die BA setzt damit das seit dem 1. Januar 2006 geltende Informationsfreiheitsgesetz um. (…) Die BA hat sich für die Veröffentlichung zahlreicher Informationen im Internet entschieden, um Bürgern ohne Antragstellung Einsicht in wichtige interne Weisungen zu geben.“ Richtiger wäre wohl, dass die BA damit einem geschlossenen Vergleich nachkommt. Sie selbst hat das nicht entschieden, sondern ausdrücklich verweigert, sonst hätte man ja nicht vor Gericht ziehen müssen.

    „Für die BA bedeutet das neben dem Serviceangebot auch eine Arbeitserleichterung.“ We will quote you on that!
    „Das Angebot wird ständig aktualisiert und erweitert.“ Wir sind gespannt und halten den geneigten Leser hier auf dem Laufenden.

    Tags: CAR, Informationsfreiheitsgesetz