Kategorie: Allgemein

  • Den Blick schärfen – Bildmanipulationen erkennen – Journalismus & Recherche

    My belief is that every single major magazine cover is retouched,“ so Scott Kelby, Präsidentin der Florida-based National Assn. of Photoshop Professionals. Das weiß eigentlich jeder, zur Demonstration reicht ein Blick in die Auslage eines beliebigen Kiosk, Abteilung Fernsehmagazine: Lächelnde, langhaarige, meist blonde Frauen mit e-normem Dekolleté und blendend weißen Zähnen vor blauem Hintergrund. Man muss immer erst nachlesen, wer diese steril dargestellte Person in echt denn sein soll.
    Über diese moderne Unsitte ist gerade ein hübscher Artikel von Jeannine Stein in der LA Times erschienen:

    Photoshopped images: the good, the bad and the ugly
    The graphics editing tool is praised for making people look their best and dissed for setting the bar too high

    (daraus auch das Zitat am Anfang). Dazu noch eine sehenswerte Demo Can you see the differences? Die Story erinnerte mich an eines meiner Lieblingsblogs, dessen Name nicht erläutert werden muss:

    PhotoshopDisasters

    Gute Unterhaltung für offene Augen und einen wachen Verstand. (& wer wirklich tief einsteigen will, muss mit Gustav René Hocke durchs Labyrinth).

  • Wie viele Sites durchsucht Google? – Journalismus & Recherche

    Seit Google den Hinweis auf der Startseite gestrichen hat, weiß man das nicht mehr so recht. Aber manchmal bekommt man eine Ahnung. Mein aktueller Tipp: Google durchsucht im Moment rund 12 Millionen Sites.

    Wie ich darauf komme? Mit aktiviertem „Safesearch“ suche ich den erstbesten Begriff, den google mir dann nicht mehr anzeigen sollte, „porno“ („fuck“ geht auch, aber es gibt auch Sites, die trotz Safesearch dann noch angezeigt werden). Nun zeigt mir google doch tatsächlich 11,13 Milliarden Treffeer an (vor dem Abschalten des Hinweises war google bei knapp unter 5 Milliarden) und weist zugleich darauf hin, dass man den Begriff „porno“ aus meiner Suche entfernt habe. Was aber hat google nun gefunden? Vermutlich einen Großteil aller Sites, die überhaupt durchsucht wurden. (Nach Angaben der deutschen Hilfe von Google wären es nur 8 Milliarden. – Recherch-o-log enthüllt: Google durchsucht 50% mehr Sites als sie zugeben.)

    Die Gegensuche „porno“ ohne Safesearch bringt 9,36 Millionen Treffer – die kommen noch oben drauf. Und sonst noch? Naja, alles was google durchsucht, aber sowieso nicht anzeigt, auch nicht ohne Safesearch. Also, 11,13 Mrd plus 0,00936 Mrd plus x.

    PS: Wenn mir jemand erklären kann, warum die Anfrage „porn OR porno“ weniger Ergebnisse bringt …

    PPS: Warum kann ich google.cn nicht aufrufen? Bei anderen Endungen geht das. google.cn bekomme ich nur als cache …

  • Die Wir-Wollen-Alles-Über-Sie-Wissensgesellschaft – Journalismus & Recherche

    Da Informationen sammeln und Daten Schützen zwei Seiten einer Medaille sind, sei mir hier ein kleiner Hinweis auf das gestern erschienene Buch „Schwarzbuch Datenschutz“, herausgegeben von den FoeBuD-Recken Rena Tangens und padeluun.

    Das Buch versammelt auf rund 180 Seiten 38 Laudatio-Texte (also Laudationes) aus sechs Jahren Big-Brother-Award, den der FoeBuD mit einer Reihe von Organisationen alljährlich so genannten Datenkraken verleiht, Unternehmen und Personen, die sich durch außerordentlich Datenschutz-unsensiblen Umgang mit Informationen auszeichen. Damit daraus Erfolgsgeschichten werden, wie die Herausgeber in ihrem Vorwort schreiben, sind die Laudatio-Texte um – meistens sehr knappe – frisch recherchierte Nachträge ergänzt. Mit einer Argumentations- und Orientierungshilfe, warum Privacy überhaupt wichtig für die Demokratie ist und wohin die Reise zwischen den Polen „Privatsphäre gibt es sowieso nicht mehr“ und „meine Daten gehören mir“ in der RFID– und Social-Software-getaggten „Wir-Wollen-Alles-Über-Sie-Wissensgesellschaft“ gehen kann, schließt das Schwarzbuch Datenschutz (13,90 Euro im Buchhandel, FoeBuD-Shop, Amazon).

  • Buch: Web 2.0 für Journalisten – Journalismus & Recherche

    Vom J-Lab, dem Institute for Interactive Journalism (University of Maryland Philip Merrill College of Journalism und the Knight Citizen News Network) stammt eine neue Veröffentlichung:

    Journalism 2.0 : How to Survive and Thrive. A digital literacy guide for the information age / Written by Mark Briggs. Foreword by Phil Meyer. Edited by Jan Schaffer

    © 2007 Mark Briggs, Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

    {PDF-Datei, 2.017 KB, 132 S.}

    Nach erstem Durchblättern eine sehr brauchbare Einführung in die Publikationstechniken, die man gemeinhin als Web 2.0 bezeichnet. Für viele Journalisten sicherlich ein sehr lesenswerter Text. Den Untertitel „literacy guide“ finde ich aber etwas zu weit geworfen, denn der Text behandelt lediglich die Produktion und Publikation von internetbasierten Medien. Bedauerlicherweise wird auf Recherche im Web 2.0 nicht eingegangen.

    Unübersehbar ist die Verwandschaft des Buches zum Projekt J-Learning, das aus dem gleichen Hause kommt und das erwähnenswerte Journalism 2.0 Blog betreibt.

    Das Inhaltsverzeichnis: Introduction: A Smooth Sea Never Made a Skilled Sailor Chapter 1: FTP, MB, RSS, oh My! Chapter 2: Web 2.0 Chapter 3: Tools and Toys Chapter 4: New Reporting Methods Chapter 5: How to Blog Chapter 6: How to Report News for the Web Chapter 7: Digital Audio and Podcasting Chapter 8: Shooting and Managing Digital Photos Chapter 9: Shooting Video for News and Feature Stories Chapter 10: Basic Video Editing Chapter 11: Writing Scripts, Doing Voice-overs Epilogue: Putting it All Together

    Appendix: Script for Hurricane Family Feature

  • Bücher & Publikationen – Journalismus & Recherche

    Fact Checking und digitale Quellenprüfung sind journalistisches Alltagsgeschäft. Man muss nicht nur was finden, sei es im Netz oder offline, man braucht auch Massstäbe und Methoden, um beurteilen zu können, ob das Gefundene verwendbar ist, ob man es besser nur mit spitzen Fingern anfasst, oder ob man besser ganz die Finger davon lässt.

  • Übungsmaterial – Journalismus & Recherche

    Hier werden von Zeit zu Zeit Rechercheaufgaben für Seminare sowie deren Lösungen online gestellt. Die Lösungen fürdie Klausuren an Hochschulen finden sich hier nicht.

    Excel material Crime statistics

    crime statistics

    inhabitants

    inhabitants schleswig Holstein

    fuel consumption data

    Kopie von ORIGINAL_2010_09_08_EcoTest_Liste_CO2-Hersteller (1)

  • Albrecht Ude: Entenjagd – Quellenprüfung online – Journalismus & Recherche

    Weil ich mit Marcus zusammen das ganze Panel organisiert habe, musste ich auch schierem Zeitmangel den Vortrag nochmal halten, den ich schon beim letzten Jahrestreffen zum Besten gab. Immerhin hatte ich Zeit, ihn nochmal zu überarbeiten.
    Hier sind die Folien (PDF-Datei, 24 S., 50 KB)
    und die Linkliste (PDF-Datei, 4 S., 20 KB) dazu. Nach dem Vortrag im letzten Jahr hatte ich zu dem Thema einen Fünfseiter in der c’t, der (mit Genehmigung der Redaktion) in der nr-Werkstatt 9 nachgedruckt ist:

    Quellenmanagement – Quellen finden und öffnen / Hrsg.v. netzwerk recherche e.V. Konzeption: Dr. Thomas Leif (verantw.) Redaktion: Thomas Schnedler. Redakt. Mitarbeit: Daniel Bouhs Wiesbaden : netzwerk recherche, 6/2008. – 140 S., brosch.

    (nr-Werkstatt ; Bd. 9)

    (PDF-Datei, 140 S., 888 KB)
    Update [21.02.2011]: Eine Ergänzung zum Thema gibt es hier:

    PR in der Wikipedia.

    Viel Spaß!

  • Startpage ist das neue Scroogle – Journalismus & Recherche

    Ixquick betreibt den neuen Service „Startpage“
    https://www.startpage.com/ , mit dem man Google-Ergebnisse bekommt, ohne von Google ausgeforscht zu werden.

    Ixquick, nach Eigenwerbung „die diskreteste Suchmaschine der Welt“, geht besonders datenschutzkonform mit Nutzerdaten um
    und hat das erste europäische Datenschutz-Siegel bekommen. Ixquick ist eine Metasuchmaschine (also ohne eigenen Web-Index).

    Mit Startpage kann man jetzt anonymisierte Google-Ergebnisse bekommen: Keine Aufzeichnung von IP Adressen und Suchanfragen, keine Verwendung von Tracking Cookies.

    Weitere Vorteile zeigt zum Beispiel die Suche nach „pizza“. Bei einer solchen Suche läuft bei Google ein Lokalisierungsfilter, d.h. der Standort des Nutzers wird ermittelt und Ergebnisse zuerst angezeigt. Dergleichen passiert bei Startpage nicht. Ein weiterer Unterschied zeigt sich bei den einzelnen Treffern (achtung, das gilt nicht für die Anzeigen!): Für pizza.de zeigt Startpage den Link:

    http://pizza.de/

    und dahinter liegt die Verlinkung:

    http://pizza.de/ ,

    man wird also direkt mit dem Suchtreffer verbunden. Anders bei Google: Angezeigt wird

    pizza.de

    Tatsächlich klickt man aber auf:

    http://www.google.de/url?sa=t&rct=j&q=pizza&source=web&cd=1&ved=0CGcQFjAA&url=http%3A%2F%2Fpizza.de%2F&ei=5h5fT8nYIM-1hAefiODRBw&usg=AFQjCNG5DMQ1FkXKwbDwPe1xQGZ1Jb7sbA&cad=rja

    In Wirklichkeit verbindet der Link also mit Google, wo der Klick des Nutzers gespeichert und ausgewertet wird, und danach erst wird der Nutzer zu pizza.de umgeleitet.

    Die erweiterten Operatoren von Startpage weichen etwas von denen von Google ab.

    Etwas umständlich ist es, die URLs von Suchabfragen anzusehen (was ich immer gerne tu), denn in der Adresszeile erscheint nur

    https://startpage.com/do/search?.

    Dazu muss man die Abfrage zu einem Lesezeichen machen, dass man wie üblich analysieren kann.

    Jedenfalls ist Startpage ein empfehlenswerter Ersatz für Scroogle, das bedauerlicherweise seit Februar offline ist.

  • Data Driven Journalism: Versuch einer Definition – Journalismus & Recherche

    Lorenz Matzat hat vergangene Woche im Blog des Open Data Network den folgenden Versuch einer Definition vorgestellt. Wir veröffentlichen den Text mit freundlicher Genehmigung; er steht unter der Lizenz CC-by-sa/3.0/de. Matzat wird Gast eines Workshops beim Jahrestreffen des Netzwerks Recherche sein, dass am 9. und 10. Juli in Hamburg stattfindet. Den genauen Termin geben wir bekannt, soblad er feststeht.
    Das Internet ist nicht arm an Buzzwords – Schlagworten, die für einige Zeit Konjunktur haben und sich eben etablieren oder wieder verschwinden. Data Driven Journalism (DDJ) geistert vermehrt seit vergangenem Jahr durch das Web. Im März 2009 startet die englische Tageszeitung The Guardian auf ihrer Website das Datablog; es ist eingebettet in einen Datastore und dürfte bislang als Referenz für DDJ gelten. Einer breiteren Öffentlichkeit wurde das Thema „Datenjournalismus“ in Deutschland durch die Zeitschrift „M – Menschen Machen Medien“ im März 2010 näher gebracht. Im Periodikum des Fachbereichs Medien der Gewerkschaft ver.di mit einer Auflage von 50.000 Exemplaren ging es um die „Spannende Recherche im Netz“.

    Begonnen hat es allerdings schon 2006: Als eine Art Manifest in Sachen DDJ gilt der Text „A fundamental way newspaper sites need to change“ von Adrian Holovaty. Er meinte, dass viele Informationen bereits in einer strukturierten Form (=Datensätze) vorliegen oder sinnvollerweise in einer solchen abgelegt werden könnten. Als Beispiel nannte er einen Brand in einem Wohnhaus – es gäbe Fakten, die immer gleich sind – letztlich die berühmten W-Fragen: Wo, wann, wie viele Betroffene, Verletzte, Tote, wie viele Feuerwehrmänner waren im Einsatz etc. Zeitungsredaktionen usw. könnten also Datenbanken über Ereignisse mit einer konsistenten Datenstruktur aufbauen, so Holovaty, die sowohl für die eigenen Recherche als auch online als Angebot für die eigenen Nutzer/innen bereitgehalten werden können – man denke beispielsweise an eine Karte, auf der sich die Feuer anzeigen lassen und eben nach diversen Kriterien Filtern lassen.

    Was ist also das Neue am Daten-getriebenen Journalismus?

    Die Recherche in Datensätzen, etwa Statistiken, ist wahrlich nichts Neues. Das gilt auch für die rechnergestützte Recherche, das Computer-assisted-reporting (CAR), welches seit Jahrzehnten praktiziert wird.

    Dagegen ist DDJ eine Kombination aus einem Recherche-Ansatz und einer Veröffentlichungsform: Ein oder mehrere maschinenlesbare Datensätze werden per Software miteinander verschränkt und analysiert – damit wird ein schlüssiger und vorher nicht ersichtlicher informativer Mehrwert gewonnen. Diese Information wird in statischen oder interaktiven Visualisierungen angeboten und mit Erläuterungen zum Kontext, Angaben zur Datenquelle (bestenfalls wird der Datensatz mit veröffentlicht) versehen. Letztere wird ggf. kommentiert (in Schrift, Ton oder Bewegtbild). Liegen die Daten nicht maschinenauswertbar vor (z.B. hundertausende Emails) können die User aufgefordert werden, die Recherche weiter mit voranzutreiben (“Crowdsourcing”, siehe bspw. “Investigate your MP’s expenses“).

    Der Wandel der Journalistenrolle DDJ setzt voraus, dass der Journalist/die Journalistin bereit ist, seine oder ihre Recherchequelle mit dem Konsumenten des Beitrags zu teilen. Die Quelle wird überprüfbar, aber auch weiterverwendbar. Diese Form der Ermächtigung des Nutzers findet sich im Prinzip von Creative Commons, aber auch dem Open Access-Ansatz in der Wissenschaft wieder; dort wird es üblich, auch die Datenbasis der Forschung parallel zum Forschungsergebniss zu veröffentlichen (was z.B. die Qualität von Peer-Reviewing steigern kann). Weiter müssen Datenjournalisten nicht nur offen für technologische Aspekte des Web sein, sondern sie auch beherrschen. Datenrecherche meint vielleicht auch, Daten zu erlangen, die erstmal gar nicht für die Öffentlichkeit gedacht sind. „Data-Mining“ und das „scrapen“, das Ausschaben von Websites, um an Rohdaten zu gelangen, sind hier die entsprechenden Stichworte. Die Journalisten selbst sollten also Programmierkenntnisse erlangen („computer literacy“) und/oder Redaktionen sollten Programmierer anheuern.

    Grenzfälle

    Debattieren ließe sich, inwieweit Datenvisualisierung Teil von DDJ ist. Das Metier der Produktion von Infografiken ist erstmal kein neues Feld; ob rein statische Visualisierungen von Daten (Balkendiagramme und Co.) direkt zu DDJ zählen, dürfte davon abhängen, ob andere Kriterien von DDJ erfüllt sind (etwa die Veröffentlichungen von Datenquellen). Dagegen sind interaktive Grafiken, Mashup-Karten uä. sicherlich schon eher DDJ.

    Aber ist es noch Journalismus, wenn es keinen Journalisten mehr gibt, sondern eine rein automatisierte Websoftware Datenbanken abfragt, bearbeitet und dann wiedergibt? Manche zählen Projekte von mySociety.org (etwa TheyWorkforYou.com) oder Frankfurt gestalten zum DDJ. Wo verläuft die Grenze zwischen Informations-Dienstleistung und Berichterstattung? Vielleicht könnte man hier von „Maschinen-Journalismus“ sprechen.

    Mehrwert Datenjournalismus fußt also auf den Prinzipien einer freien und offenen Netzkultur: Freier Zugang zu Wissen, das Teilen von Informationen und der Zusammenarbeit. Die automatisierte Erschließung, Auswertung und Aufbereitung von den teilweise monumentalen Datensätzen aus Politik, Verwaltung, Wirtschaft und Wissenschaft (Stichwort OpenData) kann qualitativen Mehrwert bieten: Das Verständnis von und die Berichterstattung über Gesellschaft und Natur erweitern. Oder Zusammenhänge aufzeigen, die vorher nicht ersichtlich waren. Welche Rolle Daten in Sachen investigativem Journalismus spielt, muss angesichts des erfolgreich Projekts Wikileaks hier nicht weiter ausgeführt werden. Weiter kann DDJ sowohl dem Rechercheur als auch dem User einfach zu bedienende Werkzeuge an die Hand geben, mit denen sich besagte Datenquellen durchdringen lassen. Und DDJ kann webgestützt eine kollektive, eine kolloborative Recherche organisieren, falls Software (noch) nicht Datenbestände sinnvoll auswerten kann.. Mit DDJ wird sich jedenfalls die Rolle von (manchen) Journalisten weiter wandeln. D.h, aber auch, dass das anhaltende Hadern der etablierten Medien mit dem Netz weitergehen wird. Denn das hat einiges mit dem Selbstverständnis ihrer Macher zu tun. Die digitale Demokratisierung der Produktionsmittel von Medien stellt die Positionen des klassischen Journalisten in Frage – das tritt im Streit Blogger versus „echter“ Journalist anhaltend zutage.

    Dabei geht es schlicht um ein zentrales Element der jetztigen Gesellschaft: Informationshierarchie – wer kann Informationen zurückhalten, wer hat die Deutungshoheit über das, was geschieht. Und wer kann seine Deutung mit größtmöglichster und weitreichenster Autorität verbreiten.

  • Reader: Auskunftsrechte kennen und nutzen – Journalismus & Recherche

    In der taz-internen Ausbildungseinrichtung für Praktikanten und Volontäre mache ich einen Workshop über die Auskunftsrechte, die Journalisten bei der Recherche nutzen können. Den Reader gibt es jetzt bei der taz zum Download. Zwei Aspekte daraus werden auch Anfang Juni auf dem Jahrestreffen des Netzwerk Recherche Thema sein: In dem Workshop „Computer Assisted Reporting in Deutschland“ geht es gut zehn Minuten lang darum, wie man aus einer Excel-Datei mit den Rohdaten für den Berliner Waldzustandsbericht einen Artikel machen kann. Der Workshop beginnt am Freitag um 12:15 Uhr im Raum R3 und wird moderiert von Christina Elmer (dpa Regiodata). Um 14:45 Uhr startet schließlich in dem gleichen Raum mein Workshop über Europaweite Ausschreibungen als Recherchequelle.