Kategorie: Allgemein

  • Journalismus & Recherche » Blog Archive » Demaskierung der analogen Bildverschönerung

    Ungeschminkte Bilder zeigt die New York Times (T Magazine Blog): Bilder bekannter Models, wie sie (anlässlich der New York Fashion Week) publiziert wurden: unerreichbar schön. Und dieselben Bilder, bevor Visagist und Friseur Hand anlegten. Für jedes Bild ist angegeben, wer der Photograph ist und wer das Model (und von welcher Agentur), wer das Makeup besorgte und wer die Frisur.

    Wohlvermerkt: Hier geht es nicht um digitale Bildmanipulation – all das passiert, ehe jemand Photoshop anwirft. Solides Handwerk, sozusagen.

    Hübsch gemacht, dass die Vorher-Nachher-Bilder übereinander präsentiert werden. Durch das Verschieben eines Balkens sieht man die „full transformation“.

    http://tmagazine.blogs.nytimes.com/tag/model-morphosis/

    (Aus den FindLinks von Intern.de)

    Tags: Bilder, Bildmanipulation

  • Journalismus & Recherche » Blog Archive » Datenvisualisierung: Die Diskussion

    Im „lab“, dem Trainingsblog der Deutschen Welle über „Neue Medien, multimediale Projekte, Anwendungen und Darstellungsformen im Netz“, hat Marcus Bösch einen Beitrag zur Datenvisualisierung geschrieben, worauf Jakob Jochmann (Mitbegründer und Herausgeber der Kontextschmiede) eine rege, lesenswerte Diskussion ausgelöst hat.

    Da ich hier bei recherche-info.de der Visualisierungsbeauftragte bin, habe ich mich erstens auch beteiligt, zweitens die genannten Sites (Beispiele, Blogs etc.) bei Delicious etikettiert (bzw. „getagged“). “datenvisualisierung” ist zwar ein etwas sperriger Tag, aber dafür umso eindeutiger. Wäre schön, wenn alle Interessierten ihn im Blick behalten. Futter für die RSS-Reader.

  • Journalismus & Recherche » Blog Archive » Futter für die Data-Mining-Nerds

    Two new APIs and a couple of chunky zip files… « Power of Information Task Force zeigt, was Briten und US-Amerikaner so alles mit öffentlichen Daten anfangen (oder anzufangen versuchen). Far out für jemanden wie mich, aber insofern interessant, als es aufzeigt, wohin die Reise gehen kann.

    Tags: API, Data, Daten

  • Journalismus & Recherche » 2006 » May

    Der „Robots Exclusion Standard“ aus Rechercheursperspektive

    Die Arbeitsweise aller Suchmaschinen beim Auffinden neuer Webseiten ist unspektakulär: Spezielle Programme, Robots, Bots oder Spider genannt, durchsuchen bekannte Webseiten nach Hyperlinks und laden die dadurch gefundenen Seiten via HTTP, um sie entweder in die Datenbank der Suchmaschine aufzunehmen, oder um sie in gleicher Weise zu durchsuchen. Konzeptionell ist dieser Vorgang ist bei allen Suchmaschinen wenig unterschiedlich (sie variieren vor allem in der Suchfrequenz und den zur Kenntnis genommenen Dateitypen).

    Fast jede Website hat Dateien oder Verzeichnisse, die für eine Suchmaschine nicht von Interesse sind, zum Beispiel Hintergrundgrafiken, Logos, Buttons, Longdesc-Texte usw. Andere, zum Beispiel in Framesets verwendete Navigationsspalten, soll eine Suchmaschine zwar nach deren Links durchsuchen, sie aber nicht selbst im Index aufführen, da die Navigationsspalte für sich genommen inhaltsleer ist – sie verweist ja nur auf die Inhaltsseiten. Das Wissen um diese Details hat selbstverständlich der Webadmin der entspechenden Site.

    Um die Kommunikation zwischen Webadmins und Suchmaschinen zu ermöglichen und zu systematisieren, wurde nach Diskussionen in einer Mailingsliste der Robots Exclusion Standard (RES) geschaffen. Er wurde niemals in den Kanon der RFC oder anderer Normensammmlungen aufgenommen, wird aber sehr häufig beachtet. Am wichtigsten ist vielleicht, dass die Wayback Machine den RES anwendet.

    Webmaster haben zwei Möglichkeiten, den RES zu nutzen: Sie können eine Datei robots.txt erstellen, und sie können in jeder HTML-Seite Metatags anbringen.

    Die Datei robots.txt

    Die Datei „robots.txt“ (deren Name aus Kompatibilitätsgrunden die 8/3-Konvention für Dateinamen einhält) muss als ASCII-Textdatei im Stammverzichnis der Website liegen. Ihr URL lautet also immer „http://[domain]/robots.txt“.

    In ihr kann der Webadmin festlegen, welche Dateien und Verzeichnisse der Spider ignorieren soll. Dabei kann er Wildcards einsetzen und Anweisungen an bestimmte Spider geben, sofern deren Bezeichnungen bekannt sind.

    Wenn ein Spider diese Datei liest und beachtet, werden bestimmte Dateien und Verzeichnisse also gar nicht erst an den Spider übertragen.

    Die RES-Metatags

    Zusätzlich kann in jede HTML-Datei der Metatag „meta name=’robots’ content=’index,follow’“ geschrieben werden. Dieser richtet sich unterschiedlos an alle Spider und setzt voraus, dass die entsprechende Datei übertragen und ihre Inhalte verarbeitet wurden. Die möglichen Angaben ‘index’/’noindex’ geben an, ob die Inhalte der Seite indiziert werden sollen, ‘follow’/’nofollow’ bezieht sich auf die Nachverfolgung von Hyperlinks. Soweit die Theorie…

    Praktische Auswirkungen

    Der immanente Widersinn des RES liegt auf der Hand: Es muss explizit genannt werden, was verschwiegen sein soll. Zum einen halten sich nicht alle Suchmaschinen an den RES, sei es, dass sie ihn ignorieren, sei es, dass sie gar die robots.txt gezielt auswerten.

    Zum Zweiten ist der RES ursrpünglich gedacht, um Suchmaschinen von Dateien fernzuhalten, die sie ohnehin nicht benötigen: Grafiken ohne wirklichen Inhalt oder Skripten im Verzeichnis „/cgi-bin“ etwa. Spätestens aber, seit archive.org die robots.txt auswertet, um zu erfahren, was nicht (öffentlich zugänglich) archiviert werden soll, müssen Webadmins auch sensible Informationen bekannt geben. Das macht die robots.txt für Rechercheure interessant. Schon allein, weil man mit einem Blick feststellen kann, ob der Verantwortliche den Unterschied zwischen einer unverbindlichen Nachricht an Spider und einem Passwordschutz für Verzeichnisse (der ja auch Suchmaschinen aussperrt) kennt.

    Das Beispiel

    Das wird klar, wenn man einen Blick in die robots.txt des Weißen Hauses wirft. (Um deren Webadmin nicht durch zu viele Klicks zu beunruhigen, verlinke ich hier auf eine lokal gespeicherte Kopie dieser Datei vom 14. Mai).

    Auffällig ist, dass der Webadmin des Weißen Hauses vor allem die Texte der Website aus öffentlichen Suchmaschinen und der Wayback Machine heraushalten möchte.

    Wohlvermerkt: Es ist nicht unsinnig, dass die Site des Weißen Hauses den RES nutzt: Für den (vermutlich regierungsinternen) Spider namens „whsearch“ sind die „Disallow“-Zeilen sehr viel weniger, und dem Anschein nach sinnvoll für eine umfassende Textsuche.

    Seine Anwendung ist aber unüberlegt. Stellvertretend für viele andere Websites liefert die robots.txt des US-Präsidenten quasi eine Übersicht über heikle Inhalte. Aus technischer Perspektive ist dies Vorgehen unsinnig. Die Verantwortlichen hätten den Webserver so konfigurieren können, dass z.B. nur Anfragen von bestimmten IP-Adressen erfolgreich sind, während allen anderen (inklusive Suchmaschinen) Fehlermeldungen oder unsensible Inhalte geliefert werden.

    Fazit: Beim Durchleuchten einer Website ist ein Blick in die robots.txt (oder deren Beobachtung z.B. durch Webdienste wie Changenotes obligat. Insbesondere kann die Datei Hinweise liefern, welche Inhalte die Betreiber einer Website als heikel ansehen, wenn sie nicht sogar eine ‘alternative Navigation’ ermöglicht.

    [AUde]

  • Journalismus & Recherche » Blog Archive » Nicht nur Bild hat Probleme mit Zahlen

    Ein Eintrag, der nichts wenig mit Recherche im Sinne von nachschlagen oder rausfinden zu tun hat. Manchmal muss man eine Meldung gar nicht recherchieren, um zu entscheiden, sie nicht zu drucken … Die Leipziger Volkszeitung berichtetet am 27. Juni auf Seite 1 in einem Leitartikel folgendes:

    Weniger Wettbewerb. Gesundheitsfonds beschlossen

    Berlin/Leipzig (DW/H.E.). Die Koalition hat sich auf erste Eckpunkte der Gesundheitsreform verständigt. Ein zentraler Einigungspunkt ist, so bestätigten Regierungskreise gegenüber der LVZ, die Konzentration der gesetzlichen Kassen auf eine wettbewerbsfähige „Mindestbetriebsgröße“. Sollte es zu einer Mindestmitgliederzahl von einer Million Versicherter kommen, wie auch diskutiert wird, würde sich die Zahl der Kassen um 110 bis 120 verringern. Durch Fusionen würde sich die Kassenstruktur verschlanken und weniger Verwaltungskosten verursachen.

    (Kostenlos online ist nur die ots-Vorabmeldung.)

    Klar, ein Thema und noch nichts, was einen auf den ersten Blick wundern müßte. Die Google-Recherche „Anzahl Krankenkassen Deutschland“ bringt dann auf Rang eins den Wikipedia-Eintrag „Krankenkasse“, der die Information enthält, es gebe 253 gesetzliche Krankenkassen. Eine Zahl, die die google-Suche „253 gesetzliche Krankenkassen“ bei der KKH, Spiegel Online und dem Marburger Bund bestätigt und die auch wohl aktuell ist. Wir wissen nicht, wie Tagesschau.de dann auf zunächst 252 kommt, vielleicht eine Info aus dem angefragten Ministerium? Egal ist auch wurscht.

    Aber mit der Recherche dieser Zahl wird der Unsinn klar, der der LVZ zumindest noch nicht zwingend auffallen musste. Nun lautet die Meldung, die Tagesschau.de unter Berufung auf die LVZ bringt, 110 bis 120 von 252/253 gesetzlichen Krankenkassen müssten ggf. schließen, damit nur noch solche übrig bleiben, die mindestens eine Million Mitglieder haben.

    Also wenn maximal 133 Krankenkassen (253 ? 120 = 133) verbleiben, benötigen diese mindestens 133 Millionen Mitglieder (133 × 1 Million = 133 Millionen) – eine Zahl, die auch ohne die Berücksichtigung von Privatversicherten, Beamten, Unversicherten und Mitversicherten, von der Berücksichtigung großer Kassen mit mehreren Millionen Mitgliedern mal ganz abgesehen, in Deutschland einfach nicht erreicht werden kann.

    Disclaimer: Mir ist die Meldung nur einzig und allein deshalb aufgefallen, weil ich mich beim Lesen der Schlagzeile im RSS-Feed, sofort an die Geschichte des hochverehrten Bildblogs erinnerte. Wofür die mir jetzt vermutlich noch ’ne Rechnung für in Anspruch genommene Fortbildung stellen. Recht haben sie ja: Lesen hilft. Hauptsache Habermas hat seinen Spaß.

    Tagesschau.de hat die Meldung im Laufe des Tages mehrfach geändert – allerdings ohne den Zeitstempel zu ändern. Was man dort auch als Fehler ansieht. Wer Spaß dran hat – hier ist gleich noch einer zu finden, solange der Text und Zeitstempel (Stand: 01.07.2006 09:25 Uhr) unverändert bleiben.

    Tags: Bildblog, CAR, Einmaleins, Gesundheitsreform, Krankenkasse, Leipziger Volkszeitung, Spiegel Online, Tagesschau.de

  • Journalismus & Recherche » Blog Archive » Folien „Un(der)cover“ online

    Jens Liebchen und Patrick Hof von Redteam-Pentesting haben die Folien ihres hervorragenden Vortrages auf der Jahreskonferenz des netzwerk recherche 2010 auf der Publikationsseite von Redteam-Pentesting zum freien Download veröffentlicht:
    Un(der)cover – Von der Online-Recherche hin zur gezielten Generierung neuer Informationsflüsse
    (PDF, 42 S., 3.787 KB)

    Tags: Jahreskonferenz, Netzwerk Recherche, Recherche

  • Journalismus & Recherche » Blog Archive » Sicherheit in der elektronischen Kommunikation – eine Lebensversicherung für Journalisten – Material

    Hier die weiterführenden Links zum Seminar “Sicherheit in der elektronischen Kommunikation – eine Lebensversicherung für Journalisten” von Jürgen Sell und Matthias Spielkamp:

    • heise Software Archiv – gut sortierte Übersicht von zumeist kostenlosen Programmen
    • TrueCrypt – Free Open-Source On-The-Fly Disk Encryption Software for Windows Vista/XP, Mac OS X and Linux – das Programm
    • deutsche TrueCrypt-Beschreibung
    • TrueCrypt-Anleitung | .get privacy
    • heise Security – Antivirus, Browseercheck, Emailcheck, Netzwerkcheck
    • PortableApps.com – Portable software for USB drives | Your Digital Life, Anywhere
    • Buch bei OReilly; Sicherheit im Internet, 2. Auflage : Inkl. CD-ROM
      kostenlos online 2005
    • Web Proxies – für anonymes Surfen
    • Etwas älter aber noch immer hilfreich sind auch die Links vom Workshop des letzten Jahres, hier.

      [JS]

      This entry was posted on Sonntag, April 27th, 2008 at 22:56 and is filed under Sicherheit, Veranstaltungen, Vorträge und Präsentationen. You can follow any responses to this entry through the RSS 2.0 feed. You can leave a response, or trackback from your own site.

  • Journalismus & Recherche » Blog Archive » Data Driven Journalism: Versuch einer Definition

    Lorenz Matzat hat vergangene Woche im Blog des Open Data Network den folgenden Versuch einer Definition vorgestellt. Wir veröffentlichen den Text mit freundlicher Genehmigung; er steht unter der Lizenz CC-by-sa/3.0/de. Matzat wird Gast eines Workshops beim Jahrestreffen des Netzwerks Recherche sein, dass am 9. und 10. Juli in Hamburg stattfindet. Den genauen Termin geben wir bekannt, soblad er feststeht.

    Das Internet ist nicht arm an Buzzwords – Schlagworten, die für einige Zeit Konjunktur haben und sich eben etablieren oder wieder verschwinden. Data Driven Journalism (DDJ) geistert vermehrt seit vergangenem Jahr durch das Web. Im März 2009 startet die englische Tageszeitung The Guardian auf ihrer Website das Datablog; es ist eingebettet in einen Datastore und dürfte bislang als Referenz für DDJ gelten. Einer breiteren Öffentlichkeit wurde das Thema „Datenjournalismus“ in Deutschland durch die Zeitschrift „M – Menschen Machen Medien“ im März 2010 näher gebracht. Im Periodikum des Fachbereichs Medien der Gewerkschaft ver.di mit einer Auflage von 50.000 Exemplaren ging es um die „Spannende Recherche im Netz“.

    Begonnen hat es allerdings schon 2006: Als eine Art Manifest in Sachen DDJ gilt der Text „A fundamental way newspaper sites need to change“ von Adrian Holovaty. Er meinte, dass viele Informationen bereits in einer strukturierten Form (=Datensätze) vorliegen oder sinnvollerweise in einer solchen abgelegt werden könnten. Als Beispiel nannte er einen Brand in einem Wohnhaus – es gäbe Fakten, die immer gleich sind – letztlich die berühmten W-Fragen: Wo, wann, wie viele Betroffene, Verletzte, Tote, wie viele Feuerwehrmänner waren im Einsatz etc.

    Zeitungsredaktionen usw. könnten also Datenbanken über Ereignisse mit einer konsistenten Datenstruktur aufbauen, so Holovaty, die sowohl für die eigenen Recherche als auch online als Angebot für die eigenen Nutzer/innen bereitgehalten werden können – man denke beispielsweise an eine Karte, auf der sich die Feuer anzeigen lassen und eben nach diversen Kriterien Filtern lassen.

    Was ist also das Neue am Daten-getriebenen Journalismus?

    Die Recherche in Datensätzen, etwa Statistiken, ist wahrlich nichts Neues. Das gilt auch für die rechnergestützte Recherche, das Computer-assisted-reporting (CAR), welches seit Jahrzehnten praktiziert wird.

    Dagegen ist DDJ eine Kombination aus einem Recherche-Ansatz und einer Veröffentlichungsform: Ein oder mehrere maschinenlesbare Datensätze werden per Software miteinander verschränkt und analysiert – damit wird ein schlüssiger und vorher nicht ersichtlicher informativer Mehrwert gewonnen. Diese Information wird in statischen oder interaktiven Visualisierungen angeboten und mit Erläuterungen zum Kontext, Angaben zur Datenquelle (bestenfalls wird der Datensatz mit veröffentlicht) versehen. Letztere wird ggf. kommentiert (in Schrift, Ton oder Bewegtbild). Liegen die Daten nicht maschinenauswertbar vor (z.B. hundertausende Emails) können die User aufgefordert werden, die Recherche weiter mit voranzutreiben (“Crowdsourcing”, siehe bspw. “Investigate your MP’s expenses“).

    Der Wandel der Journalistenrolle

    DDJ setzt voraus, dass der Journalist/die Journalistin bereit ist, seine oder ihre Recherchequelle mit dem Konsumenten des Beitrags zu teilen. Die Quelle wird überprüfbar, aber auch weiterverwendbar. Diese Form der Ermächtigung des Nutzers findet sich im Prinzip von Creative Commons, aber auch dem Open Access-Ansatz in der Wissenschaft wieder; dort wird es üblich, auch die Datenbasis der Forschung parallel zum Forschungsergebniss zu veröffentlichen (was z.B. die Qualität von Peer-Reviewing steigern kann).

    Weiter müssen Datenjournalisten nicht nur offen für technologische Aspekte des Web sein, sondern sie auch beherrschen. Datenrecherche meint vielleicht auch, Daten zu erlangen, die erstmal gar nicht für die Öffentlichkeit gedacht sind. „Data-Mining“ und das „scrapen“, das Ausschaben von Websites, um an Rohdaten zu gelangen, sind hier die entsprechenden Stichworte. Die Journalisten selbst sollten also Programmierkenntnisse erlangen („computer literacy“) und/oder Redaktionen sollten Programmierer anheuern.

    Grenzfälle

    Debattieren ließe sich, inwieweit Datenvisualisierung Teil von DDJ ist. Das Metier der Produktion von Infografiken ist erstmal kein neues Feld; ob rein statische Visualisierungen von Daten (Balkendiagramme und Co.) direkt zu DDJ zählen, dürfte davon abhängen, ob andere Kriterien von DDJ erfüllt sind (etwa die Veröffentlichungen von Datenquellen). Dagegen sind interaktive Grafiken, Mashup-Karten uä. sicherlich schon eher DDJ.

    Aber ist es noch Journalismus, wenn es keinen Journalisten mehr gibt, sondern eine rein automatisierte Websoftware Datenbanken abfragt, bearbeitet und dann wiedergibt? Manche zählen Projekte von mySociety.org (etwa TheyWorkforYou.com) oder Frankfurt gestalten zum DDJ. Wo verläuft die Grenze zwischen Informations-Dienstleistung und Berichterstattung? Vielleicht könnte man hier von „Maschinen-Journalismus“ sprechen.

    Mehrwert

    Datenjournalismus fußt also auf den Prinzipien einer freien und offenen Netzkultur: Freier Zugang zu Wissen, das Teilen von Informationen und der Zusammenarbeit. Die automatisierte Erschließung, Auswertung und Aufbereitung von den teilweise monumentalen Datensätzen aus Politik, Verwaltung, Wirtschaft und Wissenschaft (Stichwort OpenData) kann qualitativen Mehrwert bieten: Das Verständnis von und die Berichterstattung über Gesellschaft und Natur erweitern. Oder Zusammenhänge aufzeigen, die vorher nicht ersichtlich waren. Welche Rolle Daten in Sachen investigativem Journalismus spielt, muss angesichts des erfolgreich Projekts Wikileaks hier nicht weiter ausgeführt werden.

    Weiter kann DDJ sowohl dem Rechercheur als auch dem User einfach zu bedienende Werkzeuge an die Hand geben, mit denen sich besagte Datenquellen durchdringen lassen. Und DDJ kann webgestützt eine kollektive, eine kolloborative Recherche organisieren, falls Software (noch) nicht Datenbestände sinnvoll auswerten kann..

    Mit DDJ wird sich jedenfalls die Rolle von (manchen) Journalisten weiter wandeln. D.h, aber auch, dass das anhaltende Hadern der etablierten Medien mit dem Netz weitergehen wird. Denn das hat einiges mit dem Selbstverständnis ihrer Macher zu tun. Die digitale Demokratisierung der Produktionsmittel von Medien stellt die Positionen des klassischen Journalisten in Frage – das tritt im Streit Blogger versus „echter“ Journalist anhaltend zutage.

    Dabei geht es schlicht um ein zentrales Element der jetztigen Gesellschaft: Informationshierarchie – wer kann Informationen zurückhalten, wer hat die Deutungshoheit über das, was geschieht. Und wer kann seine Deutung mit größtmöglichster und weitreichenster Autorität verbreiten.

  • Journalismus & Recherche » Blog Archive » Mit dem Netz kleine Fehler entlarven (1)

    Das Internet ist der Feind der Plagiate und der kleinen Fehler – die positive Seite der Googleisierung wird oft vergessen. Dabei geht es doch so schnell und -machen wir uns nichts vor- kleine Fehler finden sich jeden Tag in jeder Zeitung. Heute morgen stutze ich beim Lesen eines Artikels über die Künstlersozialkasse (KSK) in der Berliner Zeitung. Dort heißt es, die KSK-Abgabe sei vor vier Jahren auf das Dreifache angestiegen, was eine Diskussion über Sinn und Zukunft der KSK ausgelöst habe. Nun zahle ich selbst seit fast einen Jahrzehnt KSK-Abgabe und -Beiträge und weiß, dass das nicht stimmt; die Frage aber ist doch, wie hoch ist der Aufwand, eine solche Zahl zu überprüfen (wenn man sich denn wundert, ob das stimmen kann).

    Die Homepage der Kasse findet sich schnell online – fünf Minuten später lässt sich auch die Übersicht über die Entwicklung der Abgabesätze finden.

  • Journalismus & Recherche » Blog Archive » UNESCO-Neuerscheinung: Story-Based Inquiry von Mark Lee Hunter et al.

    Eine Neuerscheinung der UNESCO (von der bereits „The Net for Journalists“ publiziert wurde):

    Story-Based Inquiry: A manual for investigative journalists
    by Mark Lee Hunter with (in alphabetical order) Nils Hanson ; Rana Sabbagh ; Luuk Sengers ; Drew Sullivan ; Pia Thordsen. Preface by Yosri Fouda.

    Das Buch gibts als PDF auf Englisch (PDF-Datei, 81 S., 508 KB), Französisch und Arabisch.

    Da im PDF kein Inhaltsverzeichnis ist, habe ich mir mal die Mühe gemacht:

    Preface : Investing In Investigative Journalism (p. 4)
    by Yosri Fouda, Al Jazeera Chief Investigative Correspondent

    Subject – Chapter 1 (p. 6)
    What is investigative journalism? Investigative journalism is not reporting as usual
    by Mark Lee Hunter and Nils Hanson

    • Investigative journalism is not reporting as usual
    • Choosing a story for investigation
    • Is the story worth it?

    Hypothesis – Chapter 2 (p. 12)
    Using hypotheses: The core of investigative method
    by Mark Lee Hunter ; Luuk Sengers ; Pia Thordsen

    • A hypothesis is a story and a method for testing it
    • The advantages of hypothesis driven investigation
    • Hypotheses can be dangerous
    • How hypotheses work
    • Using the official version as a hypothesis
    • Start with a strategy!
    • A case study in hypothesis-driven inquiry: The Tragedy of Baby Doe
    • Using hypotheses to manage an investigation
    • Stay focused on the story

    Verification – Chapter 3 (p. 25) Using the Open Doors: Backgrounding and deduction

    by Mark Lee Hunter

    • Introduction: Take the open door
    • What kinds of sources are „open“?
    • An open source strategy for investigation
    • Open sources are a source of power
    • Finding open sources
    • Using experts to exploit your sources
    • Start fast… but easy!

    Human Sources – Chapter 4 (p. 34)
    Using Human sources
    by Nils Hanson and Mark Lee Hunter

    • Source mapping
    • Give sources a reason to speak
    • First contacts: Preparation and invitation
    • Beginning the relationship: Goals and roles
    • Interview tactics
    • On, off or anonymous?
    • Using Emotions (instead of being used by them)

    Organization – Chapter 5 (p. 49)
    How to Set Yourself Up to Succeed
    by Mark Lee Hunter and Flemming Svith

    • Organize your documents
    • Structuring the Data: Creating a master file
    • Making connections across files

    Writing – Chapter 6 (p. 56)
    Writing investigations
    by Mark Lee Hunter

    • Elements of style
    • Backgrounding your style: Using models
    • Defining the narrative structure: Chronology or odyssey?
    • Building and bending the chronology
    • Using the master file
    • Specific compositional techniques

    Control – Chapter 7 (p. 69)
    Quality Control: Techniques and Ethics
    by Nils Hanson ; Mark Lee Hunter ; Pia Thordsen and Drew Sullivan

    • What is fact-checking?
    • Checking your ethics
    • Using the Master File in fact-checking
    • Predictable psychological effects of fact-checking

    Publishing – Chapter 8 (p. 77)
    Publish it!
    by Mark Lee Hunter

    • Publication
    • Defense in the public zone
    • Promotion
    • In closing

    Selected Bibliography (p. 81)

    Tags: Anleitung, Buch, Publikation, UNESCO