Kategorie: Allgemein

  • Journalismus & Recherche » Blog Archive » Baumdaten: UIG trifft CAR

    Erstmals sind für Berlin die Rohdaten öffentlich, aus denen der Waldzustandsbericht erstellt wird. Um an die Daten zu gelangen half das Umweltinformationsgesetzes (UIG), mit Hilfe von Computer-assisted Reporting (CAR) entstand ein Artikel daraus. Kernaussage: Den Bäumen im Osten Berlins geht es etwas schlechter als denen im Westen der Stadt. Das war vorher noch nicht bekannt, denn der offizielle Bericht, der aus den Rohdaten erstellt wird, enthält nur Angaben über den Zustand der Bäume in Berlin insgesamt und differenziert nicht nach einzelnen Regionen. Anhand der Rohdaten – eine Datei im Excel-Format mit Angaben über alle 984 einzelnen Bäumen, die die Förster untersucht haben – war erstmals eine Differenzierung zwischen den Bäumen im Westen und Osten der Stadt möglich. Da die Rohdaten auch in anderen Bundesländern bisher noch nie veröffentlich wurden, folgt nun die Chronologie der Recherche für Kollegen, die das in anderen Bundesländern wiederholen möchten.

    Die Idee zu der Recherche entstand am Freitag, den 13. Juni 2008, auf der Jahreskonferenz des Netzwerk Recherche in Hamburg, und zwar in dem Workshop zu „Computer Assisted Reporting“ (CAR) mit Sebastian Moericke-Kreutz von dpa RegioData. Er erwähnte dort, dass jährlich ein Waldzustandsbericht erstellt wird, aber die Rohdaten dazu bisher noch nicht veröffentlicht worden seien. Am darauffolgenden Montag schaute ich zunächst in den aktuellen Berliner Waldzustandsbericht und fragte dann bei der Senatsverwaltung (so heißen in Berlin die Landesministerien) für Stadtentwicklung an, der die Berliner Forste unterstellt sind. Ich fragte, ob dort die Rohdaten vorliegen und kündigte an, einen Antrag gemäß Umweltinformationsgesetz zu stellen.

    Die Senatsverwaltung für Stadtentwicklung und später auch die Landesforstanstalt Eberswalde (dort werden die Rohdaten aus Berlin zusammen mit denen aus Brandenburg zu einem gemeinsamen Waldzustandsbericht zusammengefasst) mochten die Daten nicht so recht herausgeben. Erst nach einem längeren Mailverkehr und mehreren Hinweisen auf das Umweltinformationsgesetz kam schließlich knapp vier Wochen nach Beginn der Recherche die Mail mit den ersehnten Daten. Vom Netzwerk Recherche stammt die gute Idee, Anträge und Urteile zur Durchsetzung von Auskunftsansprüchen zu veröffentlichen, daher hier der Emailwechsel (PDF).

    Die Datei mit den Rohdaten (Excel-XLS-Format) besteht aus einer Liste mit den 984 Bäumen, die im Jahr 2007 untersucht wurden. Viele Informationen sind codiert. In der Spalte „Baumart“ etwa stehen keine Namen, sondern Nummern. Die „51“ steht dabei zum Beispiel für die Stieleiche, die „71“ für die Flatterulme. Zur Decodierung brauchte es also noch eine Liste der verwendeten Codes, die ich auf erneute Anfrage auch erhielt.

    Komplizierter war die räumliche Zuordnung der Bäume. Über den Standort jedes Baumes gab es dazu zum Beispiel folgende Informationen: „Forstamt Tegel, Abt 114, Uabt 2, Tf 2, PLOT 20001, Position 7, Baumnummer 32“. Die Angabe des Forstamtes war ein erster Anhaltspunkt, allerdings erstreckt sich der Zuständigkeitsbereich der vier Forstämter Berlins über mehrere Bezirke. Relevant ist nun die Zahl in der Spalte „Abt“. Diese Zahl findet sich auf den Karten der Waldgebiete Berlins wieder, wobei es vier unterschiedliche Karten für die vier Forstämter Berlins gibt: Tegel, Grunewald, Köpenick und Pankow (PDF).

    Dann folgte die Puzzle-Arbeit, die in der Datei genannten Bäume den einzelnen Wäldern zuzuordnen. Ich richtete dafür in der Baumdaten-Datei eine neue Spalte „Gebiet“ ein und hatte damit am Ende eine Datei, in der dann zu jedem Baum das Gebiet, auf dem er steht, im Klartext zu lesen ist. Dann rechnete ich eine Weile mit den Daten herum: Wie steht es um die einzelnen Baumarten? Zwischen welchen Werten gibt es signifikante Zusammenhänge, zum Beispiel zwischen Fruktifikation und Kronenverlichtung? Und wie ist der Zustand der Bäume in den einzelnen Bezirken?

    Schließlich lag mir noch daran, den Einwand auszuräumen, der immer wieder von den Mitarbeitern der Senatsverwaltung für Stadtentwicklung kam: Eine Aussage über den Zustand von Bäumen in kleineren Gebieten als dem Gesamtgebiet sei aus statistischen Gründen nicht möglich, weil dann die Zahl der Bäume in der Stichprobe zu klein werde. Das konnte ich mit den Rohdaten leicht widerlegen: Bei der Betrachtung aller 984 Bäume liegt die durchschnittliche Kronenverlichtung bei 24,81 Prozent, die Standardabweichung beträgt 12,34 Prozentpunkte, der Standardfehler liegt bei 0,3936 Prozentpunkten. Durch meine Einteilung der Bäume in drei Regionen sinkt tatsächlich die Zahl der Stichprobe und der Standardfehler steigt entsprechend. Die Region mit den wenigsten Bäumen hatte aber immer noch 216 Bäume, in der größten Region waren es 432 Bäume. Der Standardfehler bei der Region mit 432 Bäumen liegt bei 0,5941 Prozentpunkten, bei der Region mit 264 Bäumen liegt er bei 0,7599 Prozentpunkten. Der Standardfehler ist damit zwar deutlich höher als bei der Betrachtung aller 984 Bäume, aber angesichts der von 0 bis 100 reichenden Skala ist er doch sehr gering. Somit konnte ich zeigen, dass die Einwänder der zuständigen Mitarbeiter wohl eher Nebelkerzen sind und sich tatsächlich sehr wohl statistisch belastbare Aussagen über die Kronenverlichtung der Bäume in Teilregionen Berlins treffen lassen.

    Die Ergebnisse standen am 1. September im Lokalteil Berlin der taz. Im Online-Angebot der taz gibt es eine Ergänzung für die Leser, die sich detaillierter informieren möchten: Unter dem Print-Text erschien ein Verweis auf die Seite www.taz.de/baumdaten mit dem Hinweis, dass es dort die Datei mit den Baumdaten zum Download gibt sowie Tipps dazu, wie die Leser selbst mit Hilfe des Umweltinformationsgesetzes an Umweltinformationen herankommen können.

    Vielen Dank insbesondere an Sebastian Moericke-Kreutz, ohne den es die Idee für diese Recherche nicht gegeben hätte, und an das Netzwerk Recherche für die Jahreskonferenz!

    Tags: Berlin, CAR, Die Tageszeitung, Lokaljournalismus, Taz, Umweltinformationsgesetz

  • Journalismus & Recherche » Blog Archive » Eine Quelle ist keine Quelle, ist keine … (1)

    Vorab: Lieber Sebastian Wolff von der Berliner Zeitung, es tut mir ein wenig leid, dass ich Sie hier tadele, denn genauso gut könnte ich jeden Tag in jeder deutschen Zeitung einen Artikel herausgreifen und dafür kritisieren, dass er einzig und allein auf einer einzigen Quelle beruht.

    In Ihrem Fall auf Angaben des Gesamtverband der Deutschen Versicherungswirtschaft (GDV). Zu Gute halten möchte ich Ihnen, dass Sie sich erst gar nicht die Mühe machen, das zu verschleiern. Damit nicht alle den Text lesen müssen: Der GDV beklagt sich, dass Internetbetrüger den Versicherungen das Leben schwer machen und Schaden zufügen. Als Beispiel wird angeführt, dass Schmuck bei Ebay angeboten wird würde (sic!) und diesem Wertzertifikate über einen viel höheren Preis beiliegen – letztere würden dann den Versicherungen vorgelegt, wenn ersterer gestohlen gemeldet wird.

    Ich habe mir den Artikel direkt nach der Lektüre ausgerissen, um ihn am Mittwoch den Volontären im Rechercheseminar vorlegen zu können – damit die ja nicht denken, das mit den Ein-Quellen-Artikeln sei ein theoretisches Phänomen.

    Was ist denn so schlimm daran, möchten Sie fragen? Naja, der Leser zahlt ja dafür, dass Sie sich etwas Arbeit machen, aber in diesem Fall hätten Sie doch besser einfach nur einen Nachdruck mit dem Verbandsmagazin abgemacht, das das Thema, wie Sie ja auch anführen, bereits in einem Artikel aufgegriffen hatte. Wobei, werter Kollege, einige Passagen hart an der Grenze zum Plagiat sind.

    Und da ich als Leser ja schon mal dafür bezahlt habe, dass Sie etwas mehr leisten, verrate ich Ihnen nicht nur, was ich mir noch gewünscht hätte, sondern was ich eigentlich für schlichtes Handwerkszeug halte. (Nicht dass Sie Leserforschung betreiben und mein Aboentgelt wieder nicht in die Redaktion wandert.)

    Abgesehen davon, dass der Artikel in sich widersprüchlich ist, indem er zum einen behauptet, dass es keine Zahlen gäbe, zum anderen aber sagt, die Zahl solcher Delikte sei gestiegen – hierauf hat ja der Kollege Kunze schon aufmerksam gemacht –, abgesehen davon also stellen sich nach der Lektüre des Textes mehr Fragen als der Artikel vermeintlich beantwortet hat.

    Ein paar Ideen ohne Anspruch auf Vollständigkeit:

    1. Gibt es das Massenphänomen überhaupt? (Wieviel Schmuck mit Zertifikaten, die Wertangaben enthalten, finden Sie bei Ebay?)
    2. Wie kommen die Versicherer dazu, solchen Zertifikaten glauben zu schenken? (müssen Sie ja auch nicht) So ein Zertifikat ist ja kein Zahlungsbeleg – im Gegensatz zu Quittungen oder Kassenbons, die Versicherungen sonst so verlangen.
    3. Plausibilität: Die meisten Hausratversicherungen begrenzen die Versicherung von Wertsachen wie Schmuck.

    Schon diese kleine Denksportaufgabe hätte mich so skeptisch gemacht, dass ich das Thema entweder liegen gelassen hätte oder erst recht recherchiert hätte.

    Tja. So nun aber sieht es einfach so aus, dass der GDV seine jährliche Oh-wie-schlimm-ist-Versicherungsbetrug-PR-Meldung loswerden wollte und dachte, mit der Internetkriminalität als Aufhänger kommt das sicherlich besser an. Und: Bei Ihnen ist das ja auch angekommen. Glückwunsch, lieber GDV!

    PS: Liebe Leser, sagt’s den Volos nicht – sonst ist der ganze Spaß hin …

    Tags: Berliner Zeitung, Einmaleins, GDV, PR, PR-Meldung, Quelle, Wirtschaft, Wirtschaftsjournalismus

  • Journalismus & Recherche » Suchmaschinen

    Suchmaschinen mit eigenem Index

    Wir verzichten hier auf die Auflistung von Suchmaschinen, die auf den Index anderer Suchmaschinen zugreifen. Sinnvoll ist die Suche in diesen von einander unabhängigen Suchmaschinen, weil a) Ihre Indizes nur 1% gemeinsam haben

    b) bei Suchen in nur einer Suchmaschine stets Informationen unentdeckt bleiben – d.h. will man zu einem Suchbegriff nicht nur das Wichtigste, sondern alles finden, lohnt es sich die Suche in mehreren Suchmaschinen zu wiederholen

    • Google
    • Yahoo
    • Ask.com
    • MSN Live
    • Seekport

    Suchen miteinander kombinieren

    Wir haben leider (noch?) keine Lösung gefunden, alle 5 o.g. Suchmaschinen gleichzeitig abzufragen. Am komfortabelsten finde ich derzeit die Lösung mit Customize Google zu arbeiten und dann die Google Suche mit den vier andereren Suchmaschinen in anderen Tabs zu wiederholen. Leider sieht man die Doubletten so aber nicht. (Screenshot folgt)

    Suchen auf mehreren Domains zugleich

    Mit der MSN-Live-suche lassen sich komfortabel Macros erstellen, die den jeweils angegebenen Suchbegriff auf meheren Domains zugleich suchen.
    Auf die Schnelle habe ich mal ein Beispiel gebastelt. Mit dem Makro “Alle Verbraucherzentralen” kann man mit einer Eingabe von Suchbegriffen diese nun gleichzeitig auf den Sites der 16 Länder-Verbraucherzentralen sowie des Verbaucherzentrale Bundesverbandes suchen.

    Kurze Linkliste für Online-Journalismus II und WissensWerte:Online Recherche

    • WhoNu – Flash-Global-Suche
    • YubNub – die Kommandozeile fürs Web
    • TwinGine – Google und Yahoo nebeneinander
    • GoogleTool – Googlecluster für die Suche auswählen
    • Goofresh – aktuelle Links aus Google holen
    • Googles Mobildienst – „Handverlesene“ Infos
    • Scroogle – Google-Anonymizer (anonymer Zugriff auf Google)
    • Ixquick – vom Arbeitskreis Vorratsdatenspeicherung empfohlen
    • Yasni – deutsche Personensuchmaschine
    • Exalead – deutsche Suchmaschine mit Previews und eigenem Suchpool
  • Journalismus & Recherche » Blog Archiv » Prof. Dr. Dirk Lewandowski: Alternativen zu Google

    26. June 2008 von aude

    Dirk Lewandowski ist Professor für Information Research und Information Retrieval an der Hochschule für Angewandte Wissenschaften Hamburg (HAW). Suchmaschinen sind also Teil seiner Forschung, was man leicht an seinen Publikationen sehen kann.

    Auf dem nr-Jahrestreffen 2008 referierte er über Alternativen zu Google. Hier seine Präsentation:

    Prof. Dr. Dirk Lewandowski: Alternativen zu Google
    (PDF-Datei, 27 S., 1.380 KB)

  • Warning: main(wp/wp-blog-header.php) [function.main]: failed to open stream: No such file or directory in /home/13278/domains/journalismus-recherche.de/html/index.php on line 4

    Fatal error: main() [function.require]: Failed opening required ‚wp/wp-blog-header.php‘ (include_path=‘.:/usr/local/php-4.4.8-1/share/pear‘) in /home/13278/domains/journalismus-recherche.de/html/index.php on line 4

  • Journalismus & Recherche » Blog Archiv » RA Dr. Jan K. Köcher: Vorratsdatenspeicherung, Online-Durchsuchung & Co. – Recht und Gesetz sind nicht immer dasselbe

    Rechtsanwalt Dr. iur. Jan K. Köcher

    Jan K. Köcher hat an der Westfälischen Wilhelms-Universität Münster Rechtswissenschaft studiert. Nach Abschluss seines juristischen Vorbereitungsdienstes in Baden-Württemberg arbeitete er von 2003 bis Mitte 2007 als Wissenschaftlicher Mitarbeiter im Kompetenzzentrum Recht im DFN am Institut für Informations-, Telekommunikations- und Medienrecht an der Universität Münster bei Professor Dr. Thomas Hoeren. Seine Promotion zum Thema “Quotenregelungen im Rundfunk” konnte er Ende 2007 erfolgreich abschließen.

    Der seit Juli 2007 in Hamburg zugelassene Rechtsanwalt arbeitet seit dem 1. August 2007 bei der DFN-CERT Services GmbH in Hamburg als Syndikus. Seine Interessenschwerpunkte liegen im Medien-, Informationstechnologie- und Datenschutzrecht und werden durch zahlreiche Fachveröffentlichungen belegt.

    Auf dem Jahrestreffen referierte er über “Vorratsdatenspeicherung, Online-Durchsuchung & Co. – Recht und Gesetz sind nicht immer dasselbe”. Vor gut gefülltem Auditorium erklärte er die diversen Überwachungsgesetze, die entweder jünst erlassen wurden oder gerade in der Mache sind.

    Hier seine Präsentation:
    jan-koecher-vorratsdatenspeicherung-onlinedurchsuchung
    (PDF-Datei, 17 KB)

  • Journalismus & Recherche » Blog Archiv » NR-Jahrestreffen 2008: Programmübersicht des Panel „Recherche Online“

    Wie angekündigt, sollen alle Beiträge zum Panel „Recherche online“, die auf dem Jahrestreffen des Netzwerk Recherche e.V. am 13./14. Juni 2008 im Hamburg gehalten wurden, in diesem kleinen Weblog dokumentiert werden. Hier die Programmübersicht, die Links auf die einzelnen Postings werden nachgetragen.

    nr Jahrestreffen 2008, Programmübersicht des Panel “Recherche Online”

    Freitag, 13. Juni 2008

    11:00 Uhr
    Vorratsdatenspeicherung, Online-Durchsuchung & Co. – Recht und Gesetz sind nicht immer dasselbe
    RA Dr. Jan K. Köcher (DFN-CERT)

    12:00 Uhr
    Digitaler Informantenschutz
    Matth. Spielkamp/Jürgen Sell, recherche-info.de

    13:00 Uhr
    Google für Einsteiger
    Jan-Michael Ihl, recherche-info.de

    14:00 Uhr
    Hey, hey Wiki – Wissensmanagement für Journalisten
    Anton Simons (Redakteur der Rhein-Zeitung, Koblenz)

    15:00 Uhr
    Unsichtbares sichtbar und kommunizierbar machen: zur Visualisierung komplexer Netzwerke .
    Lothar KrempelPD Dr. Lothar Krempel (Max-Planck Institut für Gesellschaftsforschung MPIfG, Köln)

    16:00 Uhr
    Deutschlands erste CAR-Redaktion
    Bernd Matthies, RegioData

    17:00 Uhr
    CAR & Statistik –Wie finde ich statistische Daten für mein Thema?
    Sebastian Moericke-Kreutz, dpa-RegioData

    18:00 Uhr
    www.journascience.org: ein Informationsportal als innovative Kooperation zwischen Wissenschaft und Journalismus
    Prof. Dr. Gisela Losseff-Tillmanns, FH Düsseldorf

    Sonnabend, 14. Juni 2008

    11:00 Uhr
    Entenjagd – Quellenprüfung als Minimalkanon der Online-Recherche .
    Albrecht Ude (freier Journalist)

    12:00 Uhr
    Social Network Analysis für Journalisten
    Haiko Lietz

    13:00 Uhr
    Google für Fortgeschrittene
    Markus Lindemann, recherche-info.de

    14:00 Uhr
    Suchmaschinenoptimierung als journalistischer Erfolgsfaktor
    Peter Schink (Blogger, Jounalist, Webworker, Welt online)

    15:00 Uhr
    Alternativen zu Google
    Dirk Lewandowski, Hochschule für angewandte Wissenschaften

    16:00 Uhr
    Hinter den Kulissen: Einblicke in die Suchmaschinen-Werkstatt
    Dr. Wolfgang Sander-Beuermann (Geschäftsführer SuMa-eV, Leiter Suchmaschinenlabor)

    17:00 Uhr
    RSS-Feeds: Die Informationsflut kanalisieren
    Christina Elmer, dpa-RegioData

  • Journalismus & Recherche » Haiko Lietz

    Ein sehr zeitgemäßer Beitrag kommt gerade von Haiko Lietz, Lesern von Journalismus & Recherche bekannt als Referent auf der CAR-Tagung in Hamburg zum Thema Social Network Analysis:

    Netzwerkanalyse ist eine journalistische Recherchemethode, die in der Mathematik und Soziologie beheimatet ist. Während die Methode im US-Journalismus bereits anfangsweise angewendet wird, wird in Deutschland meist noch über wissenschaftliche Netzwerkanalysen berichtet. Zwei aktuelle Berichte drehen sich um Fußball. Für die österreichischen Analysten von FAS research, deren Website immer einen Besuch wert ist, gehört die Analyse von Fußballspielen zur Öffentlichkeitsarbeit. Sie erhalten ihre Forschungsgelder von der Wirtschaft und dem Staat. Zum Spiel Argentinien gegen Elfenbeinküste fanden sie heraus:

    Da wie dort fand sich eine klassische Spitze (Crespo bzw. Drogba) und eine hängende Spitze (Saviola bzw. Kalou), die stärker in die reziproken Spielaktionen aus dem Mittelfeld heraus eingebunden war und den letzten, entscheidenden Pass spielen sollte.“

    Außerdem sei das Spiel der Argentinier robuster gewesen. Genaueres steht im österreichischen Standard. Im März bereits hatte das Handelsblatt unter dem Titel „Anpfiff zum Milliardenspiel“ über die Netzwerkanalyse des internationalen Fußballprofimarktes berichtet. Lothar Krempel vom Kölner Max-Planck-Institut für Gesellschaftsforschung kann in einem einzigen Graphen klarmachen, welche Länder ihre Nationalspieler eher im Ausland oder im Inland spielen hat. Die Netzwerkanalyse ist eine neue Perspektive für den recherchierenden Journalismus.

  • Journalismus & Recherche » Gastbeitrag von Haiko Lietz

    Ein sehr zeitgemäßer Beitrag kommt gerade von Haiko Lietz, Lesern von Journalismus & Recherche bekannt als Referent auf der CAR-Tagung in Hamburg zum Thema Social Network Analysis:

    Netzwerkanalyse ist eine journalistische Recherchemethode, die in der Mathematik und Soziologie beheimatet ist. Während die Methode im US-Journalismus bereits anfangsweise angewendet wird, wird in Deutschland meist noch über wissenschaftliche Netzwerkanalysen berichtet. Zwei aktuelle Berichte drehen sich um Fußball. Für die österreichischen Analysten von FAS research, deren Website immer einen Besuch wert ist, gehört die Analyse von Fußballspielen zur Öffentlichkeitsarbeit. Sie erhalten ihre Forschungsgelder von der Wirtschaft und dem Staat. Zum Spiel Argentinien gegen Elfenbeinküste fanden sie heraus:

    Da wie dort fand sich eine klassische Spitze (Crespo bzw. Drogba) und eine hängende Spitze (Saviola bzw. Kalou), die stärker in die reziproken Spielaktionen aus dem Mittelfeld heraus eingebunden war und den letzten, entscheidenden Pass spielen sollte.“

    Außerdem sei das Spiel der Argentinier robuster gewesen. Genaueres steht im österreichischen Standard. Im März bereits hatte das Handelsblatt unter dem Titel „Anpfiff zum Milliardenspiel“ über die Netzwerkanalyse des internationalen Fußballprofimarktes berichtet. Lothar Krempel vom Kölner Max-Planck-Institut für Gesellschaftsforschung kann in einem einzigen Graphen klarmachen, welche Länder ihre Nationalspieler eher im Ausland oder im Inland spielen hat. Die Netzwerkanalyse ist eine neue Perspektive für den recherchierenden Journalismus.

  • Journalismus & Recherche » Taz-Bashing mit Quiz

    … merkwürdig nur, dass das dennoch soviele Journalisten schrieben – von der taz bis hin zur FAZ.

    Wir meinen: ein klarer Fall für Taschenrechner assisted reporting …

    Hätten die Kollegen recht, so müsste jetzt auf den Kassenbons und Rechnungen überall eine Mehrwertsteuer von 16,48 Prozent ausgewiesen werden. Habe ich aber noch nicht gesehen. Vielleicht in der Taz-Kantine?

    Quizfrage: Um wievel Prozent ist denn die Mehrwertsteuer tatsächlich gestiegen?

    Wenn einer der Kollegen, die es zum Jahreswechsel falsch schrieben, die Lösung weiß, spendiere ich dem ersten ein Exemplar von „Zwei Nullen sind keine Acht. Falsche Zahlen in der Tagespresse“ (gibt es nicht mehr neu, was wohl nicht auf den großen Erfolg sondern auf das Desinteresse an Zahlen hindeutet.)

    Ein paar Beispiele, unzählige weitere sind leicht zu finden. Wobei nicht jedes Ergebnis einer Suche mit Mehrwertsteuer "um 3 Prozent" site:zudurchsuchendesmedium.de auch ein Treffer ist. Da gibt es auch Löhne, die um drei Prozent steigen dürfen im gleichen Artikel mit der Mehrwertsteuer …

    02.01.07 Wirtschaft Die Wirtschaftstermine des Jahres 2007

    1. Januar – Berlin. Die Mehrwertsteuer steigt um 3 Prozent, der Beitrag zur Arbeitslosenversicherung sinkt von 6,5 auf 4,2 Prozent. …

    F.A.Z.