Kategorie: Allgemein

  • Journalismus & Recherche » Blog Archive » Google Bildersuche ohne Suchbegriffe

    Google hat -wohl Ende September schon- in den Suchschlitz der Bildersuche ein kleines Kamerasymbol eingebaut – wenn man darauf klickt, kann man Bilder anhand von Bildern anstatt von Begriffen suchen – entweder über die URL des Bildes oder aber das Hochladen eines Bildes.

    Das klingt gut und ist ambitioniert, aber wer schon mal mit Picasa Bilder sortiert hat, weiß, dass das funktionieren kann. Diese Suchmöglichkeit gab es bisher so nicht – auch nicht bei anderen Anbietern. Am nächsten kam wohl tineye.com, aber Tests dort waren stets unbefriedigend.

    Ohne umfangreiche Tests gemacht zu haben, hier ein paar erste Eindrücke:

    – Google ist Tineye deutlich überlegen – einfach weil die Datenbank dahinter größer ist.

    – Sehr gut funktioniert die neue Bildersuche bei Bildern, die in nahezu derselben Größe und im selben Ausschnitt gesucht werden – also typischerweise Profilbilder aus Twitter 6 Co.

    – Verwendet man aber ein größeres Bild, aus dem Google nur den Ausschnitt kennt, wird das nicht gefunden.

    – Komplett nutzlos sind die vorgeschlagenen ähnlichen Bilder, da hier alle möglichen Ähnlichkeiten – insbesondere des Bildaufbaus und der Farben – gefunden werden, aber keine Ähnlichkeiten. Ein Bild eines Turms findet zwar weitere Türme aber nicht weitere Bilder desselben Turms.

    – Eine Suche ähnlicher Gesichter funktioniert nicht – soll ja angeblich bei Google auch nie kommen. Aber Picasa macht das ja und kann das ja schon. Für eine Recherche habe ich das mit Bilder aus dem Netz getestet und diese nach dem Runterladen mit Picasa sortiert. Das Ergebnis ist nicht perfekt, aber sehr gut.

    – Die neue Suche hilft künftig sicher nicht nur beim Auffinden von Urheberrechtsverletzungen, sondern auch bei journalistischen Recherchen – etwa um weitere Netzwerke oder Seiten zu finden, auf denen eine Person mit dem gleichen Foto aktiv ist.

  • Journalismus & Recherche » Blog Archive » LAPD’s public database omits nearly 40% of this year’s crimes

    Für die, die gut Englisch können, ein schönes Beispiel für Computer Assisted Reporting.

    This entry was posted on Thursday, July 9th, 2009 at 17:14 and is filed under analytische Recherche, CAR, Enten, Scoops & Lehrstücke, Kurz mitgeteilt. You can follow any responses to this entry through the RSS 2.0 feed. Both comments and pings are currently closed.

  • Journalismus & Recherche » Blog Archive » Die neue Parteispender-Datenbank

    Welche Personen und Unternehmen spenden eigentlich an die Parteien? Bisher war es recht kompliziert, das herauszufinden: Einmal, weil ohnehin nur alle Spender ab 10.000 Euro veröffentlicht werden. Und dann, weil auch die Informationen über diese Spender schwer zugänglich waren. Einmal im Jahr veröffentlichte der Bundestag auf seiner Webseite eine große PDF-Datei mit den eingescannten Rechenschaftsberichten der Parteien. Man konnte die Dateien nicht automatisch durchsuchen. Wer wissen wollte, ob eine bestimmte Person oder ein bestimmtes Unternehmen zu den Parteispendern gehört, musste sich durch jeden einzelnen Jahrgang und durch mehrere tausend Seiten quälen.

    Die taz hat nun die Berichte der Parteien über ihre Spenden der Jahre 1994 bis 2009 aufbereitet und stellt eine Online-Suche zur Verfügung. Die Datenbank wird auch zukünftig aktualisiert, sobald die neuen Berichte erscheinen. Für das Bundestagswahljahr 2009 haben wir die Spender zudem in einer interaktiven Karte dargestellt. So kann jeder sehen, wo in der Nachbarschaft der nächste Parteispender wohnt. Die taz bietet die Daten auch in einem offenen Format zum Download und zur freien Weiterverwendung an.

    Auch die Leser werden einbezogen: Die taz ruft sie dazu auf, die Daten zu durchsuchen und Hinweise für weitere Recherchen zu geben. Gerade im Lokalen erwarten wir viele interessante Rechercheansätze. So wurde die Gertrudis-Klinik in Leun-Biskirchen etwa zum 1. Januar 2011 in den hessischen Landeskrankenhausplan aufgenommen. Statt 18 Betten für gesetzlich Versicherte hat das Krankenhaus seitdem bis zu 140 Kassenplätze. Verantwortlich für die Entscheidung war das CDU-geführte hessische Sozialministerium. Im Jahr 2009 hatte die Gertrudis-Klinik 15.000 Euro an die CDU gespendet. Unsere Leser können weitere sachdienliche Hinweise an die Mailadresse open@taz.de mailen.

    Die taz beauftragte opendatacity.de mit der Aufbereitung der PDFs. Die Mitarbeiter programmierten auch die Suchmasken für die maschinenlesbaren Daten. Rund sechs Personen waren in der taz insgesamt mit dem Projekt befasst, etwa einen Monat lang mit welchelnder Intensität. Als Kosten entstanden einige tausend Euro. Wenn man auch die Arbeitszeit der Festangestellten mitberücksichtigt, lagen die Kosten bei grob geschätzten 10.000 Euro. Die taz hat im vergangenen Monat die Kampagne „taz-zahl-ich“ gestartet und ruft ihre Leser dazu auf, freiwillig für die Inhalte auf taz.de zu zahlen. Wir hoffen, so einen Teil der Kosten wieder reinzuholen. Zum Start der Kampagne im April zahlten die Leser mehr als 10.000 Euro, im Mai waren es rund 4.700 Euro.

    Sebastian Heiser arbeitet als Redakteur bei der taz

  • Journalismus & Recherche » IOC

    Saturday, June 14th, 2008

    Das Netzwerk Recherche verleiht die Verschlossene Auster 2008 an das Internationale Olympischen Komitee und seinen Vizepräsidenten Thomas Bach, ehrenamtlicher Präsident des Deutschen Olympischen Sportbundes.

    Die Laudatio hält gerade Andrew Jennings. Das Transkript reichen wir nach, so bald wir es in die Finger kriegen.

  • Journalismus & Recherche » Blog Archive » David Schraven, Hannelore Kraft und archive.org

    Der Wächterpreisträger David Schraven hat im Blog Ruhrbarone, das er mit KollegInnen betreibt, einen Artikel darüber geschrieben, wie Hannelore Kraft, SPD-Vorsitzende in Nordrhein-Westfalen, ihren Lebenslauf geändert hat. Ein schönes Beispiel für den Einsatz der Wayback Machine von archive.org. Schraven hatte eine ältere Version der Kraftschen Website dort angeschaut und festgestellt, dass Informationen verändert worden waren. Wie wichtig das ist, darüber gibt es nun Streit. Aber das ist eine andere Geschichte.

  • Journalismus & Recherche » Dirk Lewandowski

    Thursday, June 26th, 2008

    Tags: Ask, Dirk Lewandowski, Google, Jahreskonferenz, Jahreskonferenz 2008, Live Search, Netzwerk Recherche, Universalsuchmaschinen, Yahoo
    Posted in Jahreskonferenz 2008, Netzwerk Recherche, Suchmaschinen, Veranstaltungen, Vorträge und Präsentationen | 1 Comment »

  • Journalismus & Recherche » Enten, Scoops & Lehrstücke

    Saturday, March 14th, 2009

    Der Innenminister von Baden-Württemberg päsentierte ein angeblich vor der Tat im Internet veröffentlichtes ‘Bekennerschreiben’ des Mörders von Winnenden. Das offenbart mangelhafte Online-Recherche der Ermittlungsbehörden. Dabei hatten diese mindestens zwei mal exklusiven Zugriff auf Quellen.

    (more…)

    Thursday, February 12th, 2009

    Ein anonymer Scherzbold, der nach eigener Auskunft im Interview auf ZEIT online „gerade eine Journalistenschule abgeschlossen“ hat und noch studiert, hat dem neuen Wirtschaftsminister Karl Theodor Maria Nikolaus Johann Jacob Philipp Franz Joseph Sylvester Freiherr von und zu Guttenberg einen weiteren Vornamen verpasst: Wilhelm, platziert zwischen Philipp und Franz und überdies in der Wikipedia.

    Er wollte sehen, ob Medien dies übernähmen. Und er zeigte damit nicht nur mangelnde Recherchequalitäten, sondern auch Selbstrefenrenzialität im kleinen: Denn die Bearbeiter der Wikipedia waren zwar skeptisch und verlangten für den neuen Vornamen einen Einzelnachweis, akzeptierten aber einen Bericht auf Spiegel online – dessen (ungenannte!) Quelle eben die Wikipedia war. Graphisch schön dargestellt hat das Titanic (die selbst betroffen ist), anzuschauen bei netzpolitik.org „So funktioniert die Informationsgesellschaft“. Spiegel online hat mittlerweile ein wünschenswert klares Postskriptum angefügt und eine Meldung in eigener Sache publiziert, die etwas weniger klar ist.

    Schön zubereitet ist die Ente im Bildblog, wo der Anonymus als Gastautor selber schreibt, und dort findet man auch einen Überblick über die anderen Medien und ihre Reaktionen – die bezeichnenderweise mit „usw. usf.“ endet.

    Wednesday, February 4th, 2009

    Der arme Steve Jobs! Über seine Erscheinung und seinen Gesundheitszustand wurde öffentlich so stark spekuliert, dass es den Aktienkurs von Apple beeinflusste. Totgesagt wurde er auch schon mal, oder genauer: Bloomberg financial newswire hatte am 27.08.2008 einen augenscheinlich auf Vorrat verfassten Nachruf (immerhin 17 Seiten!) versehentlich online gestellt.

    Und nun das: Auf der Site von Wired erschien am 22. Januar die Meldung, Jobs sei einem Herzinfarkt erlegen („Breaking: Steve Jobs in has had a Cardiac Arrest“)

    Ein Hoax, eine Ente. Jemand hatte eine Schnittstelle zum Hochladen von Bildern (einen Online-Viewer) genutzt, um einen gefakten Artikel als Grafik auf die Site zu bringen, wo er dann unter dem Wired-Logo erschien. Den Link darauf verbreitete er bei Twitter.

    So leicht geht das also; scheint’s eine besondere Form des „user generated content“ – ein Kuckucksei. Viele Leser der Ente werden vermutlich nicht gemerkt haben, dass sie eine Grafik lesen, statt eines gerenderten Textes. Wohl auch, weil darüber das Logo eines bekannten Mediums prangte. Wired hat die Lücke mittlerweile geschlossen.

    (gefunden bei intern.de)

    Saturday, January 31st, 2009

    Endlich mal was richtig Sinnliches im Recherche-Blog: tolle Beispiele dafür, wie KollegInnen Daten anschaulich dargestellt haben. Die Beispiele stammen aus dem Beitrag 5 Best Data Visualization Projects of the Year des Blogs Flowing Data. Das können doch nicht nur die angelsächsischen KollegeInnen, oder? Ich würde mich sehr über Beispiele aus Deutschland freuen. Kommentare, bitte!

    Ich habe aus den angeblich fünf besten noch einmal drei rausgesucht, die ich unter journalistischen Gesichtspunkten für interessant halte. Das schönste ist meiner Ansicht nach dieses hier aus der New York Times:

    Man muss sich die originale, interaktive Grafik anschauen (Klick aufs Bild), um es zu vestehen. Sehr anspruchsvoll, auch für die Leser. Ein kleines Meisterwerk.

    Ebenfalls aus der NYT der Entscheidungsbaum:

    Und am schönsten, aber journalistisch meiner Ansicht nach weniger interessant, weil es eher um Unterhaltung geht, sind die Beispiele aus der BBC:

    Friday, November 28th, 2008

    complete privacy does not exist“, so ein Google-Anwalt laut einer Meldung auf The Smoking Gun. Wie wahr das ist, darauf weist Kai Biermann in „Fotografieren verboten“ auf ZEIT online hin. Mitarbeiter des US-amerikanischen National Legal and Policy Centers (NLPC) haben, nur durch Nutzung von Google-Diensten, einen ungenannten „top Google executive“ in weniger als 30 Minuten eingekreist. Abzurufen ist das PDF-Dokument unter
    www.nlpc.org/pdfs/googleexecutive.pdf (PDF-Datei, 7 S., 498 KB)

    (more…)

    Tuesday, October 28th, 2008

    Wer gut Englisch spricht, sollte den Artikel aus dem WSJ lesen. Ein bedrückendes Beispiel für die Methoden eines Fast-Monopolisten, dessen Gründer sich gern als Wohltäter der Welt gibt. Aber auch – und deshalb der Hinweis in diesem Blog – ein beeindruckendes Lehrstück der Recherche.

    Kleiner Recherche-Tipp nebenbei: Der Artikel wird nicht vollständig angezeigt, weil er angeblich nur für Abonnenten gedacht ist. Aber wer ihn über Googles News-Suche aufruft, bekommt ihn komplett. Wie lange, weiß ich allerdings nicht.

    Thursday, October 16th, 2008

    Das US-Technikmagazin Ars Technica, hierzulande fast nur Nerds bekannt, hat eine fantastische Recherchere zu den Behauptungen von US-Regierung und Unterhaltungsindustrie, durch „Piraterie“ (also in dem Fall nicht die echte, die vor der Küste Somalias stattfindet, sondern die von Musik etc.) gingen der US-Wirtschaft 250 Milliarden US-Dollar und 750.000 Arbeitsplätze verloren.

    Ein Lehrstück – über die Unterhaltungsindustrie und Lobbying, vor allem aber über Zahlen, die dadurch, dass sie beständig wiederholt werden (vor allem auch in den Medien), nicht richtiger und zuverlässiger werden. Und ziemlich sicher austauschbar, was das Thema angeht. Irgendwann werde ich so etwas auch für Deutschland machen. Wenn ich mal Zeit habe 😉

    750,000 lost jobs? The dodgy digits behind the war on piracy

    Thursday, October 9th, 2008

    Zugegeben, die Nachricht hat mich betroffen gemacht: 18 Menschen sind am 8. Oktober 2008 morgens in Nepal ums Leben gekommen. Ich kenne den Ort, bin selbst auf dem Flughafen gelandet und mir war sofort klar, was die Menschen dort wollten: Bersteigen oder Wandern.
    Damit war ich zweilfsohne besser informiert als der ARD-Korrespondent in Delhi. Der schaffte es nämlich in seinem Bericht, der im ARD-Hörfunk rauf und runter lief, gleich mindestens zwei Fehler zu machen:

    – Die Landebahn ist nicht abschüssig, sondern ansteigend – was die Landung begünstigen soll.
    – Lukla ist nicht 300 Kilometer von Kathmandu entfernt, sondern nur rund 140 (ermittelt mit dem Lineal von google earth).

    Ob man bei 60 Kilometer noch von „nah am Mount Everest“ sprechen kann, lasse ich mal offen. Auch in anderen Punkten wie der Anzahl der nepalesischen Airlines und deren Sicherheitsstandards darf man nicht behaupten, dass die ARD da noch Spekulationen Informationen verbreitet. Das gilt übrigens auch für andere Medien an diesem Tag. Warum muss man es sich als Leser gefallen lassen, dass die Zahl der Starts und Landungen wie der Insassen der Maschinen grob geschätzt werden, wenn doch die Flugpläne und die Kapazitäten der Maschinen leicht zu recherchieren sind?

    Beide Fehler hätte man (mit etwas Können) in einer Viertelstunde finden können – abgesehen davon, dass ich tatsächlich vor Jahren mal dort war, sind mir die Fehler vor allem aufgefallen, weil ich Meldungen aus verschiedenen Quellen Medien miteinander verglichen habe – die widersprachen sich und für alle Punkte lassen sich gute Quellen im Netz finden.

    Die neueren Meldungen von Tagesschau.de enthalten die Fehler nicht mehr. Die Entfernung zwischen Lukla und Kathmandu wird gar nicht mehr genannt. Die Landebahn aber ist nun ansteigend und nicht mehr abschüssig. (Fragen Sie mich nicht, wie ich nun formulieren würde, wenn von der Start- und Landebahn die Rede wäre – denn es ist ja nur eine Betonpiste von rund 500 Metern Länge (Ich übernehme hier nicht die vermeintlich präzise Länge von 527 Metern, da diese nicht mit der daneben genannten Länge von 1600 Fuß (rund 488 Meter) korrespondiert und die Quelle unklar ist.)

    Mehr zu anderen, zumindest unpräzisen Infos und zu den Dingen, die ein Netz-Korrespondent für die ARD hätte finden können, demnächst hier in einem Nachtrag. Beide Fehler sind dem Anschein nach aus Meldungen von ap und dpa übernommen worden – denn auch andere Medien, die sich auf genau diese Quellen berufen, haben die 300 Kilometer gemeldet.

    Was mich besonders ärgert ist, dass man Korrespondenten zum Vorlesen von Agenturmeldungen ans Mikro schickt statt ihnen eine Stunde Zeit zu lassen. In der Stunde hätte man mehr Infos zusammen tragen können als sämtliche anderen Medien bis mittags recherchiert von anderen abgeschrieben hatten. Den meisten Journalisten ist klar, dass die Korrespondenten nicht vor Ort sind und von den Agenturmeldungen leben – aber der Gebührenzahler wird sich ärgern. Zurecht. Es wäre redlicher, die Korrespondenten nur dann vor die Kamera und ans Mikrofon zu lassen, wenn Sie wirklich etwas zu berichichten haben. Wenn es nur der Stand der Agenturmeldungen ist, soll es doch die Heimatredaktion machen. Im Namen der Glaubwürdigkeit.

    Thursday, June 26th, 2008

    Weil ich mit Marcus zusammen das ganze Panel organisiert habe, musste ich auch schierem Zeitmangel den Vortrag nochmal halten, den ich schon beim letzten Jahrestreffen zum Besten gab. Immerhin hatte ich Zeit, ihn nochmal zu überarbeiten.

    Hier sind die Folien (PDF-Datei, 24 S., 50 KB)
    und die Linkliste (PDF-Datei, 4 S., 20 KB) dazu.

    Nach dem Vortrag im letzten Jahr hatte ich zu dem Thema einen Fünfseiter in der c’t, der (mit Genehmigung der Redaktion) in der nr-Werkstatt 9 nachgedruckt ist:
    Quellenmanagement – Quellen finden und öffnen / Hrsg.v. netzwerk recherche e.V. Konzeption: Dr. Thomas Leif (verantw.) Redaktion: Thomas Schnedler. Redakt. Mitarbeit: Daniel Bouhs Wiesbaden : netzwerk recherche, 6/2008. – 140 S., brosch.

    (nr-Werkstatt ; Bd. 9)

    (PDF-Datei, 140 S., 888 KB)

    Update [21.02.2011]: Eine Ergänzung zum Thema gibt es hier:

    PR in der Wikipedia.

    Viel Spaß! Tuesday, May 6th, 2008

    Hier meine Präsentation zum Thema für die Teilnehmer des Workshops in Wittenberg. Mehr zum Thema demnächst hier!journalistischer-umgang-mit-zahlen

  • Journalismus & Recherche » Tricks, Tools, Tipps

    Friday, April 16th, 2010

    Rob McKinnon stellt vor: OffeneDaten – ein Portal für offene Daten in Deutschland

    McKinnon berichtet davon, dass in Großbritannien bereits drei Regierungsbehörden Open Hackdays veranstaltet haben, um von Hackern zu lernen, wie man Daten organisieren und zugänglich machen kann, die Hackern wiederum haben erfahren, welche Bedürfnisse Behörden haben.

    Er kritisiert allerdings die bisher sehr restriktive Politik der EU, wenn es darum geht, tatsächlich Daten zur Verfügung zu stellen.

    Kleine Linkliste zur Session mit Rob McKinnon über Open-Data-Projekte:

    • Free Risk: US-Site mit Informationen zur Kreditwürdigkeit (credit ratings)
    • Public Whip: Wahlverhalten der UK-Parlamentarier
    • Track Congress: Informationen über den US-Kongress
    • Meta-Seite: Wikipedia – Sammlung von Sites, die Gesetzgebungs- und andere Regierungsverfahren in vrschiebenen Ländern abbilden, indem sie relvante Dokumente zugänglich machen

    Anatomy of Britain – herrliches Beispiel für Datenjournalismus, bevor es das Internet gab.

    Morgen und übermorgen finden in Berlin die ersten deutschen Open Data Hackdays statt, bei der Projekte nicht nur vorgestellt, sondern auch entwickelt werden sollen.

    Am 9. und 10. Juli wird in Hamburg die Jahreskonferenz des Netzwerks Recherche stattfinden, bei der es ebenfalls einen Workshop zum Thema Open Government Data geben wird. Das Programm ist derzeit noch nicht veröffentlicht.

    Wednesday, January 20th, 2010

    Durch Googles Androhungdeutung, sich möglicherweise aus der VR China zurückzuziehen, ist die Internet-Zensur der VR wieder in die Diskussion gekommen. Die chinesische Regierung nennt ihre Maßnahmen euphemistisch den „Great Firewall of China“, eine Formulierung, die nachgerade nationale Hochgefühle wecken soll.

    Wie es darum bestellt ist, kamm man mit verschiedenen Websites prüfen:
    (more…)

    Thursday, December 17th, 2009

    Das Kanzleramt und viele weitere Ministerien beziehen Strom, der besonders billig ist und überdurchschnittlich viel CO2 verursacht. Diese Nachricht, die heute in der taz steht, zeigt wieder einmal, was für ein großartiges Instrument europaweite Ausschreibungen sind, um damit auf Themen aufmerksam zu werden. Bei der Recherche war diesmal leider wieder einmal eine Klage vor dem Verwaltungsgericht notwendig, um den Preis und den CO2-Ausstoß des Kanzleramtsstroms zu erfahren. Daher dauerte es auch sieben Monate von meiner ersten Anfrage bis zur Veröffentlichung.

    Aber der Reihe nach: Behörden sind ja verpflichtet, größere Einkäufe von Waren oder Dienstleistungen europaweit auszuschreiben. Auf der Webseite der Europäischen Union, wo all diese Ausschreibungen veröffentlicht werden, kann man sich eine automatische Suche mit individuellen Kriterien einrichten und wird bei jedem Treffer per Mail benachrichtigt (zur Nutzung der Webseite siehe auch diese Dokumentation meines Workshops auf der Jahreskonferenz des Netzwerk Recherche).

    So war ich über eine Ausschreibung der Bundesanstalt für Immobilienaufgaben gestolpert, die auf diesem Wege Stromlieferanten suchte. Es ging dabei laut Auftragsbeschreibung (PDF) um die „Lieferung elektrischer Energie für ca. 160 Abnahmestellen – Liegenschaften der Bundesanstalt für Immobilienaufgaben, verschiedene Bundesbehörden und Zuwendungsempfänger – in den Landesgrenzen der Stadt Berlin“. Insgesamt sollten 178 Millionen kWh pro Jahr geliefert werden – aufgeteilt auf mehrere Lose, also Unterausschreibungen. 3 Millionen kWh sollten aus Erneuerbaren Energien kommen. Für die restlichen 175 Millionen kWh suchte die Anstalt Lieferanten für Strom „ohne vorgegebene Herkunft“.

    22. Mai 2009: Ich frage erstmals bei der Bundesanstalt an: Für welche Behörden wird der Strom eingekauft, was kostet er und wie viel CO2-Ausstoß verursacht er?

    27. Mai: Die Bundesanstalt antwortet und listet auf, für wen sie Ökostrom und für wen sie den Strom ohne besondere Herkunft einkauft. Der Ökostrom geht an das Bundesverkehrsministerium. Der Egalstrom gehe an das Bundeskanzleramt, das Auswärtige Amt, die Bundesministerien für Justiz, Bildung, Ernährung, Arbeit, Gesundheit, Wirtschaft, an das Presse- und Informationsamt, an die Bundespolizei, die Bundesnetzagentur, an viele Landesvertretungen und weitere Behörden. Die Bundesanstalt weigert sich allerdings, den Preis für den Strom zu nennen: „Aus vergaberechtlichen Gründen ist mir leider nicht möglich, Ihnen die nachgefragten Auftragswerte bekannt zu geben.“ Außerdem behauptete die Bundesanstalt, ihr sei nicht bekannt, aus welchen Energiequellen wie der Egalstrom erzeugt wurde: Weil „Strom ohne vorgegebene Herkunft nachgefragt wurde, verfügt die Bundesanstalt naturgemäß über keine diesbezüglichen Informationen; dies gilt auch in Bezug auf die Angabe bestimmter Erzeugungsarten und der CO2-Emissionen“.

    8. Juni: In einem Brief an die Bundesanstalt erläutere ich den Umfang der Auskunftspflicht nach dem Pressegesetz und bitte um erneute Überprüfung.

    18. Juni: Die Bundesanstalt beharrt darauf, dass sie die Strompreise nicht nennen könne. Die EU-rechtlichen Vergabevorschriften würden einem presserechtlichen Auskunftsanspruch entgegenstehen. Der Inhalt der Angebote und insbesondere die Preisgestaltung unterliege gemäß der Artikel 6, 35 Abs. 4 und 41 Abs. 3 der Richtlinie 2004/18/EG zur Vergabe öffentlicher Aufträge dem Gebot der vertraulichen Behandlung. Außerdem müssten die Stromlieferanten darauf vertrauen können, dass die Bundesanstalt Informationen, die üblicherweise vertraulich behandelt werden, nicht an die Presse gibt. (more…)

    Sunday, November 1st, 2009

    Die FAZ hat eine Linkliste zu digitalen Zeitungsarchiven veröffentlicht, denn:

    Alte Zeitungen sind das beste Archiv des Alltags, das wir haben. In vielen Blättern, die zum Teil mehr als 200 Jahre alt sind, kann man online stöbern. Unsere Linksammlung zeigt die besten Adressen im Netz.

    Eine dankenswerte Aufgabe. Ergänzen möchte ich zwei Informationen, weil ich oft genug in Seminaren erfahre, dass sie nicht bekannt sind: Das Archiv des Spiegels ist inzwischen im Volltext bis zurück zur ersten Ausgabe durchsuchbar – kostenlos. Und wenn man mal auf einen Artikel in der FAZ stößt, der angeblich nur im kostenpflichtigen Archiv vorhanden ist (man suche z.B. nach „Reto Hilty“), sollte man erstmal mit Googles Site-Funktion suchen, bevor man’s glaubt (geht auch bei Yahoo über die erweiterte Suche oder bei Bing mit der Site-Funktion).

    Monday, September 14th, 2009

    116 fest installierte Überwachungskameras stehen entlang der Route der Anti-Überwachungs-Demonstration „Freiheit statt Angst“. Zumindest habe ich so viele gefunden, als ich am Donnerstag vergangener Woche für die taz die Strecke abgelaufen bin. Auf taz.de haben wir in einen Artikel eine Karte von Google Maps eingebunden, auf der alle 116 Kamerastandorte verzeichnet waren. Außerdem hatte ich auch alle Kameras fotografiert und die Fotos auf einer Karte von Panoramio eingefügt – auch diese Seite war von dem Artikel aus verlinkt.

    Das Ablaufen der Route und das Übertragen der Daten auf die beiden Online-Dienste nahm einen Arbeitstag für eine Person in Anspruch. Hinzu kam noch die zusätzliche Recherche. So stellten wir drei Kameratypen an drei Beispieln vor: Verkehrsüberwachungskamera am Potsdamer Platz, Museumskamera vor dem Deutschen Guggenheim, Behördenkamera vor dem Auswärtigen Amt. Dabei erläuterten wir jeweils: Was ist der Zweck der Kameraüberwachung? Werden die Bilder auch gespeichert? Falls ja: Für wie lange? Allein die Deutsche Bank, die die Kamera an dem Museum betreibt, wollte nicht antworten, ob die Bilder gespeichert werden: „Zu sicherheitstechnischen Fragen können wir generell keine Angaben machen“, meinte ein Banksprecher. Jetzt läuft ein Auskunftsantrag nach § 34 des Bundesdatenschutzgesetzes. (more…)

    Saturday, August 8th, 2009

    My belief is that every single major magazine cover is retouched,“ so Scott Kelby, Präsidentin der Florida-based National Assn. of Photoshop Professionals. Das weiß eigentlich jeder, zur Demonstration reicht ein Blick in die Auslage eines beliebigen Kiosk, Abteilung Fernsehmagazine: Lächelnde, langhaarige, meist blonde Frauen mit e-normem Dekolleté und blendend weißen Zähnen vor blauem Hintergrund. Man muss immer erst nachlesen, wer diese steril dargestellte Person in echt denn sein soll.
    (more…)

    Friday, July 3rd, 2009

    Kai Biermann stellt auf ZEIT online in Form einer Bildergalerie zehn Tools für Twitter vor: Twittern mit Sieb und Lupe. Nicht alle der 14 genannten Tools scheinen mir wirklich nützlich, aber einige sehr empfehlenswerte Werkzeuge sind dabei, die einen Test lohnen. (Mein Favorit aus der Liste ist Nummer 13: Twitter-Friends, für Social Network Analysis.)

    Gibt es eigentlich irgendwo eine komplette oder redaktionell bearbeitete Liste von Twitter-Tools? Erwähnenswert ist jedenfalls PJebsens Liste Deutschsprachige Medien bei Twitter auf Sozialgeschnatter.

    Wednesday, July 1st, 2009

    Der Wächterpreisträger David Schraven hat im Blog Ruhrbarone, das er mit KollegInnen betreibt, einen Artikel darüber geschrieben, wie Hannelore Kraft, SPD-Vorsitzende in Nordrhein-Westfalen, ihren Lebenslauf geändert hat. Ein schönes Beispiel für den Einsatz der Wayback Machine von archive.org. Schraven hatte eine ältere Version der Kraftschen Website dort angeschaut und festgestellt, dass Informationen verändert worden waren. Wie wichtig das ist, darüber gibt es nun Streit. Aber das ist eine andere Geschichte.

    Sunday, June 7th, 2009

    Um ehrlich zu sein: die beiden Workshops von Paul Myers haben erfahrenen Internet-Rechercheuren nicht viel Neues gebracht. Dennoch konnte man hören, wie begeistert viele Teilnehmer waren, die sich nicht so intensiv mit dem Thema beschäftigt hatten. Insofern waren seine Präsentationen ein großer Erfolg.

    Auf drei Beispiele möchte ich aufmerksam machen, die auch für mich sehr interessant waren:

    • Domaintools bietet eine WHOIS-Historie an. Das wusste ich nicht, kann es auch nicht oft nutzen, weil es sehr teuer ist – aber wenn man es wirklich mal braucht, ist es sehr gut, das zu kennen.
    • Man kann das Verzeichnis des Open Directory Projects mit der Way Back Machine durchsuchen. Das ist eigentlich selbstverstädnlich, nur muss man auch darauf kommen. Myers hat es am Beispiel der Website Saddam Husseins gezeigt, indem er erst die Seite zum Irak im aktuellen Verzeichnis herausgesucht, dann die Adresse in die Way Back Machine eingegeben hat (die ja noch immer keine Volltextsuche besitzt), um zum alten Verzeichnis zu kommen – und sich dann Saddams Website aufzurufen (die im Unterverzeichnis Government liegt). Clever.
    • Was für Nerds ist die Seite zu „Google dorks“. Dazu gibt’s keine Erklärung, weil es erstens zu lange dauern würde und ich zweitens den größten Teil selber nicht verstehe. 🙁 Aber ich arbeite dran.

    Wednesday, May 13th, 2009

    Über das Blog Daring Fireball bin ich gerade auf diesen Beitrag von Jeff Atwood gestoßen darüber, wie es in vielen modernen Browsern die Adresszeile ähnlich flexibel wie die Kommandozeile erlaubt, mittels Kurzbefehlen schnelle Suchanfragen zu stellen.

    Atwood beschäftigt sich in seinem Beitrag nur mit den entsprechenden Funktionen von Googles Browser Chrome, aber es funktioniert auch mit anderen Browsern. Für mich ist diese Praxis schon lange im Apple-Browser Safari selbstverständlich: Wikipedia-Beiträge etwa rufe ich dank eines Hacks für den Safari-Browser, dem Input-Manager Safari-Stand (nur für Safari am Mac), mittels des Kurzbefehls w Suchwort auf, für Aufrufe in der englischsprachigen Wikipedia habe ich wen als Kürzel definiert. Safari-Stand übergibt dabei mein Suchwort einfach an die Google-Suche, beschränkt auf die Wikipedia-Site und per „I’m Feeling Lucky“-Funktion mit direkter Weiterleitung zum erstbesten Treffer. So sieht der von mir definierte Befehl in den Safari-Stand-Einstellungen aus (@key ist der Variablenname):

    http://www.google.com/search?btnI=I'm+Feeling+Lucky&q=@key+site:de.wikipedia.org.

    Im Alltag spart mir das viel Zeit – und führt dazu, dass ich eigentlich ständig „mal eben“ in Wikipedia nachschlage; viel eher, als ich es über den Umweg Startseite-Sucheingabe-Artikel tun würde. Ähnliche Such-Kürzel habe ich mir für die Amazon-Katalogsuche und die diversen Google-Suchen nach Bildern, Nachrichten und Karten definiert. Mit dem Kürzel bln etwa reicht es, Straßennamen (und Hausnummer) in die Adresszeile einzugeben, und ich erhalte von Google Maps den passenden Kartenausschnitt von Berlin mit Markierung.

    In den Kommentaren zu Atwoods Beitrag finden sich zahlreiche weitere Tipps zu ähnlichen Funktionen, auch im populäreren Mozilla-Browser Firefox.

    Nachtrag: Gerade bin ich auf diesen Webservice gestoßen: Yubnub – a social command line for the web – unbedingt mal ausprobieren.

  • Journalismus & Recherche » Bücher & Publikationen

    Saturday, July 11th, 2009

    Reuters hat das bislang interne Handbook of Journalism ins Netz gestellt. Das optisch schön gemachte Projekt, dass mich ein wenig an eine Kreuzung zwischen einem Wiki und Papierlayout erinnert, ist in sechs Abschnitte gegliedert:
    (more…)

    Tuesday, July 7th, 2009

    Rezension von Oliver Hochadel in der NZZ: Nichtwissensgesellschaft : Studien zur gezielten Produktion von Ignoranz. Besprochen wird das von Robert Proctor und Londa Schiebinger herausgegebene Buch Agnotology: The Making and Unmaking of Ignorance. Thema sind ‘wissenschaftliche’ Studien, deren Zweck darin besteht, mittels Fear, Uncertainty and Doubt (FUD) gezielt Verwirrung zu stiften und Entscheidungen zu verhindern oder zu verzögern. Das scheint eine lohnende Lektüre für Journalisten zu sein, die mit wissenschaftlichen Studien zu tun haben.

    Agnotology: The Making and Unmaking of Ignorance (Hardcover) by Robert Proctor (Editor), Londa Schiebinger (Editor) Stanford University Press; illustrated edition edition (May 13, 2008) 312 pages ISBN-10: 080475652X

    ISBN-13: 978-0804756525

    (gefunden bei Hal Faber im WWWW)

    Monday, November 24th, 2008

    Felix Zimmermann ist Vorstandsmitglied des neuen Vereins Freischreiber, dem es darum geht, die Arbeitssituation freier Journalisten zu verbessern (Disclosure: ich war beim Gründungskongress dabei und werde dem Verein auch beitreten, sobald das möglich ist). Nun hat Zimmermann im Freischreiber-Forum darüber berichtet, wie auf Petra Reski und Jens Weinreich Druck ausgeübt wird. Es geht ihm darum deutlich zu machen, dass freie Journalisten eine besondere Solidarität brauchen, da sie „ungeschützt“ arbeiten. Das sehe ich genauso, aber die Fälle sind natürlich auch für alle anderen Journalisten / Rechercheure interessant. Daher veröffentlichen wir hier Zimmermanns Text als Gastbeitrag.

    Zwei Fälle, auf die Freischreiber aufmerksam machen will

    Zu den Zielen dieses neuen Verbandes gehört auch, jedem einzelnen freien Journalisten den Rücken zu stärken. Deshalb wollen wir an dieser Stelle auf die Situation zweier Kollegen aufmerksam machen, die durch ihre Arbeit in Schwierigkeiten geraten sind. Zum einen geht es um Petra Reski, freie Journalistin in Venedig und Mitglied im „Autoren-Reporter“-Netzwerk: Anfang September ist ihr Buch Mafia. Von Paten, Pizzerien und falschen Priestern (Verlag Droemer) erschienen. Sie berichtet darin auch über die Verstrickung der Mafia in Deutschland – die ihrer Schilderung nach viel enger geknüpft ist, als sich das die Öffentlichkeit hierzulande vorzustellen vermag.

    Petra Reski und die Mafia

    Dem deutschen Gastwirt Rolf Milser aus Duisburg und seinem aus dem kalabrischen San Luca stammenden Geschäftspartner Antonio Pelle missfällt es, was Reski über die Präsenz der kalabrischen ’Ndrangheta in Deutschland schreibt.   (more…)

    Saturday, October 18th, 2008

    Die neue Message – Internationale Zeitschrift für Journalismus ist frisch am Kiosk. In jeder Message gibt es eine Beilage namens „Werkstatt“, die auf besonders praxisnahe Weise journalistisches Handwerk vermitteln soll. Die aktuelle Ausgabe steht unter der Überschrift

    KEINE SPUREN HINTERLASSEN!
    Wie Sie als Journalist Ihre Recherche und Ihre Informanten online wie offline vor dem Zugriff des Staates oder privater Detektive schützen können, zeigt Ihnen unsere aktuelle Message-Werkstatt.

    Die Texte sind gekürzte Fassungen der Beiträge des Buches “Unerkannt im Netz – Sicher kommunizieren und recherchieren im Internet“ von Peter Berger, in dem auch ein Beitrag von mir erschienen ist – zum Thema „Was tun, wenn der Staatsanwalt klingelt?“ Der Verlag, UVK, hat mir erlaubt, den Text im Blog zu veröffentlichen. Was ich hiermit mache. Das soll natürlich niemanden daran hindern, die neue Message und/oder das Buch zu kaufen. Denn da steht ja noch viel mehr Interessantes drin.

    Na dann: Was tun, wenn der Staatsanwalt klingelt? (more…)

    Friday, October 10th, 2008

    Eine schöne Zusammenfassung der Studie „Journalismus in der Berliner Republik – Wer prägt die politische Agenda in der Bundeshauptstadt?“ (komplett abrufbar als PDF, 700 KB), von Leif Kramp und Stephan Weichert (herausgegeben vom Netzwerk Recherche) gibt es auf der Schweizer Seite medienheft.ch:

    Von Kanzlermachern und Politikberatern – Oder wer die politische Agenda bestimmt – Stephan Weichert und Leif Kramp.

    Ein Auszug:

    Die Recherchesituation der Hauptstadtjournalisten ist von einer starken Ambivalenz geprägt, die sich aus dem Zusammenspiel von Nähe und Distanz, Ausnutzen und Anfreunden ergibt. Hinzu kommen zuweilen auch Wissenslücken in Bezug auf die Sachthemen und das jeweilige Gegenüber. Die für den Recherchejournalismus zentrale Frage, warum in Berlin so wenig bzw. so mangelhaft recherchiert wird, lässt sich auf Grundlage der Befragung zwar nicht eindeutig beantworten. Die Befunde legen allerdings die Vermutungen nahe, dass (1) aktualitätsgebundene Redaktionen generell weniger recherchieren, (2) die Zentralredaktionen eine umfassende Recherche gar nicht unbedingt erwarten, (3) Recherchen – im ökonomischen und ideellen Sinn – nicht (mehr) angemessen honoriert werden und (4) generell nach einem „Zuckerbrot-und-Peitsche“-Prinzip gehandelt wird: Bei einer kritischen Berichterstattung könnten wertvolle Recherchequellen für immer versiegen, umgekehrt könnten publizistische Liebesdienereien und ein Hinwegsehen über Missstände einen dauerhaften Zugang zu Exklusivinformationen garantieren.

    Tuesday, May 20th, 2008

    Eigentlich wollte ich nur kurz auf die Studie von drei Forschern des MIT hinweisen: Inferring Social Network Structure using Mobile Phone Data.

    Gefunden bei der Humanistischen Union via netzpolitik.org. Weitere Meldung beim VirDSB.

    Vor dem Hintergrund der Vorratsdatenspeicherung elektronischen Totalüberwachung ist die Studie eine gute Argumentationshilfe:

    (more…)

    Wednesday, March 19th, 2008

    Die Website des neu erschienenen Buches Die Google-Falle (Link auf die Presseseite) ist gerade Opfer eines humorigen Defacements, also eines Hacks, bei dem die Startseite verändert wird. In diesem Fall kann man Schmunzeln nur schwer vermeiden; laut Quelltext haben sich die „screenagers.at“ daran zu schaffen gemacht. Die Unterseiten sind weiterhin erreichbar, sofern man sie direkt ansteuert oder den Link Intro überspringen klickt.

    Ich erwarte gerade das Rezensionsexemplar; ein Interview mit Verfasser Gerhard Reischl ist gerade auf telepolis erscheinen, eine Notiz zum Buch im GoogleWatchBlog.

    Thursday, September 13th, 2007

    Das netzwerk recherche plant, zusammen mit Prof. Branahl (Uni Dortmund, Institut für Journalistik) ein Handbuch zum „aktivem Presserecht“. Das Ziel ist es, anhand von konkreten Fällen zu zeigen, wie und wo Journalisten ihr Informationsrecht nach dem Presserecht, dem Informationsfreiheitsgesetz, dem Umweltinformationsgesetz, oder anderen Gesetzen bei Behörden zur Not auch vor Gericht durchsetzen können.

    Es sollen Fälle gesammelt, aus denen beispielhaft hervorgeht, mit welchen Formulierungen erfolgversprechende Anträge gestellt werden können. Wo diese Anträge eingereicht werden müssen und wie man mit einer Ablehnung umgeht. Gezeigt werden soll, wie man Widersprüche bei Behörden stellt und wie man schließlich eine Klage durchsetzt und was das alles kostet.

    Dazu werden nicht nur die Auswertung der Fälle vorstellt, sondern die Fälle selbst mit ihren Schriftsätzen dokumentiert. Wie aus einem Werkzeugkasten sollen sich Journalisten dann in dem Handbuch bedienen können, wenn sie ihren Auskunftsanspruch durchsetzen wollen. Frei nach dem Motto: Die Gesetze sind da, lasst uns sie einsetzen.

    Das Handbuch soll gedruckt und im Web publiziert werden. Es soll zudem vor allem im Netz laufend ergänzt werden mit neuen interessanten Fällen. Um schnell mit der Arbeit beginnen, werden mindestens 12 Fälle aus der Praxis gebraucht; jeweils Schriftsätze, Anträge, Entscheidungen und gegebenenfalls die Urteile.

    Wer hat Fälle, oder kennt Journalisten, die ihren Informationsanspruch vor Gericht durchgesetzt haben? Hinweise bitte an David Schraven, der das Projekt koordiniert, unter
    david.schraven@mag.cc.

    [AUde]

    Sunday, July 29th, 2007

    Vom J-Lab, dem Institute for Interactive Journalism (University of Maryland Philip Merrill College of Journalism und the Knight Citizen News Network) stammt eine neue Veröffentlichung:

    Journalism 2.0 : How to Survive and Thrive. A digital literacy guide for the information age / Written by Mark Briggs. Foreword by Phil Meyer. Edited by Jan Schaffer

    © 2007 Mark Briggs, Creative Commons Attribution-NonCommercial-NoDerivs 2.5 License.

    {PDF-Datei, 2.017 KB, 132 S.}

    Nach erstem Durchblättern eine sehr brauchbare Einführung in die Publikationstechniken, die man gemeinhin als Web 2.0 bezeichnet. Für viele Journalisten sicherlich ein sehr lesenswerter Text. Den Untertitel „literacy guide“ finde ich aber etwas zu weit geworfen, denn der Text behandelt lediglich die Produktion und Publikation von internetbasierten Medien. Bedauerlicherweise wird auf Recherche im Web 2.0 nicht eingegangen.

    Unübersehbar ist die Verwandschaft des Buches zum Projekt J-Learning, das aus dem gleichen Hause kommt und das erwähnenswerte Journalism 2.0 Blog betreibt.

    (more…)

  • Journalismus & Recherche » Blog Archive » Das Internet ist schuld (Teil 2)

    Ich habe ja schon über den amüsanten Auftritt von Thomas Leif bei der Vorstellung einer Studie über Internet-Recherche geschrieben und ihm hier widersprochen. Kurz gesagt geht es um die Frage, ob die Nutzung des Internets schuld an bestimmten journalistischen Fehlleistungen ist oder nicht. Das gleichzeitige Auftreten von zwei Phänomenen bedingt ja noch keine Kausalität.
    Wie schon in der Einleitung zum Medienkodex geben Leif & Co. dem Internet die Schuld. „Neue Technologien und zunehmender ökonomischer Druck gefährden den Journalismus.“

    Ich sehe das anders und glaube, dass Journalisten schon immer selbstreferentiell waren, das Internet macht das natürlich leichter. Zugespitzt würde ich sagen, dass Faulheit, Eitelkeit und pseudo-Zwänge der Branche jeweils eine größere Rolle als Ursachen für Recherche-Fehlleistungen darstellen als das Internet.

    Sehr schön kommt diese Kontroverse im Deutschlandfunk-Beitrag von David Goeßmann raus:

    “(…) Für Thomas Leif von netzwerk recherche sind die Ergebnisse der Studie alarmierend. Er fordert eine Zuspitzung der Debatte.

    „Journalisten beziehen sich immer mehr auf bereits von anderen Journalisten hergestelltes Material. Sie bearbeiten Informationen, die von außen zu ihnen gehen. Aber sie organisieren immer weniger eigene Geschichten, eigene Stories, und vor allem orginelle eigenwertige Recherchen. So dass es die Tendenz gibt, dass recycelt wird und man sich immer mehr aufeinander bezieht und nicht auf das was wirklich ist.“

    Lorenz Maroldt, Chefredakteur des Tagesspiegels, hält die Studie demgegenüber für überzogen. Dass durch den Rückgriff auf das Internet der Gegencheck seltener stattfinde, hält Maroldt für nicht bewiesen.

    „Früher ohne Online hats das genauso gegeben. Wurde genauso Quellen geglaubt. Vielleicht wurde sogar Quellen noch eher direkt geglaubt. Und durch die Möglichkeit über Google einen schnellen Gegencheck zu machen, ist man vielleicht eher in der Lage schnell zu überprüfen, ist das denn plausibel, was mir da einer erzählt. Ich glaube, dass Problem wird da von der falschen Seite beschrieben.“„

    Der Position Maroldts ist erstmal nichts hinzuzufügen.