Kategorie: Allgemein

  • Journalismus & Recherche » Metadaten

    Der “Robots Exclusion Standard” aus Rechercheursperspektive

    Die Arbeitsweise aller Suchmaschinen beim Auffinden neuer Webseiten ist unspektakulär: Spezielle Programme, Robots, Bots oder Spider genannt, durchsuchen bekannte Webseiten nach Hyperlinks und laden die dadurch gefundenen Seiten via HTTP, um sie entweder in die Datenbank der Suchmaschine aufzunehmen, oder um sie in gleicher Weise zu durchsuchen. Konzeptionell ist dieser Vorgang ist bei allen Suchmaschinen wenig unterschiedlich (sie variieren vor allem in der Suchfrequenz und den zur Kenntnis genommenen Dateitypen).

    Fast jede Website hat Dateien oder Verzeichnisse, die für eine Suchmaschine nicht von Interesse sind, zum Beispiel Hintergrundgrafiken, Logos, Buttons, Longdesc-Texte usw. Andere, zum Beispiel in Framesets verwendete Navigationsspalten, soll eine Suchmaschine zwar nach deren Links durchsuchen, sie aber nicht selbst im Index aufführen, da die Navigationsspalte für sich genommen inhaltsleer ist – sie verweist ja nur auf die Inhaltsseiten. Das Wissen um diese Details hat selbstverständlich der Webadmin der entspechenden Site.

    Um die Kommunikation zwischen Webadmins und Suchmaschinen zu ermöglichen und zu systematisieren, wurde nach Diskussionen in einer Mailingsliste der Robots Exclusion Standard (RES) geschaffen. Er wurde niemals in den Kanon der RFC oder anderer Normensammmlungen aufgenommen, wird aber sehr häufig beachtet. Am wichtigsten ist vielleicht, dass die Wayback Machine den RES anwendet.

    Webmaster haben zwei Möglichkeiten, den RES zu nutzen: Sie können eine Datei robots.txt erstellen, und sie können in jeder HTML-Seite Metatags anbringen.

    Die Datei robots.txt

    Die Datei “robots.txt” (deren Name aus Kompatibilitätsgrunden die 8/3-Konvention für Dateinamen einhält) muss als ASCII-Textdatei im Stammverzichnis der Website liegen. Ihr URL lautet also immer “http://[domain]/robots.txt”.

    In ihr kann der Webadmin festlegen, welche Dateien und Verzeichnisse der Spider ignorieren soll. Dabei kann er Wildcards einsetzen und Anweisungen an bestimmte Spider geben, sofern deren Bezeichnungen bekannt sind.

    Wenn ein Spider diese Datei liest und beachtet, werden bestimmte Dateien und Verzeichnisse also gar nicht erst an den Spider übertragen.

    Die RES-Metatags

    Zusätzlich kann in jede HTML-Datei der Metatag “meta name=’robots’ content=’index,follow’” geschrieben werden. Dieser richtet sich unterschiedlos an alle Spider und setzt voraus, dass die entsprechende Datei übertragen und ihre Inhalte verarbeitet wurden. Die möglichen Angaben ‘index’/’noindex’ geben an, ob die Inhalte der Seite indiziert werden sollen, ‘follow’/’nofollow’ bezieht sich auf die Nachverfolgung von Hyperlinks. Soweit die Theorie…

    Praktische Auswirkungen

    Der immanente Widersinn des RES liegt auf der Hand: Es muss explizit genannt werden, was verschwiegen sein soll. Zum einen halten sich nicht alle Suchmaschinen an den RES, sei es, dass sie ihn ignorieren, sei es, dass sie gar die robots.txt gezielt auswerten.

    Zum Zweiten ist der RES ursrpünglich gedacht, um Suchmaschinen von Dateien fernzuhalten, die sie ohnehin nicht benötigen: Grafiken ohne wirklichen Inhalt oder Skripten im Verzeichnis “/cgi-bin” etwa. Spätestens aber, seit archive.org die robots.txt auswertet, um zu erfahren, was nicht (öffentlich zugänglich) archiviert werden soll, müssen Webadmins auch sensible Informationen bekannt geben. Das macht die robots.txt für Rechercheure interessant. Schon allein, weil man mit einem Blick feststellen kann, ob der Verantwortliche den Unterschied zwischen einer unverbindlichen Nachricht an Spider und einem Passwordschutz für Verzeichnisse (der ja auch Suchmaschinen aussperrt) kennt.

    Das Beispiel

    Das wird klar, wenn man einen Blick in die robots.txt des Weißen Hauses wirft. (Um deren Webadmin nicht durch zu viele Klicks zu beunruhigen, verlinke ich hier auf eine lokal gespeicherte Kopie dieser Datei vom 14. Mai).

    Auffällig ist, dass der Webadmin des Weißen Hauses vor allem die Texte der Website aus öffentlichen Suchmaschinen und der Wayback Machine heraushalten möchte.

    Wohlvermerkt: Es ist nicht unsinnig, dass die Site des Weißen Hauses den RES nutzt: Für den (vermutlich regierungsinternen) Spider namens “whsearch” sind die “Disallow”-Zeilen sehr viel weniger, und dem Anschein nach sinnvoll für eine umfassende Textsuche.

    Seine Anwendung ist aber unüberlegt. Stellvertretend für viele andere Websites liefert die robots.txt des US-Präsidenten quasi eine Übersicht über heikle Inhalte. Aus technischer Perspektive ist dies Vorgehen unsinnig. Die Verantwortlichen hätten den Webserver so konfigurieren können, dass z.B. nur Anfragen von bestimmten IP-Adressen erfolgreich sind, während allen anderen (inklusive Suchmaschinen) Fehlermeldungen oder unsensible Inhalte geliefert werden.

    Fazit: Beim Durchleuchten einer Website ist ein Blick in die robots.txt (oder deren Beobachtung z.B. durch Webdienste wie Changenotes obligat. Insbesondere kann die Datei Hinweise liefern, welche Inhalte die Betreiber einer Website als heikel ansehen, wenn sie nicht sogar eine ‘alternative Navigation’ ermöglicht.

    [AUde]

  • Journalismus & Recherche » Blog Archive » CAR-Workshop mit Michael Holm in Hamburg (30.10. – 1.11.)

    Den Computer arbeiten lassen, um aus Datenbanken und Zahlenbergen die exklusive Story zu destillieren: Computer Assisted Reporting (CAR) gehört für die Kollegen in vielen Ländern längst zum Recherche-Alltag. Auch in Deutschland eröffnen uns Informationsfreiheitsgesetze in mittlerweile acht Bundesländern und seit 1.1.06 auf Bundesebene den Zugang zu Datensätzen aus Ämtern und Behörden. Daneben zeigen wir, wie bereits öffentliche Daten gefunden werden und wie man sie verarbeiten kann.
    Für CAR muss man kein Computer-Spezialist sein: In diesem dreitägigen Workshop geben wir einen Überblick über die Methoden und ihre Anwendungen. Das Recherchieren mit Hilfe von Excel wird ausführlich trainiert; an Beispielen aus dem In- und Ausland – und an den mitgebrachten Rechercheprojekten der Teilnehmer. Geeignete Projekte und Datensätze werden vorab mit den Teilnehmer besprochen. Zusätzlich gibt es vorab ein paar Excel-Übungen, um die Grundlagen zu vermitteln.

    Mit Michael Holm, Dänemark, ehemals Danish International Center for Analytical Reporting (DICAR) und Marcus Lindemann (nr).

    an der Akademie für Publizistik, Hamburg

    Termin: 30. Oktober bis 1. November

    Gebühr: 585 Euro

    maximal 10 Teilnehmer

    Anmeldung über http://www.akademie-fuer-publizistik.de/

    Inhaltliche Rückfragen etc. gerne an
    Marcus Lindemann

  • Journalismus & Recherche » Urteile

    Ist zwar schon eine Weile her, aber besser spät als nie. Beim Chaos Communication Congress hat Udo Vetter, Fachanwalt für Strafrecht aus Düsseldorf, einen Vortrag mit dem Titel „ Sie haben das Recht zu schweigen: Durchsuching, Beschlagnahme, Vernehmung – Strategien für den Umgang mit Polizei und Staatsanwalt“ gehalten. Ist ein langer Riemen, daher hat es auch so lange gedauert, bis er hier erscheint, aber absolut lesens- bzw. wissenswert. (Mehr Links folgen noch.)

    Vetter, Autor des sehr viel gelesenen Lawblogs, erläuterte, wie Situationen zu meistern sind, mit denen die meisten von uns wohl eher keine Erfahrung haben und daher auch nicht wüssten, wie man sich im Zweifel „richtig“ verhält. Meiner Ansicht nach ist das ein Thema für Recherche-Info.de, weil die Ermittlungsbehörden bekanntlich inzwischen auch bei Journalisten eine beunruhigende Aktivität entfalten. Der Fall Cicero wird vielleicht ein wenig strapaziert, aber er ist nicht das einzige Beispiel. Betroffen sind auch nicht nur „investigative“ Journalisten.

    „Nehmen Sie das Recht zu schweigen in Anspruch. Damit ist der Vortrag beendet“ – so begann Vetter seinen Vortrag, doch es war mehr als nur ein amüsante Einstieg zu verstehen, denn der Ratsschlag bildete auch gleich das Motiv des Vortrags, das Vetter in einigen Variationen durchspielte.
    (more…)

  • Journalismus & Recherche » Zahlen

    vorab: Lieber Sebastian Wolff von der Berliner Zeitung, es tut mir ein wenig leid, dass ich Sie hier tadele, denn genauso gut könnte ich jeden Tag in jeder deutschen Zeitung einen Artikel herausgreifen und dafür kritisieren,
    dass er einzig und allein auf einer einzigen Quelle beruht.

    In Ihrem Fall auf Angaben des Gesamtverband der Deutschen Versicherungswirtschaft (GDV). Zu Gute halten möchte ich Ihnen, dass Sie sich erst gar nicht die Mühe machen, das zu verschleiern. Damit nicht alle den Text lesen müssen: Der GDV beklagt sich, dass Internetbetrüger den Versicherungen das Leben schwer machen und Schaden zufügen. Als Beispiel wird angeführt, dass Schmuck bei Ebay angeboten wird würde (sic!) und diesem Wertzertifikate über einen viel höheren Preis beiliegen – letztere würden dann den Versicherungen vorgelegt, wenn ersterer gestohlen gemeldet wird

    Ich habe mir den Artikel direkt nach der Lektüre ausgerissen, um ihn am Mittwoch den Volontären im Rechercheseminar vorlegen zu können – damit die ja nicht denken, dass mit den Ein-Quellen-Artikeln sei ein theoretisches Phänomen.

    Was ist denn so schlimm daran, möchten Sie fragen? Naja, der Leser zahlt ja dafür, dass Sie sich etwas Arbeit machen, aber in diesem Fall hätten Sie doch besser einfach nur einen Nachdruck mit dem Verbandsmagazin abgemacht, das das Thema, wie Sie ja auch anführen, bereits in einem Artikel aufgegriffen hatte. Wobei, werter Kollegen, einige Passagen hart an der Grenze zum Plagiat sind.

    Und da ich als Leser ja schon mal dafür bezahlt habe, dass Sie etwas mehr leisten, verrate ich Ihnen nicht nur, was ich mir noch gewünscht hätte, sondern was ich eigentlich für schlichtes Handwerkszeug halte. (Nicht dass Sie Leserforschung betreiben und mein Aboentgelt wieder nicht in die Redaktion wandert.)

    Abgesehen davon, dass der Artikel in sich widersprüchlich ist, indem er zum einen behauptet, dass es keine Zahlen gäbe, zum anderen aber sagt, die Zahl solcher Delikte sei gestiegen – hierauf hat ja der Kollege Kunze schon aufmerksam gemacht -abgesehen davon also stellen sich nach der Lektüre des Textes mehr Fragen als der Artikel vermeintlich beantwortet hat.

    Ein paar Ideen ohne Anspruch auf Vollständigkeit:

    1.) Gibt es das Massenphänomen überhaupt? (Wieviel Schmuck mit Zertifikaten, die Wertangaben enthalten, finden Sie bei Ebay?)

    2.) Wie kommen die Versicherer dazu, solchen Zertifikaten glauben zu schenken? (müssen Sie ja auch nicht) So ein Zertifikat ist ja kein Zahlungsbeleg – im Gegensatz zu Quittungen oder Kassenbons, die Versicherungen sonst so verlangen.

    3.) Plausibilität: Die meisten Hausratversicherungen begrenzen die Versicherung von Wertsachen wie Schmuck.

    Schon diese kleine Denksportaufgabe hätte mich so skeptisch gemacht, dass ich das Thema entweder liegen gelassen hätte oder erst recht recherchiert hätte.

    Tja. So nun aber sieht es einfach so aus, dass der GDV seine jährliche Oh-wie-schlimm-ist-Versicherungsbetrug-PR-Meldung loswerden wollte und dachte mit der Internetkriminalität als Aufhänger kommt das sicherlich besser an. Und: Bei Ihnen ist das ja auch angekommen. Glückwunsch, lieber GDV!

    PS: Liebe Leser, sagt’s den Volos nicht – sonst ist der ganze Spaß hin 😉

  • Journalismus & Recherche » Watchblog

    vorab: Lieber Sebastian Wolff von der Berliner Zeitung, es tut mir ein wenig leid, dass ich Sie hier tadele, denn genauso gut könnte ich jeden Tag in jeder deutschen Zeitung einen Artikel herausgreifen und dafür kritisieren,
    dass er einzig und allein auf einer einzigen Quelle beruht.

    In Ihrem Fall auf Angaben des Gesamtverband der Deutschen Versicherungswirtschaft (GDV). Zu Gute halten möchte ich Ihnen, dass Sie sich erst gar nicht die Mühe machen, das zu verschleiern. Damit nicht alle den Text lesen müssen: Der GDV beklagt sich, dass Internetbetrüger den Versicherungen das Leben schwer machen und Schaden zufügen. Als Beispiel wird angeführt, dass Schmuck bei Ebay angeboten wird würde (sic!) und diesem Wertzertifikate über einen viel höheren Preis beiliegen – letztere würden dann den Versicherungen vorgelegt, wenn ersterer gestohlen gemeldet wird

    Ich habe mir den Artikel direkt nach der Lektüre ausgerissen, um ihn am Mittwoch den Volontären im Rechercheseminar vorlegen zu können – damit die ja nicht denken, dass mit den Ein-Quellen-Artikeln sei ein theoretisches Phänomen.

    Was ist denn so schlimm daran, möchten Sie fragen? Naja, der Leser zahlt ja dafür, dass Sie sich etwas Arbeit machen, aber in diesem Fall hätten Sie doch besser einfach nur einen Nachdruck mit dem Verbandsmagazin abgemacht, das das Thema, wie Sie ja auch anführen, bereits in einem Artikel aufgegriffen hatte. Wobei, werter Kollegen, einige Passagen hart an der Grenze zum Plagiat sind.

    Und da ich als Leser ja schon mal dafür bezahlt habe, dass Sie etwas mehr leisten, verrate ich Ihnen nicht nur, was ich mir noch gewünscht hätte, sondern was ich eigentlich für schlichtes Handwerkszeug halte. (Nicht dass Sie Leserforschung betreiben und mein Aboentgelt wieder nicht in die Redaktion wandert.)

    Abgesehen davon, dass der Artikel in sich widersprüchlich ist, indem er zum einen behauptet, dass es keine Zahlen gäbe, zum anderen aber sagt, die Zahl solcher Delikte sei gestiegen – hierauf hat ja der Kollege Kunze schon aufmerksam gemacht -abgesehen davon also stellen sich nach der Lektüre des Textes mehr Fragen als der Artikel vermeintlich beantwortet hat.

    Ein paar Ideen ohne Anspruch auf Vollständigkeit:

    1.) Gibt es das Massenphänomen überhaupt? (Wieviel Schmuck mit Zertifikaten, die Wertangaben enthalten, finden Sie bei Ebay?)

    2.) Wie kommen die Versicherer dazu, solchen Zertifikaten glauben zu schenken? (müssen Sie ja auch nicht) So ein Zertifikat ist ja kein Zahlungsbeleg – im Gegensatz zu Quittungen oder Kassenbons, die Versicherungen sonst so verlangen.

    3.) Plausibilität: Die meisten Hausratversicherungen begrenzen die Versicherung von Wertsachen wie Schmuck.

    Schon diese kleine Denksportaufgabe hätte mich so skeptisch gemacht, dass ich das Thema entweder liegen gelassen hätte oder erst recht recherchiert hätte.

    Tja. So nun aber sieht es einfach so aus, dass der GDV seine jährliche Oh-wie-schlimm-ist-Versicherungsbetrug-PR-Meldung loswerden wollte und dachte mit der Internetkriminalität als Aufhänger kommt das sicherlich besser an. Und: Bei Ihnen ist das ja auch angekommen. Glückwunsch, lieber GDV!

    PS: Liebe Leser, sagt’s den Volos nicht – sonst ist der ganze Spaß hin 😉

  • Journalismus & Recherche » USA

    Der Pragmatismus der US-Amerikaner ist sprichtwörtlich, dennoch kann mich manche Erscheinungsform davon noch überraschen. Mark Cuban, der mit Broadcast.com, einem Dienst zur Videoübertragung über das Internet, reich geworden ist, hat angekündigt, die Website sharesleuth.com zu finanzieren. Die Site ist die Idee von Chris Carey, einem ehemaligen Reporter des St. Louis Post-Dispatch. “Sie wird eine Art Nachrichen-Weblog sein und soll Wertpapierbetrug und rechtswidriges Handeln in Unternehmen aufdecken”, wird Carey bei Cnet zitiert. “Wir werden fragwürdige Unternehmen beim Namen nennen und interessante, intensiv recherchierte Geschichten über die Menschen dahinter veröffentlichen”, so Carey weiter.

    Dieses Vorhaben will nun also Mark Cuban unterstützen, in den USA als “Maverick” berühmt, als eigensinniger Außenseiter. Eine gute Nachricht für den investigativen Journalismus, wie manche finden, denn der ist auch in den USA ziemlich auf den Hund gekommen.

    Doch die Geschichte hat noch eine andere Seite. Womit wir beim Pragmatismus wären. Cuban will die Infos, die sharesleuth.com ausgräbt, gern als erster auf dem Tisch haben, um auf ihrer Basis Kaufentscheidungen zu treffen. Problematisch? “Wie unterscheidet sich das von den Kommentatoren bei CNBC, Fox News, Bloomberg und so weiter, die Aktien kaufen oder verkaufen, um dann auf den Sender zu gehen und darüber zu diskutieren, warum sie diese Entscheidungen getroffen haben?”, kommentierte Cuban seine Pläne in einer e-Mail an Cnet. Und, so Cuban weiter: “Ist der schlaue Anleger nicht der, der erst recherchiert und dann über Kauf oder Verkauf entscheidet? Wir werden das gleiche tun, nur veröffentlichen wir, was wir herausgefunden haben.”

    Da machen sich Finanzpublikationen viele Gedanken darüber, wie sie Interessenkonflikte vermeiden können und erlassen Richtlinien dazu, welche Aktien ihre Redakteure besitzen dürfen und welche nicht, und dann wirft das Internet das alles über den Haufen, weil nun jeder publizieren kann. Und man kann sich darauf verlassen, dass Investoren demnächst häufiger bei sharesleuth.com vorbeischauen werden. Sehr spannend, das alles.

  • Journalismus & Recherche » Statistik

    Verursacht Kreditkartenbetrug (und andere Formen des so genannten “Identitätsbetrugs“) tatsächlich einen Schaden von 48 Milliarden US-Dollar im Jahr? Gehen wirklich Diebstähle in New York City im Wert von 2 bis 5 Milliarden US-Dollar jährlich allein auf das Konto von Beschaffungskriminalität?

    Die Antwort auf die erste Frage ist nein, die Antwort auf die zweite Frage ist – Überraschung! – ebenfalls nein. Im ersten Fall wäre der Schaden halb so hoch wie die Gewinne es gesamten US-Banksektors, im zweiten Fall ist es sogar so, dass zu der Zeit, als die Zahl zum ersten Mal veröffentlicht wurde, die New Yorker Polizei den Schaden durch Diebstähle auf 300 Millionen US-Dollar bezifferte – aller Diebstähle wohlgemerkt.

    Dennoch haben Zahlen dieser Art einen unglaublichen Überlebenswillen – oder, besser gesagt, die Journalisten, die sie ungeprüft verwenden, sorgen dafür, dass sie nicht tot zu kriegen sind. Einen neuen Versuch unternimmt Jack Shafer in seinem sehr lesenswerten Artikel The (Ongoing) Vitality of Mythical Numbers im Online-Magazin Slate (Englisch).

    Wie sieht es hierzulande aus? Wo sind sie, die mythischen Zahlen? Auf Anhieb fällt mir keine ein, aber das liegt bestimmt nur an meinem schlechten Gedächtnis. Liebe LeserInnen, helft uns auf die Sprünge!

  • Journalismus & Recherche » RSS

    Ach jeh, hat man schon eine schlimmere denglische Überschrift gelesen? Aber es ist ja für einen guten Zweck: Google soll’s verstehen, und die Suchenden auch. Nachrichten-Benachrichtigungen als elektronische Vertriebseinspeisung hätte wohl nicht wirklich seinen Zweck erfüllt. Für diejenigen, die es noch nicht wissen: Was ein RSS-Feed ist, erfährt man hier. Und da mir gerade ein Kollege, der sich gut mit Recherche und den Werkzeugen des so genannten Web2.0 auskennt, erzählte, dass er noch gar nicht wusste, dass man die Google News-Alerts auch per RSS-Feed abonnieren kann, dachte ich mir: weise ich doch auch bei recherche-info.de mal drauf hin. Ist schließlich so lange noch nicht im Angebot.

    Inzwischen bieten es aber fast alle Nachrichtensuchmaschinen an (vielleicht einige sogar schon länger als Google, das weiß ich nicht): Bei Google, Yahoo, MSN, Netzeitung findet man den Hinweis auf RSS, Atom oder XML – alles das gleiche, zumindest was die Funktion angeht (Vorsicht: bei manchen erscheint der Knopf erst auf der Ergebnisseite, also wenn man bereits eine Suche ausgeführt hat). Man kann also die Nachrichten-Alarme (wie Web.de sie nennt, das übrigens als einzige der bekannten Nachrichtensuchmaschinen keine Feeds anbietet) im Feed-Reader seiner Wahl abonnieren und bekommt keine E-Mail-Benachrichtigungen mehr.

    Ist das eine gute Idee? Das muss jeder selbst entscheiden. RSS ist sicher die eleganteste Versuchung, seit es XML gibt, aber wenn man dann erst mal 30 Feeds abonniert hat, kann es gut sein, dass die gute alte E-Mail im Postkasten wesentlich mehr Aufmerksamkeit auf sich zieht…

  • Journalismus & Recherche » Google-Basics

    Hinweis: Hier fehlen noch etliche Verlinkungen. Sie werden im Laufe des Tages ergänzt. Ich bitte um Verständnis. Gute Nacht 😉

    Google hat laut „heise online“-Newsticker in Deutschland im September 2006 die 90-Prozent-Hürde beim Marktanteil in Deutschland genommen. Das heißt, mehr als 90 Prozent der Web-Suchanfragen in Deutschland werden bei Google gestellt – und von Google beantwortet. Wie es dazu kam? Google hat sich mit seiner Pagerank-Suchtechnologie und einer einfachen Bedienung die Marktführerschaft erobert und gilt seither als Suchmaschine Nr. 1 im Web. In vielen Browsern ist Google seit Jahren als Standardsuchmaschine voreingestellt.

    Wir können zwar damit unzufrieden sein, dass Google so marktbeherrschend ist. Fakt ist allerdings: Google ist neben oder vielleicht sogar vor Yahoo und MSN nach wie vor die beste Allround-Suchmaschine. Aus Recherche-Sicht ist es sicher klug, viele Suchmaschinen, vor allem auch Spezialsuchmaschinen, zu kennen. Aber wenigstens den Marktführer Google sollte man nicht nur kennen, sondern auch gut beherrschen. Daher hier die Basics zum Platzhirschen aus Mountain View (Kalifornien).
    (more…)

  • Journalismus & Recherche » Regierungsinformationen

    Dienstag, August 7th, 2007

    Die Initiative Lobbycontrol hat die bisher verfügbaren Informationen über Lobbyisten in Ministerien in einer Datenbank publiziert. Bisher sind das über 100 Fälle von Lobbyisten, die von ihren Auftraggebern bezahlt in Bundes- und Landesministerien mitarbeiten. LobbyControl wendet sich damit als Teil der Kampagne “Lobbyisten raus aus Ministerien!” gegen die Weiterführung dieser Praxis.

    (more…)

    Freitag, Dezember 29th, 2006

    Die EU-Kommission wird vor dem Europäischen Gerichtshof Klage gegen fünf Länder erheben, die sich nicht an die von der EU festgelegten Regeln halten, nach denen öffentliche Informationen weiterverwendet werden dürfen. Das kündigte Viviane Reding, EU-Kommissarin für die Informationsgesellschaft, in einer Pressemitteilung an.

    Belgien, Luxemburg, Österreich, Portugal und Spanien haben es bislang versäumt, der Kommission mitzuteilen, wie sie die Vorgaben der Richtlinie zur Verwendung von „Public Sector Information“ (PSI) in die Praxis umsetzen wollen.

    Die Begründung ist eine rein wirtschaftliche: Informationen der öffentlichen Hand sind zwischen 10 und 48 Milliarden Euro wert, würden sie ökonomisch genutzt. Diese Zahlen kommen laut Kommission aus einer kürzlich durchgeführten Vergleichsstudie; wie zuverlässig sie sind, wird wohl Geheimnis der Forscher bleiben (was man von einer Spanne von „10 bis 48 Milliarden Euro” zu halten hat, soll jeder selbst entscheiden).

    Aber je mehr Informationen der öffentlichen Hand zur Verfügung stehen, desto besser in den meisten Fällen auch für Rechercheure und/oder Journalisten. Da ich mich im analogen Loch befinde, bin ich gerade etwas recherche-behindert und kann mir die Richtlinie nicht anschauen. Interesant wäre zu wissen, zu welchen Konditionen die Informationen zur Verfügung gestellt werden müssen.

    Die vollständige Pressemitteilung:

    (more…)

    Sonntag, Juli 30th, 2006

    Gerne hätten wir hier in aller Ausführlichkeit darüber berichtet, was die Bundesregierung auf eine kleine Anfrage der FDP zum IFG geantwortet hat. Denn geantwortet hat sie, nur was wissen wir noch nicht. Der Bundestag verlinkt zwar die Antwort in der dazugehörigen Pressemitteilung vom 19. (!) Juli, doch der Link endet auf einer toten Seite, auf der einmal das Dokument hinterlegt werden soll. Kein Einzelfall – wie die frei zugängliche Liste aller fehlenden Bundestagsdrucksachen auf bundestag.de zeigt.

    Die Pressestelle des Bundestages hat uns am 20. Juli schon versprochen, das Dokument in Kürze online zu stellen. Doch bis heute ist noch nichts passiert. Schade.

    Nachtrag 7. August: Die Antwort der Bundesregierung ist mittlerweile online. Das ist irgendwann zwischen dem 3. und dem 7. August geschehen, also mehr als zwei Wochen nach der Veröffentlichung der Pressemitteilung. Neben einer umfassenden Rechtfertigung der Nicht-Herausgabe der Toll-Collect-Verträge enthält die Antwort u.a. eine Statistik der bisher eingegangenen Anträge. Auswertung folgt sobald wir das Bild ohne Abtippen in eine Tabelle zurückgewandelt haben.

    Nachtrag 9. August: Heise online hat wohl genauso auf die Veröffentlichung gewartet und hat jetzt eine ausführliche Meldung mit Schwerpunkt auf die Argumentatio zur Nichtherausgabe der Toll-Collect-Verträge.

    Freitag, Juli 28th, 2006

    Das Informationsfreiheitsgesetz in Mecklenburg-Vorpommern tritt am 29. Juli in Kraft.

    Gerade trudelt dazu eine gemeinsame Pressemitteilung des Landesbeauftragten für Datenschutz und Informationsfreiheit Mecklenburg-Vorpommern, der Vereinigung der Unternehmensverbände für Mecklenburg-Vorpommern e.V. und Transparency International Deutschland e.V. ein. Tenor: Alles toll.

    Für die Wirtschaft besteht damit “die Möglichkeit, Überregulierung und Bürokratie in der Verwaltung aufzudecken und zu bekämpfen”, die Datenschützer freuen sich, dass durch den Auskunftsanspruch Verwaltungsvorgänge transparenter” werden und “das Prinzip der Amtsverschwiegenheit … erheblich begrenzt” wird, Transparency Int. sieht “die demokratischen Mitwirkungsrechte der Bürgerinnen und Bürger gestärkt”. Hier im Wortlaut:
    (more…)

    Dienstag, Juli 18th, 2006

    Das Informationsfreiheitsgesetz des Bundes zeigt indirekt Wirkung. Seit Inkrafttreten am 1.1.2006 haben nun schon drei Bundesländer eigene Landes-IFG verabschiedet. Vergangene Woche nun das Saarland, wie Heise meldet. Da waren es schon acht.

    Mal sehen, wie lange es noch dauert, bis wir nicht mehr die Länder mit, sondern jene ohne IFG aufzählen. Im Moment stehts fifty-fifty. (Eine Übersicht mit Infos zum Stand, Verabschiedungen oder Planungen etc. findet sich bei transparency international.)

    Mit: Berlin, Brandenburg, Nordrhein-Westfahlen, Schleswig-Holstein, Hamburg, Bremen, Mecklenburg-Vorpommern, Saarland (8)

    Ohne: Niedersachen, Hessen, Rheinland-Pfalz, Baden-Würtemberg, Bayern, Thüringen, Sachsen, Sachsen Anhalt (8)

    Sonntag, Juli 16th, 2006

    Wie der epd meldet, muss die Bundesagentur für Arbeit interne Dienstanweisungen veröffentlichen.

    Das Urteil hat der Wuppertaler Erwerbslosenverein Tacheles erstritten. Interessant an dem Urteil ist, dass die Behörde die Datenbanken fortlaufend aktualisieren muss. Hier kommt der grundsätzliche Charakter des Gesetzes zum Ausdruck, wonach alle Informaitonen zunächst einmal frei sind und dann begründet werden muss, warum sie ggf. nicht dem IFG unterliegen. Ist das einmal gescheitert, so fallen die Dokumente unter das IFG und sind für jedermann frei verfügbar.

    Die BA hat sich nach den Angaben des Klägers, auf die sich epd beruft, verpflichtet, dem Kläger mitzuteilen, wenn sie Dokumente nicht in diese öffentlichen Verzeichnisse aufnimmt.

    Urteil und PM der BA liegen nicht vor. recherche-info.de bleibt dran, da ich auch 3 Anträge nach dem IFG gegen die BA gestellt habe.

    Freitag, Juni 30th, 2006

    Seit einem halben Jahr ist das Informationsfreiheitsgesetz (IFG) nun in Kraft, aber die Behörden sind von der neuen Transparenz offenbar noch weit entfernt: Bis Mai gingen bei den Bundesministerien rund 350 Anträge ein. Gleichzeitig berichtet der Bundesdatenschutzbeauftragte Peter Schaar, der in Personalunion IFG-Obmann ist, dass er bereits 120 schriftliche Beschwerden von Antragstellern erhalten habe. Die größten Probleme gibt es laut Schaar, weil die Ämter Auskünfte und Kopien unter Berufung auf den Schutz von Betriebs- und Geschäftsgeheimnissen verweigern. Auch das Argument, Unterlagen dürften nicht freigegeben werden, weil mit Dritten Vertraulichkeit vereinbart worden sei, wird häufig als Ablehnungsgrund angeführt. Während der Bundesinformationsfreiheitsbeauftragte weniger Beschwerden zu überzogenen Gebühren erhalten hat, als sich zu Jahresanfang abzeichnete, spielt vermehrt eine Rolle, dass die Behörden die Antwortfrist verstreichen lassen und gar nicht auf IFG-Anträge reagieren.

    (more…)

    Dienstag, Juni 27th, 2006

    Ich kannte Googles US Government Search bisher noch nicht, obwohl es den Dienst schon seit längerem unter dem Namen Google Uncle Sam gab. Nun hat ihn Google kräftig renoviert, um FirstGov Parioli zu bieten, das von MSN Search und Vivisimo unterstützt wird. Beide Sites sind Suchportale, die ausschließlich Treffer auf Seiten der US-Regierung finden – was ja sehr nützlich sein kann, denn diese Einschränkung selbst hinzubekommen, ist ohne vergleichbaren Aufwand unmöglich.Ich habe mit keinem der beiden Angebote Erfahrung und gerade keine Zeit zum Testen, daher wie immer: Kommentare willkommen! Details zu Googles neuem Angebot gibt’s bei Google selbst; eine längere Analyse zu FirstGov der Fachbuchautorin Peggy Garvin gibt’s bei LLRX.com (Englisch).

    technorati tags:USA, Google, Regierungsinformationen, Google, Government