Kategorie: Allgemein

  • Journalismus & Recherche » Blog Archive » Löschen in Internet-Zeiten

    Ein schönes Beispiel, wie wichtig es ist, Recherche-Ergebnisse zu archivieren, liefert gerade Lobbycontrol. Am 28. Mai enthüllte die Organisation verdeckte PR-Aktivitäten der Deutschen Bahn – hier der Bericht von Lobbycontrol (PDF, 14 S., 182 KB). Seither brennt die Luft, insbesondere bei den beteiligten PR-Agenturen Berlinpolis und Allendorf Media. Beide haben inzwischen Pages oder ganze Sites vom Netz genommen. Heute weist Lobbycontrol unter der Überschrift Bahn-Affäre: Spuren verwischen statt Aufklärung auf eine banale Wahrheit hin:

    Löschen in Internet-Zeiten geht nicht so schnell und einfach, wie manche vielleicht denken.

    (Über das „Archivieren von Recherchen“ wird Jürgen Sell am Sonnabend, 06.06. auf dem Jahrestreffen des netzwerk recherche sprechen.)

    Tags: Archivierung, Suchmaschinen-Caches

  • Journalismus & Recherche » Blog Archive » Kein IFG in Bayern …

    … aber morgen reden sie wenigstens mal drüber.

    Aktuelle Stunde auf Antrag von SPD und Grünen “ zur Regelung bzw. des freien Zugangs zu amtlichen Informationen (Bayerisches Informationsfreiheitsgesetz). Die Opposition will, daß der mündige Bürger gegenüber der Verwaltung ein erweitertes Recht auf Auskunft erhält und damit mehr Mitspracherecht, Transparenz und Kontrolle ermöglicht wird. Auf europäischer Ebene und in anderen Bundesländern sei solches längst verwirklicht. Die CSU-Mehrheit hat dies in den Ausschüssen abgelehnt“ (Quelle: Max Online.)

  • Journalismus & Recherche » Blog Archive » US-Regierungsinfos suchen mit Google

    Ich kannte Googles US Government Search bisher noch nicht, obwohl es den Dienst schon seit längerem unter dem Namen Google Uncle Sam gab. Nun hat ihn Google kräftig renoviert, um FirstGov Parioli zu bieten, das von MSN Search und Vivisimo unterstützt wird. Beide Sites sind Suchportale, die ausschließlich Treffer auf Seiten der US-Regierung finden – was ja sehr nützlich sein kann, denn diese Einschränkung selbst hinzubekommen, ist ohne vergleichbaren Aufwand unmöglich.Ich habe mit keinem der beiden Angebote Erfahrung und gerade keine Zeit zum Testen, daher wie immer: Kommentare willkommen! Details zu Googles neuem Angebot gibt’s bei Google selbst; eine längere Analyse zu FirstGov der Fachbuchautorin Peggy Garvin gibt’s bei LLRX.com (Englisch).

    technorati tags:USA, Google, Regierungsinformationen, Google, Government

    Tags: Regierungsinformationen, USA

  • Journalismus & Recherche » Blog Archive » Die Ente aus dem Kuckucksei: Steve Jobs totgesagt

    Der arme Steve Jobs! Über seine Erscheinung und seinen Gesundheitszustand wurde öffentlich so stark spekuliert, dass es den Aktienkurs von Apple beeinflusste. Totgesagt wurde er auch schon mal, oder genauer: Bloomberg financial newswire hatte am 27.08.2008 einen augenscheinlich auf Vorrat verfassten Nachruf (immerhin 17 Seiten!) versehentlich online gestellt.

    Und nun das: Auf der Site von Wired erschien am 22. Januar die Meldung, Jobs sei einem Herzinfarkt erlegen („Breaking: Steve Jobs in has had a Cardiac Arrest“)

    Ein Hoax, eine Ente. Jemand hatte eine Schnittstelle zum Hochladen von Bildern (einen Online-Viewer) genutzt, um einen gefakten Artikel als Grafik auf die Site zu bringen, wo er dann unter dem Wired-Logo erschien. Den Link darauf verbreitete er bei Twitter.

    So leicht geht das also; scheint’s eine besondere Form des „user generated content“ – ein Kuckucksei. Viele Leser der Ente werden vermutlich nicht gemerkt haben, dass sie eine Grafik lesen, statt eines gerenderten Textes. Wohl auch, weil darüber das Logo eines bekannten Mediums prangte. Wired hat die Lücke mittlerweile geschlossen.

    (gefunden bei intern.de)

    Tags: Ente, Falschmeldung, Hoax, Steve Jobs, Wired

  • Journalismus & Recherche » Termine

    Friday, May 17th, 2013

    Das Pogramm des kommenden Jahrestreffens des netzwerk recherche ist online, zu finden unter netzwerkrecherche.org.

    In diesem Jahr führt die Konferenz „von Journalisten für Journalisten“ das Motto „Schlechte Zeiten! Gute Zeiten! Aufbruch im Umbruch“. Getagt wird am Freitag und Sonnabend, dem 14. und 15 Juni 2013 wie immer beim NDR Fernsehen in Hamburg.

    Für die Leser dieses Blogs dürften die Panel „Computer & Recherche“ und „Recherche praktisch“ von besonderem Interesse sein.

    Soweit machbar, werden die Workshops hier dokumentiert.

    Da das netzwerk recherche wieder mal während der Schafskälte zusammenkommt, ist mit gutem Wetter nicht wirklich zu rechnen.

    Wednesday, April 3rd, 2013

    Fr., 12.04.2013, 18:00 Uhr, Bielefeld in der Hechelei (heißtwirklichso!).

    Die BigBrotherAwards wurden ins Leben gerufen, um die öffentliche Diskussion um Privatsphäre und Datenschutz zu fördern – sie sollen missbräuchlichen Umgang mit Technik und Informationen zeigen. In Deutschland werden sie seit dem Jahr 2000 vom Verein „digitalcourage e.V.“ (vormals FoeBuD) vergeben.

    (more…)

    Friday, April 20th, 2012

    Data Harvest Konferenz in Brüssel von Sonntag bis Dienstag, 6. bis 8. Mai 2012 in Brüssel, Erasmushogeschool, 70 Zespenningenstraat.

    Journalismfund.eu, Wobbing.eu und Farmsubsidy.org laden zur „Data Harvest“ Konferenz. Sie bietet Journalisten und Programmierern aus Europa beste Gelegenheiten grenzüberschreitend Kontakte zu knüpfen, sich zu vernetzen, das eigene Wissen zu mehren und auch konkrete Projekte voran zu bringen.

    Themenschwerpunkte sind Informationsfreiheitsgesetze und wie man an Daten kommt („Wobbing“), wie man die Daten verarbeitet und visualisiert („Journo Lab“), zudem werden erfahrene Journalisten Werkzeuge und Methoden in praktischen Workshops vorstellen. Ebenso werden die neuen Datenschätze von Farmsubsidy und deren Anwendungsmöglichkeiten vorgestellt.
    Referenten sind u.a. Brigitte Alfter, Helena Bengtson, Stefan Candea, Christina Elmer, Thommy Kaas, Nils Mulvad und Paul Myers.

    Teilnahmegebühr:
    70,- Euro (für die Konferenz und zwei Mittagessen (Montag und Dienstag), zu überweisen an IBAN: BE17 7330 5268 9521 / SWIFT-BIC: KREDBEBB / KBC Bank).

    Anmeldungen bis zum 27. April an:
    administration@journalismfund.eu – Bewerbungsschluss ist der 27. April!

    Detailinformationen, Programm und Liste vorgeschlagener Hotels:
    http://www.wobbing.eu/news/data-harvest-conference-2012 .

    Wednesday, April 20th, 2011

    Auf der diesjährigen Konferenz „Informare“ (Claim: Mehr WISSEN. Besser Entscheiden.) wird es neben der ‘klassischen’ Konferenz auch Workshops und eine „Lange Nacht der Suchmaschinen“ geben, ferner Ausstellungen und ein Barcamp. Themen der Konferenz sind Informationsbereitstellung, Informationsbeschaffung und Wissensvermittlung im digitalen Umfeld, und zwar aus technischer, organisatorischer, politischer und gesellschaftlicher Sicht.
    (more…)

    Tuesday, January 18th, 2011

    Drastische Veränderungen im Internet: zunehmend bestimmen die ‘Global Player’ die Regeln. Wie können oder müssen Rechtssysteme darauf reagieren? Wer definiert neue Spielregeln? Wie müssen solche Regeln aussehen, ohne die Kreativität im Netz zu behindern?

    Diese Fragen thematisiert eine Fachkonferenz an der Uni Göttingen am 28.01.2011, dem Europäischen Datenschutztag 2011. Nach einer grundlegenden Erörterung von Funktionsweise und Geschäftsmodell von Suchmaschinen werden marken-, datenschutz- und medienrechtliche Aspekte erörtert und von Wissenschaftlern, Datenschutzbeauftragten und Vertretern des Unternehmens Google diskutiert. Die Veranstaltung findet in der Paulinerkirche, Papendiek 14 in Göttingen statt und dauert von 9.00 bis 16.30 Uhr.

    Bereits am 27.1. erörtern die Veranstalter in ihren öffentlichen Antrittsvorlesungen ab 16.15 Uhr in der Aula am Wilhelmsplatz in Göttingen die Themen “Internet-Suchmaschinen im Fokus des Kartellrechts” (Prof. Körber) bzw. “Vertrauensschutz und geistiges Eigentum am Beispiel der Suchmaschinen” (Prof. Wiebe).

    Veranstaltet wird die Tagung von den Professoren Torsten Körber und Andreas Wiebe an der Georg-August-Universität Göttingen. Sie wird durch den Universitätsbund gefördert.

    Anmeldungen bis bis zum 20.01. erbeten:
    http://www.uni-goettingen.de/de/198986.html

    Tuesday, April 20th, 2010

    Lorenz Matzat hat vergangene Woche im Blog des Open Data Network den folgenden Versuch einer Definition vorgestellt. Wir veröffentlichen den Text mit freundlicher Genehmigung; er steht unter der Lizenz CC-by-sa/3.0/de. Matzat wird Gast eines Workshops beim Jahrestreffen des Netzwerks Recherche sein, dass am 9. und 10. Juli in Hamburg stattfindet. Den genauen Termin geben wir bekannt, soblad er feststeht.

    Das Internet ist nicht arm an Buzzwords – Schlagworten, die für einige Zeit Konjunktur haben und sich eben etablieren oder wieder verschwinden. Data Driven Journalism (DDJ) geistert vermehrt seit vergangenem Jahr durch das Web. Im März 2009 startet die englische Tageszeitung The Guardian auf ihrer Website das Datablog; es ist eingebettet in einen Datastore und dürfte bislang als Referenz für DDJ gelten. Einer breiteren Öffentlichkeit wurde das Thema „Datenjournalismus“ in Deutschland durch die Zeitschrift „M – Menschen Machen Medien“ im März 2010 näher gebracht. Im Periodikum des Fachbereichs Medien der Gewerkschaft ver.di mit einer Auflage von 50.000 Exemplaren ging es um die „Spannende Recherche im Netz“.

    (more…)

    Tuesday, April 6th, 2010

    Hacks 4 Democracy – Open Data Hackday ist die Überschrift, unter der das Open Data Network seine Veranstaltung ankündigt, die einem BarCamp bzw. Hackathon ähnlich sein soll. Es wird darum gehen, Daten zu erschließen, auszuwerten, zu visualisieren und mit anderen Informationen zu mischen. „So entstehen neue Webseiten, Anwendungen und Prototypen für Transparenz und Partizipation“, wie es auf der Website heißt. Und weiter:

    Mit dem Opendata Hackday “Apps 4 Democracy” wollen wir einen Beitrag dazu leisten Daten aus Politik und Verwaltung öffentlich zugänglich zu machen.

    Die Veranstaltung soll dabei in erster Linie praxisorientiert sein:

    Der Ideenwettbewerb ist eröffnet: Wer hat die besten Ideen für Webseiten / Apps / Visualisierungen / Mashups um die Daten der öffentlichen Verwaltung zugänglich zu machen und so dazu beizutragen Verwaltung und Regierung offen, transparent und bürgernah zu gestalten?

    Und, wie der Gründer des Open Data Networks, Daniel Dietrich, in seiner Ankündigungsmail schreibt: „Caution: This event is „hands on“ – if you prefer to talk about what could be done by others you might get lonely ;)“

    Hacks 4 Democracy – Open Data Hackday:
    http://opendata.hackday.net/

    Am 17. & 18. April 2010

    Samstag, 17. April, in der Kalkscheune Johannisstr. 2

    10117 Berlin

    Sonntag, 18. April, im Upstream – Agile Adalbertstrasse 7-8

    10999 Berlin

    Der Open Data Hackday wird gefolgt vom Open Democracy Camp, das am on 8. & 9. Mai stattfinden wird, ebenfalls in Berlin.

    Da kann man gespannt sein, welche neue Dynamik das Thema jetzt bekommen wird, welche Daten zur Verfügung stehen und was damit gemacht werden kann.

    Sunday, July 19th, 2009

    Seminar des Vereins für Medieninformation und Mediendokumentation (vfm) vom Dienstag, 29. September bis Donnerstag, 01. Oktober 2009 im Haus der Geschichte der Bundesrepublik Deutschland in Bonn: „Dokumentation und Archivierung von Web-Content“.

    Die Referate in Auswahl:

    • Archivierung des Web-Contents von Medienunternehmen. Ein Anforderungsprofil aus journalistischer Sicht. Referent: Toni Siegert, Bayerischer Rundfunk
    • Architektur eines modernen Web-Content-Managementsystems. Referent: Dr. Thomas Bastian, Deutsche Welle
      Archivierung der Online-Angebote der öffentlich-rechtlichen Rundfunkanstalten. Ein Werkstattbericht aus dem ZDF und der ARD/ZDF-Arbeitsgruppe „Webarchivierung“. Referent: Dr. Stefan Hertrampf, ZDF
    • Das Archiv als Content-Produzent. Referent: Dr. Hauke Janssen, Spiegel
    • Archivierung von Web-Content und Verwendung von Archivmaterial im Web aus juristischer Sicht. Referent: Peter Wiechmann, Südwestrundfunk

    Die Teilnahmegebühr beträgt 580,- Euro.

    Seminarflyer zum Download (PDF-Datei, 2 S., 324 KB)

    Saturday, July 11th, 2009

    Die German Privacy Foundation (GPF) lädt zum fünften Mal zu ihrer lehrreichen Seminarreihe „Digitales Aikido“. Am Do., 16.07.2009 ab 19:30 Uhr geht es bei dotplex (Gotenstr. 21, 10829 Berlin) um Zugangserschwernis Zensur und wie man sie umgeht. Um Anmeldung wird gebeten.

    Saturday, July 4th, 2009

    Die diesjährige Sommerakademie des Unabhängigen Landeszentrums für Datenschutz Schleswig-Holstein (ULD) thematisiert den Arbeitnehmerdatenschutz. Das als Frage formulierte Motto Arbeitnehmer – Freiwild der Überwachung? haben Konzerne wie die Bahn, die Telekom und Lidl in den vergangenen Jahren ja eindeutig beantwortet.
    (more…)

  • Journalismus & Recherche » Umweltinformationsgesetz

    Erstmals sind für Berlin die Rohdaten öffentlich, aus denen der Waldzustandsbericht erstellt wird. Um an die Daten zu gelangen half das Umweltinformationsgesetzes (UIG), mit Hilfe von Computer-assisted Reporting (CAR) entstand ein Artikel daraus. Kernaussage: Den Bäumen im Osten Berlins geht es etwas schlechter als denen im Westen der Stadt. Das war vorher noch nicht bekannt, denn der offizielle Bericht, der aus den Rohdaten erstellt wird, enthält nur Angaben über den Zustand der Bäume in Berlin insgesamt und differenziert nicht nach einzelnen Regionen. Anhand der Rohdaten – eine Datei im Excel-Format mit Angaben über alle 984 einzelnen Bäumen, die die Förster untersucht haben – war erstmals eine Differenzierung zwischen den Bäumen im Westen und Osten der Stadt möglich. Da die Rohdaten auch in anderen Bundesländern bisher noch nie veröffentlich wurden, folgt nun die Chronologie der Recherche für Kollegen, die das in anderen Bundesländern wiederholen möchten.
    (more…)

  • Journalismus & Recherche » Blog Archive » Baumdaten: UIG trifft CAR

    Erstmals sind für Berlin die Rohdaten öffentlich, aus denen der Waldzustandsbericht erstellt wird. Um an die Daten zu gelangen half das Umweltinformationsgesetzes (UIG), mit Hilfe von Computer-assisted Reporting (CAR) entstand ein Artikel daraus. Kernaussage: Den Bäumen im Osten Berlins geht es etwas schlechter als denen im Westen der Stadt. Das war vorher noch nicht bekannt, denn der offizielle Bericht, der aus den Rohdaten erstellt wird, enthält nur Angaben über den Zustand der Bäume in Berlin insgesamt und differenziert nicht nach einzelnen Regionen. Anhand der Rohdaten – eine Datei im Excel-Format mit Angaben über alle 984 einzelnen Bäumen, die die Förster untersucht haben – war erstmals eine Differenzierung zwischen den Bäumen im Westen und Osten der Stadt möglich. Da die Rohdaten auch in anderen Bundesländern bisher noch nie veröffentlich wurden, folgt nun die Chronologie der Recherche für Kollegen, die das in anderen Bundesländern wiederholen möchten.

    Die Idee zu der Recherche entstand am Freitag, den 13. Juni 2008, auf der Jahreskonferenz des Netzwerk Recherche in Hamburg, und zwar in dem Workshop zu „Computer Assisted Reporting“ (CAR) mit Sebastian Moericke-Kreutz von dpa RegioData. Er erwähnte dort, dass jährlich ein Waldzustandsbericht erstellt wird, aber die Rohdaten dazu bisher noch nicht veröffentlicht worden seien. Am darauffolgenden Montag schaute ich zunächst in den aktuellen Berliner Waldzustandsbericht und fragte dann bei der Senatsverwaltung (so heißen in Berlin die Landesministerien) für Stadtentwicklung an, der die Berliner Forste unterstellt sind. Ich fragte, ob dort die Rohdaten vorliegen und kündigte an, einen Antrag gemäß Umweltinformationsgesetz zu stellen.

    Die Senatsverwaltung für Stadtentwicklung und später auch die Landesforstanstalt Eberswalde (dort werden die Rohdaten aus Berlin zusammen mit denen aus Brandenburg zu einem gemeinsamen Waldzustandsbericht zusammengefasst) mochten die Daten nicht so recht herausgeben. Erst nach einem längeren Mailverkehr und mehreren Hinweisen auf das Umweltinformationsgesetz kam schließlich knapp vier Wochen nach Beginn der Recherche die Mail mit den ersehnten Daten. Vom Netzwerk Recherche stammt die gute Idee, Anträge und Urteile zur Durchsetzung von Auskunftsansprüchen zu veröffentlichen, daher hier der Emailwechsel (PDF).

    Die Datei mit den Rohdaten (Excel-XLS-Format) besteht aus einer Liste mit den 984 Bäumen, die im Jahr 2007 untersucht wurden. Viele Informationen sind codiert. In der Spalte „Baumart“ etwa stehen keine Namen, sondern Nummern. Die „51“ steht dabei zum Beispiel für die Stieleiche, die „71“ für die Flatterulme. Zur Decodierung brauchte es also noch eine Liste der verwendeten Codes, die ich auf erneute Anfrage auch erhielt.

    Komplizierter war die räumliche Zuordnung der Bäume. Über den Standort jedes Baumes gab es dazu zum Beispiel folgende Informationen: „Forstamt Tegel, Abt 114, Uabt 2, Tf 2, PLOT 20001, Position 7, Baumnummer 32“. Die Angabe des Forstamtes war ein erster Anhaltspunkt, allerdings erstreckt sich der Zuständigkeitsbereich der vier Forstämter Berlins über mehrere Bezirke. Relevant ist nun die Zahl in der Spalte „Abt“. Diese Zahl findet sich auf den Karten der Waldgebiete Berlins wieder, wobei es vier unterschiedliche Karten für die vier Forstämter Berlins gibt: Tegel, Grunewald, Köpenick und Pankow (PDF).

    Dann folgte die Puzzle-Arbeit, die in der Datei genannten Bäume den einzelnen Wäldern zuzuordnen. Ich richtete dafür in der Baumdaten-Datei eine neue Spalte „Gebiet“ ein und hatte damit am Ende eine Datei, in der dann zu jedem Baum das Gebiet, auf dem er steht, im Klartext zu lesen ist. Dann rechnete ich eine Weile mit den Daten herum: Wie steht es um die einzelnen Baumarten? Zwischen welchen Werten gibt es signifikante Zusammenhänge, zum Beispiel zwischen Fruktifikation und Kronenverlichtung? Und wie ist der Zustand der Bäume in den einzelnen Bezirken?

    Schließlich lag mir noch daran, den Einwand auszuräumen, der immer wieder von den Mitarbeitern der Senatsverwaltung für Stadtentwicklung kam: Eine Aussage über den Zustand von Bäumen in kleineren Gebieten als dem Gesamtgebiet sei aus statistischen Gründen nicht möglich, weil dann die Zahl der Bäume in der Stichprobe zu klein werde. Das konnte ich mit den Rohdaten leicht widerlegen: Bei der Betrachtung aller 984 Bäume liegt die durchschnittliche Kronenverlichtung bei 24,81 Prozent, die Standardabweichung beträgt 12,34 Prozentpunkte, der Standardfehler liegt bei 0,3936 Prozentpunkten. Durch meine Einteilung der Bäume in drei Regionen sinkt tatsächlich die Zahl der Stichprobe und der Standardfehler steigt entsprechend. Die Region mit den wenigsten Bäumen hatte aber immer noch 216 Bäume, in der größten Region waren es 432 Bäume. Der Standardfehler bei der Region mit 432 Bäumen liegt bei 0,5941 Prozentpunkten, bei der Region mit 264 Bäumen liegt er bei 0,7599 Prozentpunkten. Der Standardfehler ist damit zwar deutlich höher als bei der Betrachtung aller 984 Bäume, aber angesichts der von 0 bis 100 reichenden Skala ist er doch sehr gering. Somit konnte ich zeigen, dass die Einwänder der zuständigen Mitarbeiter wohl eher Nebelkerzen sind und sich tatsächlich sehr wohl statistisch belastbare Aussagen über die Kronenverlichtung der Bäume in Teilregionen Berlins treffen lassen.

    Die Ergebnisse standen am 1. September im Lokalteil Berlin der taz. Im Online-Angebot der taz gibt es eine Ergänzung für die Leser, die sich detaillierter informieren möchten: Unter dem Print-Text erschien ein Verweis auf die Seite www.taz.de/baumdaten mit dem Hinweis, dass es dort die Datei mit den Baumdaten zum Download gibt sowie Tipps dazu, wie die Leser selbst mit Hilfe des Umweltinformationsgesetzes an Umweltinformationen herankommen können.

    Vielen Dank insbesondere an Sebastian Moericke-Kreutz, ohne den es die Idee für diese Recherche nicht gegeben hätte, und an das Netzwerk Recherche für die Jahreskonferenz!

    Tags: Berlin, CAR, Die Tageszeitung, Lokaljournalismus, Taz, Umweltinformationsgesetz

  • Journalismus & Recherche » Validierung

    Weil ich mit Marcus zusammen das ganze Panel organisiert habe, musste ich auch schierem Zeitmangel den Vortrag nochmal halten, den ich schon beim letzten Jahrestreffen zum Besten gab. Immerhin hatte ich Zeit, ihn nochmal zu überarbeiten.

    Hier sind die Folien (PDF-Datei, 24 S., 50 KB)
    und die Linkliste (PDF-Datei, 4 S., 20 KB) dazu.

    Nach dem Vortrag im letzten Jahr hatte ich zu dem Thema einen Fünfseiter in der c’t, der (mit Genehmigung der Redaktion) in der nr-Werkstatt 9 nachgedruckt ist:
    Quellenmanagement – Quellen finden und öffnen / Hrsg.v. netzwerk recherche e.V. Konzeption: Dr. Thomas Leif (verantw.) Redaktion: Thomas Schnedler. Redakt. Mitarbeit: Daniel Bouhs Wiesbaden : netzwerk recherche, 6/2008. – 140 S., brosch.

    (nr-Werkstatt ; Bd. 9)

    (PDF-Datei, 140 S., 888 KB)

    Update [21.02.2011]: Eine Ergänzung zum Thema gibt es hier:

    PR in der Wikipedia.

    Viel Spaß!

  • Journalismus & Recherche » Mac & PC

    Über das Blog Daring Fireball bin ich gerade auf diesen Beitrag von Jeff Atwood gestoßen darüber, wie es in vielen modernen Browsern die Adresszeile ähnlich flexibel wie die Kommandozeile erlaubt, mittels Kurzbefehlen schnelle Suchanfragen zu stellen.

    Atwood beschäftigt sich in seinem Beitrag nur mit den entsprechenden Funktionen von Googles Browser Chrome, aber es funktioniert auch mit anderen Browsern. Für mich ist diese Praxis schon lange im Apple-Browser Safari selbstverständlich: Wikipedia-Beiträge etwa rufe ich dank eines Hacks für den Safari-Browser, dem Input-Manager Safari-Stand (nur für Safari am Mac), mittels des Kurzbefehls w Suchwort auf, für Aufrufe in der englischsprachigen Wikipedia habe ich wen als Kürzel definiert. Safari-Stand übergibt dabei mein Suchwort einfach an die Google-Suche, beschränkt auf die Wikipedia-Site und per „I’m Feeling Lucky“-Funktion mit direkter Weiterleitung zum erstbesten Treffer. So sieht der von mir definierte Befehl in den Safari-Stand-Einstellungen aus (@key ist der Variablenname):

    http://www.google.com/search?btnI=I'm+Feeling+Lucky&q=@key+site:de.wikipedia.org.

    Im Alltag spart mir das viel Zeit – und führt dazu, dass ich eigentlich ständig „mal eben“ in Wikipedia nachschlage; viel eher, als ich es über den Umweg Startseite-Sucheingabe-Artikel tun würde. Ähnliche Such-Kürzel habe ich mir für die Amazon-Katalogsuche und die diversen Google-Suchen nach Bildern, Nachrichten und Karten definiert. Mit dem Kürzel bln etwa reicht es, Straßennamen (und Hausnummer) in die Adresszeile einzugeben, und ich erhalte von Google Maps den passenden Kartenausschnitt von Berlin mit Markierung.

    In den Kommentaren zu Atwoods Beitrag finden sich zahlreiche weitere Tipps zu ähnlichen Funktionen, auch im populäreren Mozilla-Browser Firefox.

    Nachtrag: Gerade bin ich auf diesen Webservice gestoßen: Yubnub – a social command line for the web – unbedingt mal ausprobieren.

  • Journalismus & Recherche » Blog Archive » nr-Jahrestreffen: Das Programm ist online

    Das Pogramm des kommenden Jahrestreffens des netzwerk recherche ist online, zu finden unter netzwerkrecherche.org.

    In diesem Jahr führt die Konferenz „von Journalisten für Journalisten“ das Motto „Schlechte Zeiten! Gute Zeiten! Aufbruch im Umbruch“. Getagt wird am Freitag und Sonnabend, dem 14. und 15 Juni 2013 wie immer beim NDR Fernsehen in Hamburg.

    Für die Leser dieses Blogs dürften die Panel „Computer & Recherche“ und „Recherche praktisch“ von besonderem Interesse sein.

    Soweit machbar, werden die Workshops hier dokumentiert.

    Da das netzwerk recherche wieder mal während der Schafskälte zusammenkommt, ist mit gutem Wetter nicht wirklich zu rechnen.

    Tags: Hamburg, Jahreskonferenz, Netzwerk Recherche, Tagung, Veranstaltung