Archive for the ‘Veranstaltungen’ Category

Informationsbeschaffung und Abwehr von Angriffen - Presserechtskonferenz des netzwerk recherche

Tuesday, September 14th, 2010

„Rechercheure zwischen Freiheit und Gängelung“ - unter diesem Motto steht die Fachkonferenz zum Thema Presserecht von Fr.-So., 29. bis 31. Oktober in Dortmund, zu der das netzwerk einlädt.
(more…)

Folien „Un(der)cover“ online

Wednesday, July 14th, 2010

Jens Liebchen und Patrick Hof von Redteam-Pentesting haben die Folien ihres hervorragenden Vortrages auf der Jahreskonferenz des netzwerk recherche 2010 auf der Publikationsseite von Redteam-Pentesting zum freien Download veröffentlicht:
Un(der)cover - Von der Online-Recherche hin zur gezielten Generierung neuer Informationsflüsse
(PDF, 42 S., 3.787 KB)

Handout Quellenprüfung online

Wednesday, July 14th, 2010

Das Handout zu meinem Referat auf dem Jahrestreffen 2010 des netzwerk rechercher (Hamburg, Fr., 09.07.2010)
Die Ente bleibt draußen - Quellenprüfung im Internet“ mit Linkliste am Ende der Datei steht auf meinem Server www.ude.de zum Download (PDF-Datei, 28 S., 49 KB)

Ein Artikel von mir zu dem Thema ist in der nr-Werkstatt 9: Quellenmanagement – Quellen finden und öffnen nachgedruckt („Wahrheitsfindung“, S. 87 ff.)

Online-Trainer-Treffen am 8. Juli in Hamburg

Monday, July 5th, 2010

Am kommenden Donnerstag trifft sich ein Dutzend Online-Recherche-Trainer an der Akademie für Publizistik in Hamburg, darunter auch die Macher dieses Blogs.
Die Anmeldung für Recherchetrainer ist noch möglich - dazu einfach kurz einen eigenen kurzen Programmvorschlag und ein paar Infos zur Person an lindemann [at] autorenwerk.de mailen!

10.30 Uhr Begrüßung und Vorstellungsrunde

11.00 Uhr Manfred Redelfs: Vorstellung Lehrmodul Online-Recherche Henri-Nannenschule
anschl. Diskussion: Probleme bei Seminaren/Didaktik der Online-Recherche

12.00 Uhr Didaktik der Online-Recherche: Übungen für Online-Seminare

Könnt Ihr bitte jeder eine Übung mitbringen und vorstellen?

13.00 Uhr Mittagspause

Ab hier folgendes Format: 10 minütige Präsentationen mit jeweils 10 Minuten Zeit für Fragen/Anmerkungen:

14:00 Uhr Marco Maas: Calvinisten-Recherche (http://www.wortfeld.de/2007/04/die_calvinisten_1/)
und semantische Suche am Beispiel gopubmed.com (zwei Blöcke)
Sebastian Mondial: Open-Source-Gis: Daten aus D & EU in zehn Minuten visualisieren und für das Web vorbereiten.
Max Ruppert: Recherche in Polen (AT)

15.00 Uhr Rund um Google
Marcus Lindemann: Search-Makros und google-Ads in der Recherche (1 Block)
Claus Hesseling: Firefox: „Ein Schlüsselwort für die Suche hinzufügen“ und yahoo pipes (1 Block)

Austausch: Was tut sich bei Google? Über Ungereimtheiten und Neues in der Google-Suche (Input & Moderation: Marcus Lindemann)
(Stichwörter: einzelne Wörter in Anführungszeichen, * als NEAR-Operator, falsche (?) Trefferzahlen in der OR-Suche, google caffeine).

16.00 Uhr Tools & Plugins
Claus Hesseling: Wikitrust & Default User Agent: der Abendblatt-Hack (1-2 Blöcke)
Boris Karthäuser: htttrack und ggf. 1 weiterer Block nach Wahl

Austausch: Was sind die wichtigsten Tools & Plugins?

17.00 Social Networks
Gottlob Schober: Twitter bei der Wahl des Bundespräsidenten (Case-Study)
Matthias Spielkamp: Twitter in der Recherche (Clients und Listen sinnvoll verwenden, wie funktioniert Rivva Social)

Austausch: Recherche in Sozialen Netzen (Input & Moderation: N.N. Matthias?)
(Bitte bringt doch, so vorhanden, eigene Beispiele mit.)

Ende gegen 18 Uhr

Data Driven Journalism: Versuch einer Definition

Tuesday, April 20th, 2010

Lorenz Matzat hat vergangene Woche im Blog des Open Data Network den folgenden Versuch einer Definition vorgestellt. Wir veröffentlichen den Text mit freundlicher Genehmigung; er steht unter der Lizenz CC-by-sa/3.0/de. Matzat wird Gast eines Workshops beim Jahrestreffen des Netzwerks Recherche sein, dass am 9. und 10. Juli in Hamburg stattfindet. Den genauen Termin geben wir bekannt, soblad er feststeht.

Das Internet ist nicht arm an Buzzwords – Schlagworten, die für einige Zeit Konjunktur haben und sich eben etablieren oder wieder verschwinden. Data Driven Journalism (DDJ) geistert vermehrt seit vergangenem Jahr durch das Web. Im März 2009 startet die englische Tageszeitung The Guardian auf ihrer Website das Datablog; es ist eingebettet in einen Datastore und dürfte bislang als Referenz für DDJ gelten. Einer breiteren Öffentlichkeit wurde das Thema „Datenjournalismus“ in Deutschland durch die Zeitschrift „M – Menschen Machen Medien“ im März 2010 näher gebracht. Im Periodikum des Fachbereichs Medien der Gewerkschaft ver.di mit einer Auflage von 50.000 Exemplaren ging es um die „Spannende Recherche im Netz“.

(more…)

re:publica: Open Data and Open Government

Friday, April 16th, 2010

Rob McKinnon stellt vor: OffeneDaten - ein Portal für offene Daten in Deutschland

McKinnon berichtet davon, dass in Großbritannien bereits drei Regierungsbehörden Open Hackdays veranstaltet haben, um von Hackern zu lernen, wie man Daten organisieren und zugänglich machen kann, die Hackern wiederum haben erfahren, welche Bedürfnisse Behörden haben.

Er kritisiert allerdings die bisher sehr restriktive Politik der EU, wenn es darum geht, tatsächlich Daten zur Verfügung zu stellen.

Kleine Linkliste zur Session mit Rob McKinnon über Open-Data-Projekte:

  • Free Risk: US-Site mit Informationen zur Kreditwürdigkeit (credit ratings)
  • Public Whip: Wahlverhalten der UK-Parlamentarier
  • Track Congress: Informationen über den US-Kongress
  • Meta-Seite: Wikipedia - Sammlung von Sites, die Gesetzgebungs- und andere Regierungsverfahren in vrschiebenen Ländern abbilden, indem sie relvante Dokumente zugänglich machen

Anatomy of Britain - herrliches Beispiel für Datenjournalismus, bevor es das Internet gab.

Morgen und übermorgen finden in Berlin die ersten deutschen Open Data Hackdays statt, bei der Projekte nicht nur vorgestellt, sondern auch entwickelt werden sollen.

Am 9. und 10. Juli wird in Hamburg die Jahreskonferenz des Netzwerks Recherche stattfinden, bei der es ebenfalls einen Workshop zum Thema Open Government Data geben wird. Das Programm ist derzeit noch nicht veröffentlicht.

Erster Open Data Hackday in Deutschland - am 17. und 18. April in Berlin

Tuesday, April 6th, 2010

Hacks 4 Democracy - Open Data Hackday ist die Überschrift, unter der das Open Data Network seine Veranstaltung ankündigt, die einem BarCamp bzw. Hackathon ähnlich sein soll. Es wird darum gehen, Daten zu erschließen, auszuwerten, zu visualisieren und mit anderen Informationen zu mischen. „So entstehen neue Webseiten, Anwendungen und Prototypen für Transparenz und Partizipation“, wie es auf der Website heißt. Und weiter:

Mit dem Opendata Hackday “Apps 4 Democracy” wollen wir einen Beitrag dazu leisten Daten aus Politik und Verwaltung öffentlich zugänglich zu machen.

Die Veranstaltung soll dabei in erster Linie praxisorientiert sein:

Der Ideenwettbewerb ist eröffnet: Wer hat die besten Ideen für Webseiten / Apps / Visualisierungen / Mashups um die Daten der öffentlichen Verwaltung zugänglich zu machen und so dazu beizutragen Verwaltung und Regierung offen, transparent und bürgernah zu gestalten?

Und, wie der Gründer des Open Data Networks, Daniel Dietrich, in seiner Ankündigungsmail schreibt: „Caution: This event is „hands on“ - if you prefer to talk about what could be done by others you might get lonely ;)“

Hacks 4 Democracy - Open Data Hackday:
http://opendata.hackday.net/

Am 17. & 18. April 2010

Samstag, 17. April, in der Kalkscheune
Johannisstr. 2
10117 Berlin

Sonntag, 18. April, im Upstream – Agile
Adalbertstrasse 7-8
10999 Berlin

Der Open Data Hackday wird gefolgt vom Open Democracy Camp, das am on 8. & 9. Mai stattfinden wird, ebenfalls in Berlin.

Da kann man gespannt sein, welche neue Dynamik das Thema jetzt bekommen wird, welche Daten zur Verfügung stehen und was damit gemacht werden kann.

Das Zwei-Quellen-Missverständnis

Monday, March 29th, 2010

Nachwort zur Factchecking-Konferenz des netzwerk recherche beim Spiegel (27./28.3.)

Vorab: Es war eine der besten Veranstaltungen des netzwerk recherche – selten geht es dort so sach- und handwerksbezogen zu wie am vergangenen Wochenende auf der Factchecking –Tagung im Spiegel-Hochhaus.

Das mit dem Zwei-Quellen-Prinzip haben die Journalisten hierzulande noch nicht so recht verstanden – von den Journalisten, die diese Regel kennen, meinen die meisten, es genüge, wenn man den zu belegenden Fakt in zwei anderen Medienquellen gefunden habe. Ich habe schon einmal gezeigt, dass das selbst bei so einfachen Fragen wie der Entfernung zwischen zwei Städten zu katastrophalen Fehlern führt, die sich dann aber gleich in allen Medien finden - auch in solchen, die man ansonsten gerne als Qualitätsprodukte lobt. Dokumentare vom Spiegel zeigten am Wochenende ein weiteres Beispiel dieses vermutlich täglich in jeder deutschen Zeitung zu findenden Fehlers: Kaffee sei, so liest man oft, „der nach Erdöl am zwei häufigsten gehandelte Rohstoff der Welt“. Zum Abschreiben gibt es viele, vermeintlich gute Quellen – allein es stimmt bei weitem nicht.

Auch die Denke der Nachrichtenredakteure, die eine zweite Agentur abwarten, bevor sie eine Meldung übernehmen, führt zu Fehlern. Nämlich dann, wenn beide Agenturen auf dieselbe Quellen zurückgreifen, etwa einen Politiker, der Unsinn erzählt. Die Zwei-Quellen-Regel spricht nämlich von zwei voneinander unabhängigen Quellen. Die Regel kann demnach nur für Ereignisse gelten, bei denen man weiß oder zumindest davon ausgehen darf, dass beide Agenturen einen Reporter haben und diese beiden nicht auf dieselbe gemeinsame Quelle zurückgreifen.
Über weite Strecken scheint es daher gängig zu sein, vermeintliche Fakten aus zwei, möglichst anerkannten Medien zu übernehmen. Doch das ist bestenfalls unter großem Zeitdruck noch eine zu akzeptierende Vorgehensweise – die Gefahr, sich dennoch lächerlich zu machen, ist groß.

Wie weit verbreitet diese Praxis ist, zeigen zwei Beispiele:

So berief sich ein großer deutscher Rechercheur, als ihm Fehler in seinem Bestseller nachgewiesen wurden, darauf, dass er diese „Fakten“ aus anerkannten deutschen Medien wie der Bild (!), der FAZ und anderen abgeschrieben „übernommen“ habe und diese ihre Berichte nicht korrigiert hätten (was m.E. kein Kriterium für den Wahrheitsgehalt ist und auch nur schwer abschließend recherchiert werden kann).

Als ich hier darauf hingewiesen habe, dass auch anerkannte Medien gerne mal Quatsch aus Meldungen oder Vorab-Meldungen gedankenlos übernehmen, teilte mir der zuständige Chefredakteur (der netterweise antwortete) mit, er verstehe meine Kritik nicht, da man die Meldung doch richtig wiedergegeben habe. (Es sei doch richtig, dass die genannte Regionalzeitung das Wiedergegebene geschrieben habe.) Dass die Meldung in sich nicht stimmen konnte, widersprüchlich war, störte ihn offensichtlich nicht.

Nur aus dieser Haltung erklärt sich, dass falsche Zahlen zur HartzIV-Lohnabstandsdebatte lange kursierten mit Hinweis auf die seriöse Quelle FAZ.
Einfacher und dank des Internets oft auch schnell zu erledigen wäre es, eine gute, vielleicht sogar eine privilegierte Quelle zu einer Frage zu finden. Das wird zu selten versucht gemacht.
Bildblog hat sich die richtigen Zahlen von der Bundesagentur für Arbeit bestätigen lassen. Genau das ist der Weg. So nah ran an eine Primärquellen wie möglich und dann lieber mit nur einer Quelle, die man im Zweifel benennt, als mit mehreren gleichermaßen falschen.

Entsprechend anders wird das Zwei-Quellen-Prinzip auch im angeslächsischen Journalismus gehandhabt (exemplarisch siehe z.B. „The Essentials of Reuters Sourcing“).

Das Interesse am fact-checking ist erstaunlich groß – oder ist das gerade deshalb so, weil es so vielen so fremd ist?!

vfm-Seminar „Dokumentation und Archivierung von Web-Content“

Sunday, July 19th, 2009

Seminar des Vereins für Medieninformation und Mediendokumentation (vfm) vom Dienstag, 29. September bis Donnerstag, 01. Oktober 2009 im Haus der Geschichte der Bundesrepublik Deutschland in Bonn: „Dokumentation und Archivierung von Web-Content“.

Die Referate in Auswahl:

  • Archivierung des Web-Contents von Medienunternehmen. Ein Anforderungsprofil aus journalistischer Sicht. Referent: Toni Siegert, Bayerischer Rundfunk
  • Architektur eines modernen Web-Content-Managementsystems. Referent: Dr. Thomas Bastian, Deutsche Welle
    Archivierung der Online-Angebote der öffentlich-rechtlichen Rundfunkanstalten. Ein Werkstattbericht aus dem ZDF und der ARD/ZDF-Arbeitsgruppe „Webarchivierung“. Referent: Dr. Stefan Hertrampf, ZDF
  • Das Archiv als Content-Produzent. Referent: Dr. Hauke Janssen, Spiegel
  • Archivierung von Web-Content und Verwendung von Archivmaterial im Web aus juristischer Sicht. Referent: Peter Wiechmann, Südwestrundfunk

Die Teilnahmegebühr beträgt 580,- Euro.

Seminarflyer zum Download (PDF-Datei, 2 S., 324 KB)

5. Digitales Aikido: Zensur umgehen

Saturday, July 11th, 2009

Die German Privacy Foundation (GPF) lädt zum fünften Mal zu ihrer lehrreichen Seminarreihe „Digitales Aikido“. Am Do., 16.07.2009 ab 19:30 Uhr geht es bei dotplex (Gotenstr. 21, 10829 Berlin) um Zugangserschwernis Zensur und wie man sie umgeht. Um Anmeldung wird gebeten.