Kategorie: Allgemein

  • Journalismus & Recherche » Danny Sullivan

    Monday, May 4th, 2009

    Danny „Suchmaschine“ Sullivan, Oberauskenner bei Suchmaschinen seit 15 Jahren, hat Wolfram Alpha getestet (soll im Mai online gehen):

    Will it be as important as Google has become? Perhaps! A new search paradigm? Yes! Or at least a new way of gathering information. A Google-killer? Nope! But when the service launches, it should become an essential in anyone’s search tool kit.

  • Journalismus & Recherche » Blog Archive » 15. DFN-Workshop in Hamburg

    (Kurze Notizen vom 15. DFN-Workshop „Sicherheit in vernetzen Systemen“ – einer Konferenz, die entgegen des ersten Eindruckes ziemlich viel für recherchierende Journalisten zu bieten hat.

    Den Konferenzband gibts bei BoD: 15. DFN Workshop „Sicherheit in vernetzen Systemen“ / hrsg. v. Christian Paulsen © Hamburg : DFN-CERT GmbH, 2008

    ISBN 978-3-8334-7381-4 )

    [AUde]

    Frank Rieger (CCC)
    Risiken elektronischer Wahlverfahren

    Als Auftakt (heute heißt das „Keynote“) des 15. DFN-Workshop sprach Frank Rieger vom CCC über die Sicherheitsrisiken von Wahlcomputern. Das zeigte deutlich, dass diese Sicherheitskonferenz keine unpolitische Veranstaltung ist.

    Da das aber kein Recherche-Thema im engeren Sinn ist, beschränke ich mich auf den Link auf weiterführendes Material:
    https://berlin.ccc.de/wiki/wahlcomputer

    und sein Resemeé:
    Wir wissen zu viel über Computer, um ihnen die letzten Reste von Demokratie anzuvertrauen.“

    Zudem: Wie Wahlen durchgeführt werden müssen – frei, gleich, geheim, transparent, nachvollziehbar und für den Wähler verständlich – das hat Verfassungsrang. Ökonomisierung der Wahl durch Computerisierung nicht.

    Andreas Schuster:
    File Carving – Grundlagen und neue Techniken

    File Carving („Dateien herausschnitzen“) sind Techniken zur Wiederherstellung gelöschter Daten. Wer also Daten verläßlich Löschen sollte (Kommunikationssicherheit!) sollte ein wenig davon verstehen.

    Dateien bestehen aus den „Nutzdaten“ (ihrem für den Nutzer sichtbaren Inhalt) und Metadaten. Die Metadaten sind oft nicht in der Datei selbst gespeichert, sondern in speziellen Verzeichnissen des Dateisystems, z.B. im FAT oder NTFS. Löschen bedeutet normalerweise nicht „ausradieren“ sondern schlicht, dass der Platz der Datei als ‘unbenutzt’ gekennzeichnet wird – frei für künftiges Überscheiben. Je nach Nutzung des Systems können die Daten also noch sehr lange vorhanden sein. Hier setzt File Carving an.

    In der Praxis ist File Carving (z.B. wegen fragmentierten oder eingebetteten Dateien) nicht trivial. Seit 2006 gibt es neue (linuxbasierte) Techniken, als Zero-Space-Carving, In-Line C. oder In-Place C. bezeichnet. Es gibt wohl einen eigenen Wettbewerb zum Thema: DFRWS File Carving Challenge 2006 und 2007

    Fazit (unter Überspringen aller technischen Details):
    File Carving ist Spezialistenaufgabe, wird aber zunehmend leichter und erfolgreicher. Neuere Carver brauchen weniger Speicherplatz, weniger IO-Zeit und spezialisieren sich auf bestimmte Dateiformate.

    Sicheres Löschen ist ein Thema, das Journalisten auf die Tagesordnung setzen sollten. Derzeit ist – bei Festplatten – der größte Feind des Carvens nicht das Formatieren, sondern das Defragmentieren!

    Weiteres im Blog des Referenten:
    computer.forensikblog.de

    Verschlüsselung ist der ärgste Feind des Forensikers.

    H.C. Pöhls, Lars Westphal:
    Gefahren neuer XML-Formate

    XML-Dateiformate transportieren Daten, die andere nicht sehen sollen: Metadaten, Metadaten eingebetter Objekte, Rohdaten eingebetteter Objekte.

    Es geht z.B. um die Open-Office-Dateiformate .odt und um die neuen Microsoft-Formate .docx, .pptx, .docm, .pptm (die mit m am Ende können Makros enthalten). Diese Dateiformate arbeiten mit Containern, deren Inhalt im WYSIWYG-Modus nicht unbedingt sichtbar ist (faktisch also simple Steganographie). Der Clou bzw. die Gefahr: z.B. E-Mail Filter lassen bestimmte Inhalte (etwa ZIP-Dateien oder Executables) nicht durch. Als Teil einer .odt-Datei aber schon!

    Wer tiefer einsteigt, kann selbstverständlich im XML-Dokument an den Tags herumfriemeln. Und das auch nach einer digitalen Signatur.

    Eingebettete Objekte (Bilder in Textdateien) werden als Rohdaten gespeichert. Werden sie im Textdokument bearbeitet (z.B. skaliert oder nur ein Ausschnitt gewählt), bleibt das Ur-Bild dennoch unverändert im XML-Container.

    MS-Offive hat mittlerweile fünf verschiedene Dateiansichten. Keine zeigt alle Inhalte einer Datei verläßlich an. Man sollte also immer einen Hex-Editor am Start haben.

    Live-Demo:
    In einem digital signierten MS-Word-Dokument (.docx) wird der Verfassername in den Metadaten und Link-Ziele geändert. Klappt. Und bei Open-Office soll das auch gehen. Das sind ja schöne Aussichten.

    Morgen mehr, der Rest der Konferenz sind Themen mit geringem Recherche-Bezug.

    [AUde]

    Tags: Metadaten

  • Journalismus & Recherche » Unternehmen

    Schöne Infoseite, die Nora Kraft in der FAZ am Sonntag (4. Mai, S. 53) präsentiert: Telefonnummern anzurufen, die mit 0180 beginnen, kostet Geld. Von 3,9 Cent bis 14 Cent pro Minute. Die Gröschlein kann man sich sparen, denn die meisten Firmen, die diese Nummern angeben, haben auch „normale“ Festnetznummern. Welche das sind, zeigt das 0180-Telefonbuch von teltarif.de.

    Suchen kann man man nach dem Firmennamen, der 0180er-Nummer und der „Ersatznummer“. Außerdem gibt’s einen alphabetischen Index nach Firmennamen. Letzter verzeichnet allein unter „A“ über 1500 Einträge.

  • Journalismus & Recherche » Blog Archive » dpa Basisdienst kostenlos online?

    Bei der Konkurrenz ist man verärgert, dass dpa seinen Basisdienst bei Yahoo News einspeist und ihn damit kostenlos verfügbar macht. (Gibt es auch als RSS-Feed zu verschiedenen Themen/Ressorts.)

    Leider habe ich keinen Zugang zum Basisdienst über Ticker, um einmal abzugleichen, ob das wirklich der komplette Basisdienst ist – daher das Fragezeichen in der Überschrift. Da ich die Info jedoch aus guter Quelle habe und online dazu nichts zu finden war, musste das mal schnell gebloggt werden.

    Wenn jemand Ticker und Yahoo miteinander vergleichen kann, freue ich mich über eine Rückmeldung.

    Das dpa-Archiv ist übrigens mit 72h Verzögerung hier online, Anmeldung erforderlich, Suche und Trefferlisten kostenlos, Meldungen kostenpflichtig,

  • Journalismus & Recherche » Blog Archive » Millionenspendenjournalismus

    In England nimmt jetzt ein durch eine Großspende über 2 Millionen Pfund finanziertes Journalistenbüro die Arbeit auf, berichtete die SZ am Freitag auf ihrer Medienseite (leider nicht online). Die Potter Foundation des Londoner Philantrophen-Ehepaars Elaine und David Potter habe das Geld lockergemacht, um die Einrichtung des Bureau of Investigative Journalism zu finanzieren, das Reporter bei Recherchen finanziell und ideell unterstützen soll.

    „Das Ziel dieses Projekts ist es, investigativen Journalismus zu ermöglichen, der den höchsten ethischen Kriterien entspricht“, sagt Elaine Potter, die früher als Journalistin bei der Sunday Times arbeitete. Das gemeinnützige Bureau wird von den Leitern des Centre for Investigative Journalism an der Londoner City University betreut werden und kann auf die Mitarbeit prominenter Schreiber zählen. Unter anderem haben Nick Davies und der amerikanische Veteran Seymour Hersh ihre Hilfe zugesagt. „Das Bureau kann eine Vorbildfunktion für eine neue Art von Journalismus einnehmen“, glaubt Hersh. Der Internetkonzern Google will die Einrichtung mit Software und Trainingskursen unterstützen. In den kommenden Monaten sollen die ersten zwei Journalisten als Vollzeitkräfte eingestellt werden.

    Vorbild dürfte das US-amerikanische Pendant Pro-Publica sein, ebenfalls aus Stiftungsmitteln und Spenden finanziert.

    Mehrdeutig überschreibt die SZ den Bericht übrigens mit „Vorbildfunktion“: Vielleicht finden sich ja auch in Deutschland Nachahmer, die ein paar Millionen übrig haben?

    Tags: Bureau of Investigative Journalism, David Potter, Elaine Potter, England, Finanzierung, Großbritannien, Journalismus, London, Nick Davies, Potter Foundation, Spendenmodell

  • Journalismus & Recherche » Gesundheitsreform

    Ein Eintrag, der nichts wenig mit Recherche im Sinne von nachschlagen oder rausfinden zu tun hat. Manchmal muss man eine Meldung gar nicht recherchieren, um zu entscheiden, sie nicht zu drucken … Die Leipziger Volkszeitung berichtetet am 27. Juni auf Seite 1 in einem Leitartikel folgendes:

    Weniger Wettbewerb. Gesundheitsfonds beschlossen

    Berlin/Leipzig (DW/H.E.). Die Koalition hat sich auf erste Eckpunkte der Gesundheitsreform verständigt. Ein zentraler Einigungspunkt ist, so bestätigten Regierungskreise gegenüber der LVZ, die Konzentration der gesetzlichen Kassen auf eine wettbewerbsfähige „Mindestbetriebsgröße“. Sollte es zu einer Mindestmitgliederzahl von einer Million Versicherter kommen, wie auch diskutiert wird, würde sich die Zahl der Kassen um 110 bis 120 verringern. Durch Fusionen würde sich die Kassenstruktur verschlanken und weniger Verwaltungskosten verursachen.

    (Kostenlos online ist nur die ots-Vorabmeldung.)

    Klar, ein Thema und noch nichts, was einen auf den ersten Blick wundern müßte. Die Google-Recherche „Anzahl Krankenkassen Deutschland“ bringt dann auf Rang eins den Wikipedia-Eintrag „Krankenkasse“, der die Information enthält, es gebe 253 gesetzliche Krankenkassen. Eine Zahl, die die google-Suche „253 gesetzliche Krankenkassen“ bei der KKH, Spiegel Online und dem Marburger Bund bestätigt und die auch wohl aktuell ist. Wir wissen nicht, wie Tagesschau.de dann auf zunächst 252 kommt, vielleicht eine Info aus dem angefragten Ministerium? Egal ist auch wurscht.

    Aber mit der Recherche dieser Zahl wird der Unsinn klar, der der LVZ zumindest noch nicht zwingend auffallen musste. Nun lautet die Meldung, die Tagesschau.de unter Berufung auf die LVZ bringt, 110 bis 120 von 252/253 gesetzlichen Krankenkassen müssten ggf. schließen, damit nur noch solche übrig bleiben, die mindestens eine Million Mitglieder haben.

    Also wenn maximal 133 Krankenkassen (253 ? 120 = 133) verbleiben, benötigen diese mindestens 133 Millionen Mitglieder (133 × 1 Million = 133 Millionen) – eine Zahl, die auch ohne die Berücksichtigung von Privatversicherten, Beamten, Unversicherten und Mitversicherten, von der Berücksichtigung großer Kassen mit mehreren Millionen Mitgliedern mal ganz abgesehen, in Deutschland einfach nicht erreicht werden kann.

    Disclaimer: Mir ist die Meldung nur einzig und allein deshalb aufgefallen, weil ich mich beim Lesen der Schlagzeile im RSS-Feed, sofort an die Geschichte des hochverehrten Bildblogs erinnerte. Wofür die mir jetzt vermutlich noch ’ne Rechnung für in Anspruch genommene Fortbildung stellen. Recht haben sie ja: Lesen hilft. Hauptsache Habermas hat seinen Spaß.

    Tagesschau.de hat die Meldung im Laufe des Tages mehrfach geändert – allerdings ohne den Zeitstempel zu ändern. Was man dort auch als Fehler ansieht. Wer Spaß dran hat – hier ist gleich noch einer zu finden, solange der Text und Zeitstempel (Stand: 01.07.2006 09:25 Uhr) unverändert bleiben.

  • Journalismus & Recherche » Tagesschau.de

    Ein Eintrag, der nichts wenig mit Recherche im Sinne von nachschlagen oder rausfinden zu tun hat. Manchmal muss man eine Meldung gar nicht recherchieren, um zu entscheiden, sie nicht zu drucken … Die Leipziger Volkszeitung berichtetet am 27. Juni auf Seite 1 in einem Leitartikel folgendes:

    Weniger Wettbewerb. Gesundheitsfonds beschlossen

    Berlin/Leipzig (DW/H.E.). Die Koalition hat sich auf erste Eckpunkte der Gesundheitsreform verständigt. Ein zentraler Einigungspunkt ist, so bestätigten Regierungskreise gegenüber der LVZ, die Konzentration der gesetzlichen Kassen auf eine wettbewerbsfähige „Mindestbetriebsgröße“. Sollte es zu einer Mindestmitgliederzahl von einer Million Versicherter kommen, wie auch diskutiert wird, würde sich die Zahl der Kassen um 110 bis 120 verringern. Durch Fusionen würde sich die Kassenstruktur verschlanken und weniger Verwaltungskosten verursachen.

    (Kostenlos online ist nur die ots-Vorabmeldung.)

    Klar, ein Thema und noch nichts, was einen auf den ersten Blick wundern müßte. Die Google-Recherche „Anzahl Krankenkassen Deutschland“ bringt dann auf Rang eins den Wikipedia-Eintrag „Krankenkasse“, der die Information enthält, es gebe 253 gesetzliche Krankenkassen. Eine Zahl, die die google-Suche „253 gesetzliche Krankenkassen“ bei der KKH, Spiegel Online und dem Marburger Bund bestätigt und die auch wohl aktuell ist. Wir wissen nicht, wie Tagesschau.de dann auf zunächst 252 kommt, vielleicht eine Info aus dem angefragten Ministerium? Egal ist auch wurscht.

    Aber mit der Recherche dieser Zahl wird der Unsinn klar, der der LVZ zumindest noch nicht zwingend auffallen musste. Nun lautet die Meldung, die Tagesschau.de unter Berufung auf die LVZ bringt, 110 bis 120 von 252/253 gesetzlichen Krankenkassen müssten ggf. schließen, damit nur noch solche übrig bleiben, die mindestens eine Million Mitglieder haben.

    Also wenn maximal 133 Krankenkassen (253 ? 120 = 133) verbleiben, benötigen diese mindestens 133 Millionen Mitglieder (133 × 1 Million = 133 Millionen) – eine Zahl, die auch ohne die Berücksichtigung von Privatversicherten, Beamten, Unversicherten und Mitversicherten, von der Berücksichtigung großer Kassen mit mehreren Millionen Mitgliedern mal ganz abgesehen, in Deutschland einfach nicht erreicht werden kann.

    Disclaimer: Mir ist die Meldung nur einzig und allein deshalb aufgefallen, weil ich mich beim Lesen der Schlagzeile im RSS-Feed, sofort an die Geschichte des hochverehrten Bildblogs erinnerte. Wofür die mir jetzt vermutlich noch ’ne Rechnung für in Anspruch genommene Fortbildung stellen. Recht haben sie ja: Lesen hilft. Hauptsache Habermas hat seinen Spaß.

    Tagesschau.de hat die Meldung im Laufe des Tages mehrfach geändert – allerdings ohne den Zeitstempel zu ändern. Was man dort auch als Fehler ansieht. Wer Spaß dran hat – hier ist gleich noch einer zu finden, solange der Text und Zeitstempel (Stand: 01.07.2006 09:25 Uhr) unverändert bleiben.

  • Journalismus & Recherche » Servicejournalismus

    Schöne Infoseite, die Nora Kraft in der FAZ am Sonntag (4. Mai, S. 53) präsentiert: Telefonnummern anzurufen, die mit 0180 beginnen, kostet Geld. Von 3,9 Cent bis 14 Cent pro Minute. Die Gröschlein kann man sich sparen, denn die meisten Firmen, die diese Nummern angeben, haben auch „normale“ Festnetznummern. Welche das sind, zeigt das 0180-Telefonbuch von teltarif.de.

    Suchen kann man man nach dem Firmennamen, der 0180er-Nummer und der „Ersatznummer“. Außerdem gibt’s einen alphabetischen Index nach Firmennamen. Letzter verzeichnet allein unter „A“ über 1500 Einträge.

  • Journalismus & Recherche » Blog Archive » Wie viele Sites durchsucht Google?

    Seit Google den Hinweis auf der Startseite gestrichen hat, weiß man das nicht mehr so recht. Aber manchmal bekommt man eine Ahnung. Mein aktueller Tipp: Google durchsucht im Moment rund 12 Millionen Sites.

    Wie ich darauf komme? Mit aktiviertem „Safesearch“ suche ich den erstbesten Begriff, den google mir dann nicht mehr anzeigen sollte, „porno“ („fuck“ geht auch, aber es gibt auch Sites, die trotz Safesearch dann noch angezeigt werden). Nun zeigt mir google doch tatsächlich 11,13 Milliarden Treffeer an (vor dem Abschalten des Hinweises war google bei knapp unter 5 Milliarden) und weist zugleich darauf hin, dass man den Begriff „porno“ aus meiner Suche entfernt habe. Was aber hat google nun gefunden? Vermutlich einen Großteil aller Sites, die überhaupt durchsucht wurden. (Nach Angaben der deutschen Hilfe von Google wären es nur 8 Milliarden. – Recherch-o-log enthüllt: Google durchsucht 50% mehr Sites als sie zugeben.)

    Die Gegensuche „porno“ ohne Safesearch bringt 9,36 Millionen Treffer – die kommen noch oben drauf. Und sonst noch? Naja, alles was google durchsucht, aber sowieso nicht anzeigt, auch nicht ohne Safesearch. Also, 11,13 Mrd plus 0,00936 Mrd plus x.

    PS: Wenn mir jemand erklären kann, warum die Anfrage „porn OR porno“ weniger Ergebnisse bringt …

    PPS: Warum kann ich google.cn nicht aufrufen? Bei anderen Endungen geht das. google.cn bekomme ich nur als cache …

  • Journalismus & Recherche » Blog Archive » vfm-Seminar „Dokumentation und Archivierung von Web-Content“

    Seminar des Vereins für Medieninformation und Mediendokumentation (vfm) vom Dienstag, 29. September bis Donnerstag, 01. Oktober 2009 im Haus der Geschichte der Bundesrepublik Deutschland in Bonn: „Dokumentation und Archivierung von Web-Content“.

    Die Referate in Auswahl:

    • Archivierung des Web-Contents von Medienunternehmen. Ein Anforderungsprofil aus journalistischer Sicht. Referent: Toni Siegert, Bayerischer Rundfunk
    • Architektur eines modernen Web-Content-Managementsystems. Referent: Dr. Thomas Bastian, Deutsche Welle
      Archivierung der Online-Angebote der öffentlich-rechtlichen Rundfunkanstalten. Ein Werkstattbericht aus dem ZDF und der ARD/ZDF-Arbeitsgruppe „Webarchivierung“. Referent: Dr. Stefan Hertrampf, ZDF
    • Das Archiv als Content-Produzent. Referent: Dr. Hauke Janssen, Spiegel
    • Archivierung von Web-Content und Verwendung von Archivmaterial im Web aus juristischer Sicht. Referent: Peter Wiechmann, Südwestrundfunk

    Die Teilnahmegebühr beträgt 580,- Euro.

    Seminarflyer zum Download (PDF-Datei, 2 S., 324 KB)