Dienstag, Oktober 24th, 2006
Der Open-Source Webbrowser Firefox der Mozilla Foundation sucht nach Ideen für die Weiterentwicklung des Programmes. Im Mozilla-Wiki können Vorschläge für neue Funktionen gemacht werden.
Firefox hat eine große Entwicklergemeinschaft; zudem kann das “Kern”-Programm durch “Extensions” (zu deutsch Erweiterungen) schon jetzt nach den Bedürfnissen des Nutzers ergänzt werden. Viele dieser Erweiterungen sind gerade für die Online-Recherche von hohem Nutzen.
(more…)
Donnerstag, August 31st, 2006
Standesdünkel oder Printkomplex? Die FAZ bedauert jedenfalls in ihrem heutigen Feuilleton auf Seite 35, im Internet recherchiert zu haben. Internetrecherche, tss, na sowas, bäh, Schweinkram, das …
Das Eröffnungskonzert des Kunstfestes Weimar steht seit 2004 unter der Überschrift „Gedächtnis Buchenwald“ und nicht, wie es an zwei Stellen unseres gestrigen Artikels „Gute deutsche Sätze“ irrtümlich hieß, „Gedenken Buchenwald“. Das gesamte Festival trägt auch in diesem Jahr wieder das Motto „pèlerinages“, dessen Schreibweise beim Redigat des gestrigen Berichts unserer Musikredakteurin leider in „pélérinages“ geändert wurde. Wir bedauern die Internetrecherche. [Hervorhebung von mir.] F.A.Z.
Liebe FAZ, vielleicht üben wir das einfach mit der Internetrecherche noch mal, statt gleich das gesamte doofe Internet auf euren Rechnern deinstallieren zu müssen. Das geht nämlich auch anders, bei Fragen zur französischen Rechtschreibung z.B. hier, hier, hier, hier und hier. Dann landet ihr auch nicht mehr auf Schweinkram- so komischen Web-2.0-Seiten bei der Suche nach der korrekten Schreibe von „pèlerinage“.
Donnerstag, August 10th, 2006
Den Computer arbeiten lassen, um aus Datenbanken und Zahlenbergen die exklusive Story zu destillieren: Computer Assisted Reporting (CAR) gehört für die Kollegen in vielen Ländern längst zum Recherche-Alltag. Auch in Deutschland eröffnen uns Informationsfreiheitsgesetze in mittlerweile acht Bundesländern und seit 1.1.06 auf Bundesebene den Zugang zu Datensätzen aus Ämtern und Behörden. Daneben zeigen wir, wie bereits öffentliche Daten gefunden werden und wie man sie verarbeiten kann.
Für CAR muss man kein Computer-Spezialist sein: In diesem dreitägigen Workshop geben wir einen Überblick über die Methoden und ihre Anwendungen. Das Recherchieren mit Hilfe von Excel wird ausführlich trainiert; an Beispielen aus dem In- und Ausland – und an den mitgebrachten Rechercheprojekten der Teilnehmer. Geeignete Projekte und Datensätze werden vorab mit den Teilnehmer besprochen. Zusätzlich gibt es vorab ein paar Excel-Übungen, um die Grundlagen zu vermitteln.
Mit Michael Holm, Dänemark, ehemals Danish International Center for Analytical Reporting (DICAR) und Marcus Lindemann (nr).
an der Akademie für Publizistik, Hamburg
Termin: 30. Oktober bis 1. November
Gebühr: 585 Euro
maximal 10 Teilnehmer
Anmeldung über http://www.akademie-fuer-publizistik.de/
Inhaltliche Rückfragen etc. gerne an
Marcus Lindemann
Freitag, August 4th, 2006
Ach jeh, hat man schon eine schlimmere denglische Überschrift gelesen? Aber es ist ja für einen guten Zweck: Google soll’s verstehen, und die Suchenden auch. Nachrichten-Benachrichtigungen als elektronische Vertriebseinspeisung hätte wohl nicht wirklich seinen Zweck erfüllt. Für diejenigen, die es noch nicht wissen: Was ein RSS-Feed ist, erfährt man hier. Und da mir gerade ein Kollege, der sich gut mit Recherche und den Werkzeugen des so genannten Web2.0 auskennt, erzählte, dass er noch gar nicht wusste, dass man die Google News-Alerts auch per RSS-Feed abonnieren kann, dachte ich mir: weise ich doch auch bei recherche-info.de mal drauf hin. Ist schließlich so lange noch nicht im Angebot.
Inzwischen bieten es aber fast alle Nachrichtensuchmaschinen an (vielleicht einige sogar schon länger als Google, das weiß ich nicht): Bei Google, Yahoo, MSN, Netzeitung findet man den Hinweis auf RSS, Atom oder XML – alles das gleiche, zumindest was die Funktion angeht (Vorsicht: bei manchen erscheint der Knopf erst auf der Ergebnisseite, also wenn man bereits eine Suche ausgeführt hat). Man kann also die Nachrichten-Alarme (wie Web.de sie nennt, das übrigens als einzige der bekannten Nachrichtensuchmaschinen keine Feeds anbietet) im Feed-Reader seiner Wahl abonnieren und bekommt keine E-Mail-Benachrichtigungen mehr.
Ist das eine gute Idee? Das muss jeder selbst entscheiden. RSS ist sicher die eleganteste Versuchung, seit es XML gibt, aber wenn man dann erst mal 30 Feeds abonniert hat, kann es gut sein, dass die gute alte E-Mail im Postkasten wesentlich mehr Aufmerksamkeit auf sich zieht…
Samstag, Juli 1st, 2006
Mit Erstaunen sehen wir, wie sich Halbinformationen in den Medien halten. Daher heute ein kurzer aufklärerischer Eintrag.
Genauso wenig wie Blogs einfach nur “Online-Tagebücher” sind, auch wenn das quasi schon die Standardübersetzung in den Medien ist, stimmt es, dass man zum Hören und Sehen von podcasts und vodcasts einen ipod oder ein anderes Abspielgerät benötigt. Richtig ist natürlich, dass podcasts für diese Geräte produziert werden und mit ihnen gehört werden können.
Niemand aber zwingt mich, podcasts erst von meinem Rechner auf das mobile tragbare Endgerät zu kopieren und dann dort zu hören!
Richtig ist also vielmehr, dass jeder Nutzer eines Rechners mit Hilfe einer entsprechenden Software, podcasts und vodcasts verfolgen kann – eben am eigenen Rechner. (Mindestanforderung: Audiokarte und je nach Software vermutlich Pentium-Rechner oder höher.)
Damit haben diese neuen Formen jetzt schon (!) weit größere Zielgruppen als bislang angenommen. Als ich vor einigen Wochenen einen Podcaster darauf hinwies, dachte er kurz nach und sagte dann, ja das stimmt wohl, das müssen wir unbedingt mal unseren Hörern sagen. Nur, die wissen das vermutlich schon. Bleibt die Frage, wer es denen sagt, die es noch nicht wissen?
Der werte Leser möge denn Test machen und ipod-lose Zeitgenossen auf das Thema podcast ansprechen. Das Erstaunen wird groß sein und die Begeisterung derer, die feststellen, dass sie ihre Lieblingssendung jetzt hören können wann immer sie möchten, ohne vorher ein Aufnahmegerät zu programmieren oder dergleichen, umso größer.
Und wo ist jetzt der Recherchenutzen dieses Eintrags?
Zum einen erleichtert es natürlich die Hintergrundrecherche, die tägliche Mediennutzung (ich sag nur “HR2 Der Tag”) usw. Aber es gibt auch durchaus vod- und podcasts mit etwas scoopability. Ein sehr alter mit dem Zeug zum Klassiker: Der CCC zeigt wie man mit Bordmitteln Fingerabdrücke fälscht 🙂 Sehr schön ibid. die Maus erklärt das Internet.
Donnerstag, Juni 22nd, 2006
Nein, keine Tricks, um an der Kasse vorbeizugehen. Aber es gibt sehr viele Fälle in denen eine Trefferliste schon die wichtigsten Informaitonen enthält und im Rahmen einer Recherche genutzt werden kann. Am Beispiel der größten kommerziellen deutschen Datenbank will ich ein paar Beispiele nennen (die die vergangenes Jahr mit der zweitgrößten fusionierte; hier aber nicht namentlich genannt wird, damit sie nicht auf die Idee kommt, Geld für die Trefferlisten zu kassieren ;-)):
a) Wo stand das nochmal? Also neulich, stand doch im Spiegel diese kleine Notiz über XX, Spiegel online hat’s nicht und eigentlich muss man nun ans Zeitungsregal und blättern. Das ist müssig und die Gefahr, die Seite zu überblättern nicht gering. Daher ein Zwischenschritt: Die Volltextsuche im eigenen Zeitschriftenregal. Der Trefferliste entnehmen wir dann Ausgabe (Nr. und Datum) sowie die Seitenzahl und greifen uns gezielt den gewünschten Artikel aus dem Regal.
b) Für Anfragen beim Handelsregister empfiehlt es sich, beim richtigen Gericht zu fragen und wenn man schon die Handelsregisternummer hat, geht’s schneller. Auch hier helfen einschlägige Datenbanken und liefern diese Informationen schon in der Trefferliste.
c) Richtig spannend wird es, wenn man sich die Spezialdatenbanken und deren Suchoptionen anschaut. Anders als bei der Volltextsuche kann man hier im Rahmen der vorgegebenen Suchoptionen tatsächlich Informationen zusammenstellen, die per Volltextsuche per se nicht zu finden sind – die Zusammenstellung erfolgt ja erst auf die Sucheingabe hin.
Ein Beispiel, die Firmendatenbank bedirect erlaubt es, Firmen nach Umsatz, Mitarbeiterzahl, Branche, Gründungsjahr, Postleitzahl etc. zu suchen. Ein paar Anwendungsideen machen deutlich, welche Goldgrube das für Journalisten ist:
-
Welche Unternehmen in unserer Stadt wurden zwischen 1933 und 1945 gegründet?
-
Welche Unternehmen in meiner Region haben weniger als 5 oder 10 Mitarbeiter und sollten sich demnachnicht nur freuen sondern auch Jobs schaffen, wenn der Kündigungsschutz gelockert wird?
-
Welche Unternehmen haben im nächsten Jahr ein Firmenjubiläum?
-
Wo gibt es Zulieferer der Automobilindustrie in unserer Region?
Alles Fragen, bei denen schon die Trefferliste hilft – denn die Firmen selbst stehen im Telefonbuch oder sind im Netz zu finden.
d) Für ausführliche Personenrecherchen lohnt es auch, auf gut Glück einmal zu schauen, wo die Person noch auftaucht. Natürlich funktioniert es nicht, wenn man “Peter Müller” sucht, denn ob der saarländische Ministerpräsident tatsächlich hinter einem der 2355 Treffer im Handelsregister steckt, lässt sich so nicht klären. Bei selteneren Namen wird es allerdings spannender (Beispiel folgt ggf. nach Abschluß der Recherche).
Die Liste dieser Ideen läßt sich fortsetzen, posted Eure Anregungen!
Mittwoch, Juni 7th, 2006
Das Weblog “Aharef – Das Link-Salz in der Web-Suppe” offeriert einen attraktiven, alternativen Blick auf Webpages: Ein Java-Applet untersucht den Quellcode und zeigt die Link-Struktur einer Webseite als hübsches Farbbild an, wobei die unterschiedlichen Tags als farbige Punkte gezeigt werden. Beispiel hier: Recherche-info.de

Weitere Beispiele dafür findet man unter dem Flickr-Tag websitesasgraphs, bei Digg gibt es zwei Diskussionsgruppen: Visualizing_the_DOM_Structure_of_Websites und Artist_sells_numbers_as_paintings_on_the_web.
Ich halte das ganze für ein nettes Gimmick, das die Komplexität einer Seite sichtbar macht. Wo aber (vom Spaßfaktor abgesehen) ein echter Nutzen steckt, darüber muss ich noch meditieren. Vorschläge?
PS: Der Service wird Websites as Graphs genannt, aber es handelt sich stets nur um die Abbildung einer einzelnen Webpage (man kann statische URLs ansteuern). Informationen über Websites liefern die Abbildungen nicht; zwischen internen und externen Verlinkungen wird nicht unterschieden (schade!).
Erläuterung zu den Farben: Blau: Verlinkungen (Tags: a) Rot: Tabellen (Tags: table, tr, td) Grün: Division (Tags: div) Violett: Bilder (Tags: img) Gelb: Formulare (Tags: form, input, textarea, select, option) Orange: Absätze, Zeilenwechsel und Blockzitate (Tags: p, br, blockquote) Schwarz: Das HTML-Tag, Start der Untersuchung (Tags: html)
Grau: alle anderen Tags
Direkt neben dem schwarzen Punkt findet sich bei vielen Bildern eine konzentrische Anhäufung grauer Punkte, die an die Dolde einer Pusteblume erinnert. Dabei handelt es sich um die Tags im HTML-Header.
PPS: Der Quellcode des Applets ist veröffentlicht. Damit der Service funktioniert, muss das Java Runtime Environment nutzerseitig laufen.
Samstag, Mai 27th, 2006
Ein lesenswertes Interview mit dem Laborleiter der Suchmaschine ask.com, Antonio Gulli, hat die Technology Review online: „Das wichtigste sind die ersten zehn Treffer“.
Schon im März stand in der TR, welche Rolle ask.com beim Suchen ohne Googlen zukünftig spielen könnte.
Sonntag, Mai 21st, 2006
Albrecht stellt eine ausgearbeitet Version seines Vortrags ein, sobald er dazu kommt.
Sonntag, Mai 21st, 2006
Henk demonstriert einige Methoden, mit deren Hilfe man einschätzen kann, wie zuverlässig die Informationen auf einer Website sind. Schönes Beispiel: Welchen biografischen Informationen über Martin Luther King kann man trauen? Er zeigt erstmal nur die Web-Adressen (URLs) der Seiten:
martinlutherking.org martinlutherking.tk 213.198.79.178/members9/~melski/martinlutherking.htm
www.psd267.wednet.edu/~kfranz/SocialStudies/MLKJr/martinlutherking.htm – die 213.198.79.178/etc.-Adrese ist unvollständig; wird nachgereicht, sobald Henk seine Präsentation schickt. (more…)