Kategorie: Allgemein

  • Journalismus & Recherche » Blog Archive » Online-Recherche FAQ, Teil 2

    #5: Wie kann ich rauskriegen, wem eine bestimmte Website gehört?
    Jede Domain weltweit muss auf eine natürliche oder eine juristische Person angemeldet/registriert sein. Diese Registrierungsdaten kann jeder einsehen – etwa um sich an den Inhaber zu wenden, wenn es juristische Einwände gegen die Inhalte der Site gibt. Für alle Seiten mit .de-Endung findet sich die Datenbank zum Abrufen der Registrierungsdaten bei der Denic. Für alle anderen Endungen (Top Level Domains) gibt es hier eine Übersicht der offiziellen Registraturen. Im Alltag praktischer sind sogenannte WHOIS-Dienste etwa who.is oder whois.net, die über eine Website erlauben, Domains verschiedener Top Level Domains abzufragen. Aber Achtung: Kein Dienst fragte alle TLDs ab, die Informationen dort können gelegentlich unvollständig oder inaktuell sein!

    #6: Stimmt es, dass Suchmaschinen wie google und Bing das Internet nicht in Echtzeit durchsuchen? Ja, das stimmt und ist auch naheliegend, wenn Sie einmal die Zeit vergleichen, in denen Google Ihnen Ergebnisse von bis zu 4 Milliarden Sites ausspuckt und die Zeit, die es dauert, eine einzelne Site aufzurufen. Trotz der rasant anwachsenden Geschwindigkeiten, Rechner- und Serverkapazitäten kann keine Suchmaschine der Welt in Sekunden oder Bruchteilen davon, nach den Wörtern zu suchen, die gerade eingegeben worden sind. Weil das nicht geht, macht Google es anders und durchsucht das Internet quasi permanent und speichert es auf den eigenen Rechnern an. Diesen abgespeicherten Dateien, Index genannt, suchen wir, wenn wir etwas in den Suchschlitz eingeben – und das geht dann deutlich schneller.

    Nachteil dieser Methode ist, dass wir eben nicht live im Netz suchen, sondern in Daten, die vor Stunden, Tagen, Wochen, manchmal sogar Monaten von Google gespeichert wurden. Das Netz ist selbst für Google so groß, dass nicht alle Seiten im Minutentakt überwacht und gespeichert werden können. Daher müssen die Ressourcen sinnvoll verteilt werden – Seiten, die beliebt sind und ständig neue hochwertige Inhalte liefern, werden sehr häufig und vollständig (also auch in den unteren Ebenen der Site-Map) durchsucht und gespeichert. Die Blogposts dieses Blogs hier werden im Moment täglich erfasst und schon bei den statischen Seiten dieses Blogs kann es auch einmal 2-3 Tage dauern, bis veränderte Inhalte mit einer Suchmaschine gefunden werden können.

    wird fortgesetzt!

    #7: Stimmt es, dass niemand weiß, wie Google funktioniert und der Algorithmus streng geheim ist?

  • Journalismus & Recherche » Blog Archive » Recherchieren ohne Zeit und Geld?

    Ich war am 26. Oktober auf Einladung der Adenauer-Stiftung in Belgrad, um als Keynote-Speker und Teilnehmer eines Panels über Recherche-Journalismus zu sprechen. Das Manuskript meiner Keynote dokumentiere ich hier – es ist ungeschliffen, da ich anhand von Schlagwörtern frei gesprochen habe.

    Alle Medien, egal ob Zeitung oder Fernsehen, egal ob auf dem Balkan, in Westeuropa oder in Amerika können ohne einen Mehraufwand an Zeit und Geld mehr Recherche anstoßen, durchführen und veröffentlichen.
    Wir verschwenden zuviel Zeit auf Unnützes und haben deshalb das Gefühl, es bliebe keine Zeit – für Recherche, Analyse, das Finden originärer Themen. Zeit wird natürlich immer benötigt für Besprechungen, Organisatorisches etc. aber selbst wenn wir uns nur anschauen, was Journalisten an Journalistischem während ihrer Arbeitszeit tun, lässt sich schnell eine Fehlallokation, eine Verschwendung von Ressourcen feststellen. Meine Erfahrungen beziehen sich auf Deutschland – es würde mich aber wundern, wenn es hierzulande oder überhaupt irgendwo weltweit ganz anders wäre.

    a) Vielen Veranstaltungen, Pressekonferenzen etc. werden von Dutzenden von Journalisten besucht, ohne dass sich beobachten ließe, dass sich die Berichte später grundlegend unterscheiden. Wie auch – jede gestellte Frage – wandert auch in den Block des Kollegen. Es ist das inverse Prinzip von Exklusivität, dennoch geben wir viel Geld dafür aus. Dabei stehen sich die Kollegen vor Ort eher im Weg. (Das Gegenargument, jeweils für das eigene Publikum noch einen Mehrwert zu destillieren, die besondere Herangehensweise zu finden, trägt m.E. nicht weit.)

    b) Land auf, Land ab sind in Deutschland Hunderte von Journalisten damit beschäftigt, das Material von Nachrichtenagenturen zu sichten, zu bearbeiten zusammenzufügen. Auch hier ist nicht zu erkennen, dass der starke Wettbewerb, der hier herrschen müsste, besonders gute Ergebnisse hervorbringt. Auch hier ist der Mehrwert nicht zu erkennen. Durch das Internet wird das sichtbar und die Leser werden sich künftig aussuchen können, was sie wo lesen.

    Zwischen dem, was die Journalisten einer Redaktion tun sollten, und dem was sie besser lassen und von Agenturen übernehmen sollen, lässt sich leicht unterscheiden: Was können sie denn wirklich besser als die Agenturen? Wo können wir unserem Publikum mehr bieten als die Agenturen? Getreu der Parole des Internet-Gurus Jeff Jarvis: Do what you can do best and link the rest! Eine Redaktion soll das tun, was sie am besten kann, was sie für ihr Publikum wichtig macht und all das sein lassen, wo nur “me-too-Produkte” erstellt werden.

    Wenn wir heute die Zukunft des Journalismus diskutieren, geht es vor allem um die Zukunft der Zeitung, des ältesten Mediums für Journalismus. Zeitungen sterben, die Auflagen sinken. Wenn sich in der Zukunft alle Redaktionen auf das konzentrieren, was sie am besten können, sehe ich vor allem folgende 5 mögliche Entwicklungen:

    1.) Die Spezialisierung wird zunehmen, der Redakteur, der alles –vor allem aber redigieren und zusammenschreiben – kann, wird von der Regel zur Ausnahme.

    2.) Das größte Hindernis für einen weltweiten Journalismus, der sich auf je das konzentriert, was jede Redaktion am besten kann, ist die Sprache. Im Moment sind es vor allem die englischsprachigen Medien, die von der Globalisierung des Journalismus durch das Internet profitieren. Der Guardian hat online monatlich 35 Millionen unique visitors. Für alle anderen Nationen heißt das vor allem eins: Wir brauchen mehr Journalisten, die als Übersetzer arbeiten, aber unter journalistischen Bedingungen also schnell, mit Sachkenntnis in ihrem Ressort und der jeweiligen Sprache übersetzen können.

    Das könnte auch eine große Chance für Nachrichtenagenturen werden: Wenn Sie das Beste zu allen weltweiten und nationalen Ereignissen liefern – Klammer auf im Original oder in der Übersetzung – wäre das ein Grund, sich stärker auf sie zu verlassen.

    3.) Das Lokale oder auch „hyper-lokale“ – wir interessieren uns schon immer am meisten für die Ereignisse in unserer nächsten Umgebung. Viele Medien haben das vergessen und bekommen heute Konkurrenz aus der Blogosphäre. Es ist unverständlich, dass gerade die Regionalzeitungen ihre einstige Stärke, die letztlich sogar ihre Existenzberechtigung darstellt, vergessen haben. (Ich selbst in Berlin kann überhaupt gar keine Zeitung abonnieren, die auch nur annähernd so viel Lokales liefert wie es einer Kleinstadt heute noch üblich ist.)

    4.) Wer von einem Ereignis detaillierter, brillanter, sprachlich interessanter berichtet, als alle anderen – also der gute Reporter, dessen Arbeit an Schriftstellerei heranreicht, wird immer sein Publikum finden. Wer künftig über die Rettung der Chilenischen Minenarbeiter berichtet, muss das besonders gut machen.

    5.) Und – bis auf weiteres – ist und bleibt Recherche eine Marktlücke. Es wird zu wenig recherchiert – damit meine ich nicht nur investigative Recherchen. Es fängt an bei fehlender Präzision und Faktenfehlern – allein hier lässt sich noch viel an Qualität hinzugewinnen. Zeit für Recherche lässt sich ohne weiteres gewinnen, wenn wir Journalisten uns auf das konzentrieren, was wir besser können als andere.

    Den Einwand, dass nicht jeder, der heute Nachrichten redigiere, morgen zum investigativen Reporter werden kann, möchte ich nicht gelten lassen. Wenn Sie „große“ Rechercheure hören und fragen, was man für die investigative Recherche braucht, so werden sie Ihnen sagen: Erfahrungen und Kontakte.

    Ich arbeite sehr viel mit jungen Journalisten – da macht es keinen Sinn auf Erfahrungen und Kontakte zu verweisen – denn dann warten die jungen Kollegen und warten und werden vielleicht nie eine vernünftige Recherche auf den Weg bringen. Aber nicht nur aus diesem didaktischen Grund glaube ich nicht an das Mantra der Rechercheure, dass Erfahrungen und Kontakte alles seien. Ich setze dagegen auf gute Ideen, Methodik und vor allem auf viel Fleiß.
    Erst, wenn die eigene Erfahrung reflektiert und analysiert wird, wird daraus Methodik, Handwerkszeug, etwas das man anderen vermitteln kann. Wer immer nur auf die eigene Erfahrung verweist, weiß vermutlich gar nicht, was er wirklich erfahren hat – weil er es nicht analysiert hat.

    Um loszulegen, ist es hilfreich, sich auf machbare und relevante Recherchen zu konzentrieren. Die schwer machbaren Recherchen neigen dazu, Zeitfresser zu werden und keine Ergebnisse zu bringen. Um dennoch große Geschichten zu machen, muss man die großen Thesen in Teile zerlegen und sich immer wieder fragen, was können wir jetzt schon berichten und was können wir mit einem Tag oder einer Woche mehr noch dazu gewinnen. (Oft bringen Teilveröffentlichungen auch strategische Vorteile.) Ich kenne mehrere Redaktionen, die so arbeiten – in keiner darf jemand ein halbes Jahr an einem Thema arbeiten ohne Rechenschaft abzulegen.

    Abgesehen davon, dass sehr viele Recherche heute ohne großen Kostenaufwand durchgeführt werden können, (ich meine damit nicht nur das Internet, sonder vor allem auch das Telefon) gilt auch hier, dass Recherche vor allem von einer Umverteilung von Ressourcen profitieren kann. Geld lässt sich aber auch genauso wie Zeit rationieren – jeder will wissen, was für sein Geld bekommt – auch Ihr Chef oder meine Auftraggeber. Auch hier hat es sich ebenso bewährt, schrittweise vorzugehen und Ziele zu definieren – was ist sicher machbar, was wäre maximal machbar – für ein bestimmtes Budget.

    Wenn jemand zu mir kommt und Geld für eine Auslandsreise will, weil man vor Ort ja mehr raus bekäme, ist das aussichtslos. Erst müssen die Hausaufgaben gemacht werden. Im August habe ich drei Kollegen für mehrere Tagen nach Spanien geschickt, nachdem sie mit ihrer Recherche zuhause sehr weit gekommen waren. Sie hatten so ziemlich alles, was man von Deutschland aus recherchieren konnte, zusammengetragen und die Chancen standen gut, dass wir zumindest einen in Deutschland gesuchten Betrüger finden könnten, da wir Informationen zu dreien hatten. Am Ende wurden es dann 2 von 3 gefunden – Menschen, die in Deutschland von den Behörden (Staatsanwaltschaften) nach wie vor gesucht werden.

    Abgesehen von meinen Überlegungen hier, bleibt es natürlich immer richtig – wenn wir Journalisten nicht wie hier unter uns sind – mehr Geld und mehr Zeit für Recherche- Journalismus zu fordern. 😉

  • Journalismus & Recherche » Blog Archive » “Deep Search” – Politik des Suchens jenseits von Google

    Das Buch liegt bereits seit Monaten auf dem Tisch, aber wie es eben leider oft so ist – mir ist etwas dazwischen gekommen auf dem Weg zur Rezension. Die hat aber inzwischen zum Glück Philipp Albers für die Sendung Breitband in Deutschlandradio Berlin geliefert (auch schon wieder mehr als eine Woche her…):

    Die digitale Explosion konfrontiert uns seit Jahren mit einem regelrechten Daten-Tsunami. Die Suchmaschinen sind es, die uns helfen, diesen Tsunami zu beherrschen. Das Verheerende: Was wir über die Welt wissen, erfahren wir fast immer durch Google. Anders gesagt: Was Google nicht findet, existiert für viele Menschen nicht. Mit dieser Situation und ihren Implikationen beschöftigen sich Medientheoretiker, Kulturwissenschaftler, Soziologen und Politologen im Sammelband “Deep Search – Politik des Suchens jenseits von Google”.

    • Konrad Becker / Felix Stalder (Hrsg.): “Deep Search: The Politics of Search beyond Google”, StudienVerlag & Transaction Publishers, Wien 2009. 216 Seiten, 24,90 €

    deutsche Ausgabe:

    • Konrad Becker/ Felix Stalder (Hrsg.): “Deep Search: Die Politik des Suchens jenseits von Google”, Studienverlag & Transaction Publishers, Wien 2009. ca. 220 Seiten, 24,90 €

    Hier der Beitrag zum Anhören:

    Die MP3 zum Runterladen (3,4 MB)

  • Journalismus & Recherche » Blog Archive » Erster Open Data Hackday in Deutschland – am 17. und 18. April in Berlin

    Hacks 4 Democracy – Open Data Hackday ist die Überschrift, unter der das Open Data Network seine Veranstaltung ankündigt, die einem BarCamp bzw. Hackathon ähnlich sein soll. Es wird darum gehen, Daten zu erschließen, auszuwerten, zu visualisieren und mit anderen Informationen zu mischen. „So entstehen neue Webseiten, Anwendungen und Prototypen für Transparenz und Partizipation“, wie es auf der Website heißt. Und weiter:

    Mit dem Opendata Hackday “Apps 4 Democracy” wollen wir einen Beitrag dazu leisten Daten aus Politik und Verwaltung öffentlich zugänglich zu machen.

    Die Veranstaltung soll dabei in erster Linie praxisorientiert sein:

    Der Ideenwettbewerb ist eröffnet: Wer hat die besten Ideen für Webseiten / Apps / Visualisierungen / Mashups um die Daten der öffentlichen Verwaltung zugänglich zu machen und so dazu beizutragen Verwaltung und Regierung offen, transparent und bürgernah zu gestalten?

    Und, wie der Gründer des Open Data Networks, Daniel Dietrich, in seiner Ankündigungsmail schreibt: „Caution: This event is „hands on“ – if you prefer to talk about what could be done by others you might get lonely ;)“

    Hacks 4 Democracy – Open Data Hackday:
    http://opendata.hackday.net/

    Am 17. & 18. April 2010

    Samstag, 17. April, in der Kalkscheune Johannisstr. 2

    10117 Berlin

    Sonntag, 18. April, im Upstream – Agile Adalbertstrasse 7-8

    10999 Berlin

    Der Open Data Hackday wird gefolgt vom Open Democracy Camp, das am on 8. & 9. Mai stattfinden wird, ebenfalls in Berlin.

    Da kann man gespannt sein, welche neue Dynamik das Thema jetzt bekommen wird, welche Daten zur Verfügung stehen und was damit gemacht werden kann.

  • Journalismus & Recherche » Blog Archive » Online-Recherche FAQ, Teil 2

    #5: Wie kann ich rauskriegen, wem eine bestimmte Website gehört?
    Jede Domain weltweit muss auf eine natürliche oder eine juristische Person angemeldet/registriert sein. Diese Registrierungsdaten kann jeder einsehen – etwa um sich an den Inhaber zu wenden, wenn es juristische Einwände gegen die Inhalte der Site gibt. Für alle Seiten mit .de-Endung findet sich die Datenbank zum Abrufen der Registrierungsdaten bei der Denic. Für alle anderen Endungen (Top Level Domains) gibt es hier eine Übersicht der offiziellen Registraturen. Im Alltag praktischer sind sogenannte WHOIS-Dienste etwa who.is oder whois.net, die über eine Website erlauben, Domains verschiedener Top Level Domains abzufragen. Aber Achtung: Kein Dienst fragte alle TLDs ab, die Informationen dort können gelegentlich unvollständig oder inaktuell sein!

    #6: Stimmt es, dass Suchmaschinen wie google und Bing das Internet nicht in Echtzeit durchsuchen? Ja, das stimmt und ist auch naheliegend, wenn Sie einmal die Zeit vergleichen, in denen Google Ihnen Ergebnisse von bis zu 4 Milliarden Sites ausspuckt und die Zeit, die es dauert, eine einzelne Site aufzurufen. Trotz der rasant anwachsenden Geschwindigkeiten, Rechner- und Serverkapazitäten kann keine Suchmaschine der Welt in Sekunden oder Bruchteilen davon, nach den Wörtern zu suchen, die gerade eingegeben worden sind. Weil das nicht geht, macht Google es anders und durchsucht das Internet quasi permanent und speichert es auf den eigenen Rechnern an. Diesen abgespeicherten Dateien, Index genannt, suchen wir, wenn wir etwas in den Suchschlitz eingeben – und das geht dann deutlich schneller.

    Nachteil dieser Methode ist, dass wir eben nicht live im Netz suchen, sondern in Daten, die vor Stunden, Tagen, Wochen, manchmal sogar Monaten von Google gespeichert wurden. Das Netz ist selbst für Google so groß, dass nicht alle Seiten im Minutentakt überwacht und gespeichert werden können. Daher müssen die Ressourcen sinnvoll verteilt werden – Seiten, die beliebt sind und ständig neue hochwertige Inhalte liefern, werden sehr häufig und vollständig (also auch in den unteren Ebenen der Site-Map) durchsucht und gespeichert. Die Blogposts dieses Blogs hier werden im Moment täglich erfasst und schon bei den statischen Seiten dieses Blogs kann es auch einmal 2-3 Tage dauern, bis veränderte Inhalte mit einer Suchmaschine gefunden werden können.

    wird fortgesetzt!

    #7: Stimmt es, dass niemand weiß, wie Google funktioniert und der Algorithmus streng geheim ist?

  • Journalismus & Recherche » Blog Archive » Was ist größer, ein Teil oder das Ganze, liebe Süddeutsche Zeitung?

    Journalisten machen Fehler, jeden Tag, bei jeder Zeitung. Um Skepsis, den Umgang mit Fehlern und das Belegen von Fehler zu üben, sollen Studenten meiner Recherche-Vorlesung Fehler suchen und in einem kurzen Blog-Eintrag dokumentieren (Blog vorerst nicht öffentlich.). Vermutlich lässt sich jeden Tag auf jeder Zeitungsseite ein mehr oder minder gravierender Fehler oder Mangel finden. Ja, in jeder Zeitung, auch in der Süddeutschen.

    Das habe ich am 6. Oktober gesagt und schon in der Süddeutschen Zeitung vom selben Tag stolperte ich über folgende Sätze:

    „In Deutschland beispielsweise umfasst der Gesamtwerbemarkt ein Volumen von etwa 27 Milliarden Euro.
    Davon werden laut einer Prognose des Bundesverbandes für Digitale Wirtschaft in diesem Jahr knapp 19 Prozent auf Werbung im Internet entfallen, aber knapp 39 Milliarden Euro auf TV-Werbung.“ (http://www.sueddeutsche.de/digital/internetfaehige-fernseher-google-herrschaft-im-wohnzimmer-1.1009095-2).

    Mindestens eine der beiden Zahlen in diesem Absatz muss falsch sein. Die Zahlen des als Quelle genannten Bundesverbandes für Digitale Wirtschaft sind leider nicht online – vermutlich muss es aber heißen, dass 39 Prozent und nicht 39 Milliarden (von insgesamt 27 Milliarden) auf Fernsehwerbung entfallen.

    (Tippfehler korrigiert am 18.10., 11.25 Uhr)

  • Journalismus & Recherche » Blog Archive » Alternative Big Mac Index

    Der Economist erstellt seit 1988 den „Big Mac Index“. Er vergleicht, wie viel ein weltweit standardisierte Produkt, eben der Big Mac von McDonalds, in jedem Land kostet. Die Preis in der Landeswährung wird dabei nach aktuellem Kurs in US-Dollar umgerechnet. Der aktuelle Index stammt vom 16. Juli.

    Der Big Mac Index wird oft belächelt, faktisch gibt gab es aber keine wirkliche Alternative dazu. Jetzt hat der Economist selbst einen zweiten Big Mac Index entwickelt, der die Kaufkraft misst: Er verdeutlicht, wie lange jemand in dem jeweiligen Land arbeiten muss, um in den Genuß eines Big Mac einen Bic Mac zu kaufen.

    Big Mac Index (Übersicht)

    An alternative Big Mac index
    How many minutes to earn the price of a Big Mac?

    Tags: Big Mac Index, Economist, Ländervergleich

  • Journalismus & Recherche » Blog Archive » Online-Recherche FAQs

    12 Jahre unterrichte ich jetzt schon Online-Recherche und es gibt ein paar Fragen, die immer noch und immer wieder auftauchen. Meist sind das Fragen, um die herum ich ein ganzes Seminar stricken soll – allerdings lassen sich die meisten leicht beantworten, weswegen ich die dafür passende Form wähle und heute mal meine frequently asked questions hier aufliste und beantworte.

    #1: Muss es immer Google sein?
    Nein, Sie können genau so gut auch eine der anderen beiden großen Suchmaschinen, also bing oder yahoo verwenden. Wichtig ist, dass die Suchmaschine einen eigenen Index verwendet und dass dieser möglichst groß ist. An vierter Stelle kommt auch noch ask in Frage.
    Wenn Sie mal ohne vorgefasste Meinung ausprobieren wollen, welche der großen drei Suchmaschinen Ihnen am besten gefällt, probieren Sie blindsearch aus. Dort werden Ihnen die Ergebnisse der drei großen Suchmaschinen nebeneinander dargestellt.

    #2:Darf ich als Journalist Wikipedia nutzen? Ja, dürfen Sie, es wäre sogar törricht, es nicht zu tun – denn die Wikipedia liefert bei den meisten Themen einen guten Einstieg und führt sehr schnell – über die angegebenen Quellen und Links – in die Tiefe. Nur eines dürfen Sie in der Wikipedia tatsächlich nicht: abschreiben, oder überhaupt etwas ungeprüft von dort übernehmen. Viele Angaben aus der Wikipedia lassen sich aber leicht gegenchecken – selbst wenn die Quellen nicht angegeben sind.

    (Falls Ihr Verlag das anders sieht und die Wikipedia gesperrt hat, fragen Sie Ihre Kollegen nach dem Trick mit dem Google cache. Gruß nach Bremen!)

    #3: Bringt es etwas, nacheinander mit google, bing und yahoo zu suchen?
    In der Regel so wenig wie es Ihre Ernährung verbessert, wenn Sie im nacheinander zu McDonalds, Burger King und Kentucky Fried Chicken gehen. Die drei Konzerne, egal ob Suchmaschinen oder Fast Food, befriedigen mit weitgehend ähnlichen Methoden, das gleiche Bedürfnis.

    #4: Was kann ich tun, wenn ich meine Suchbegriffe nicht auf der angezeigten Seite finde? Schritt 1: Suchen Sie mit Strg-F nach dem Begriff innerhalb der Seite. Wenn das nicht hilft, Schritt 2: Gehen Sie zurück in die Ergebnisliste und klicken dort auf „im Cache“ (oder „zwischengespeicherte Seiten“ bei bing) Dort sollten Sie den Suchbegriff nun finden – mit Strg-F oder weil er schon farbig markiert ist.

    Schritt 3: Lesen Sie den Text ganz oben auf der Cache-Seite. Wenn Sie Ihren Suchbegriff bislang noch nicht gefunden haben, dann ist er wahrscheinlich in der Beschreibung eines Links, der auf die angezeigte Seite verweist, verwendet worden.

  • Journalismus & Recherche » Blog Archive » Demaskierung der analogen Bildverschönerung

    Ungeschminkte Bilder zeigt die New York Times (T Magazine Blog): Bilder bekannter Models, wie sie (anlässlich der New York Fashion Week) publiziert wurden: unerreichbar schön. Und dieselben Bilder, bevor Visagist und Friseur Hand anlegten. Für jedes Bild ist angegeben, wer der Photograph ist und wer das Model (und von welcher Agentur), wer das Makeup besorgte und wer die Frisur.

    Wohlvermerkt: Hier geht es nicht um digitale Bildmanipulation – all das passiert, ehe jemand Photoshop anwirft. Solides Handwerk, sozusagen.

    Hübsch gemacht, dass die Vorher-Nachher-Bilder übereinander präsentiert werden. Durch das Verschieben eines Balkens sieht man die „full transformation“.

    http://tmagazine.blogs.nytimes.com/tag/model-morphosis/

    (Aus den FindLinks von Intern.de)

    Tags: Bilder, Bildmanipulation

  • Journalismus & Recherche » Blog Archive » Journalisten sind nur Durchschnitt

    Das ist das Ergebnis einer Studie der Landesanstalt für Medien NRW (LfM). Dass Journalisten die durchschnittliche Bevölkerung abbilden, scheint wünschenswert, wenn auch realitätsfern.

    Schlimmer wird es, wenn -wie nun festgestellt wird- Journalisten bei der Recherche im Internet nur so gut sind wie der Durchschnitt.

    Die Studie offenbart ein großes Defizit in der Aus- und Fortbildung – so weit, so erwartbar. Interessant ist das auch Ergebnis eines Teils der Studien, in dem Journalisten einfache Rechercheaufgaben online lösen mussten. Hier schnitten erstaunlicherweise ältere Kollegen mit mehr Berufserfahrung besser ab, als die jüngeren mit weniger Berufserfahrung. Im Durchschnitt waren beiden Gruppen zusammen aber nur Durchschnitt.

    Das Erfolgsgeheimnis der Älteren: Ergebnisse lesen und mit den gewonnenen Inhalten die eigene Suchanfrage zu verbessern. Hab ich doch schon immer empfohlen.

    Wohltuend auf dem Podium, das gerade die Ergebnissse der Studie diskutiert, fällt Lorenz Maroldt vom Tagesspiegel auf. Zum einen weist er darauf hin, dass durch die Möglichekeiten der Onlinerecherche vermutlich mehr Überprüfungsrecherchen denn je stattfinden; zum anderen gab es ja Fakes und Falschmeldungen schon lange vor Beginn des Onlinezeitalters.

    Soweit mal zur Tagung, mehr folgt im Laufe des Nachmittags.

    Hier noch ein paar in den Raum zu werfende Thesen zum Thema:

    Nicht alles, was in der Wikipedia steht, ist falsch oder auch nur fragwürdig.

    Professor Schneider von der LFM empfiehlt, die Trefferzahl durch die Verwendung des Operators „UND“ um den Faktor 1 hoch 9 zu minimieren. RTL-Peter-Klöppel weist darauf hin, dass 1 hoch 9 auch nur eins sei. Das ist doch ne Supermethode, die in der Studie gar nicht vorkommt: Mitdenken.

    Während alle immer darauf hinweisen, dass Google keine unabhängige Suchmaschine sei und die Trefferlisten natürlich das Ergebnis einer Filterung sind, hat mir noch keiner erklärt, was man denn nun besser machen solle oder wo google für den journalistischen Alltag verzerrte Ergebnisse liefert.

    Erstaunliches Teilergebnis: Die Suche von Kontaktdaten ist der Haupteinsatzzweck der Internetrecherche. Wenn damit gemeint ist, dass tatsächlich Telefonnummern und (Internet-)Adressen online gesucht werden, verwundert mich das.