blog Die Textbausteine der Gewohnheitsheuchler Beitrag über , , , , , vom 21. September 2010

23

Freshwater lakes

Die Kommentare, die zum Amoklauf in Lörrach im Netz kursieren, sind zum Teil widerlich. Ihre Autoren entlarven sich als kaltherzig oder mindestens sehr unreflektiert. Der „Stern“ entlarvt sich mit seinem erneuten Fingerzeig mindestens als sehr heuchlerisch.

In Lörrach ist eine schreckliche Tragödie passiert, und doch lässt das manchen kalt genug, geschmacklose Witze zu reißen. Mich regt das auf. Das ist keine Show. Es sind Menschen gestorben. Kaltschnäuzige Menschen gab und gibt es auf Schulhöfen und Baugerüsten, in Straßenbahnen und Großraumbüros. Allerdings waren ihre Konversationen abhängig von Raum, Zeit und Kontext. Anders bei Twitter: Die Menschen sind dieselben, aber ihre Beiträge machen sich selbständig. Eine kurze Suche nach „Amok“ oder „Lörrach“ liefert unzählige abgebrühte und zynische Statements.

Glücklicherweise kann man diesen Leuten und ihren Äußerungen einfach aus dem Weg gehen, indem man sie aus Freundeskreis und Twitter-Timeline heraushält. Nicht so der Stern. Der wühlt im Dreck und hebt ihn auf den Präsentierteller, um sich demonstrativ zu empören, wie schon letztes Jahr nach dem Amoklauf von Winnenden. Beim Stern erfahre ich, dass „das Web spottet“ und „die Netzgemeinde“ ihre ganz eigenen Regeln des Umgangs mit solchen Ereignissen habe. Zu diesem Zweck zitiert das Qualitätsmedium, das im vergangenen Jahr Privatfotos der Winnenden-Opfer veröffentlichte und in der Print-Ausgabe versehentlich einen Unbeteiligten als Amokläufer abbildete, fünf Meldungen, von denen eine einzelne tatsächlich gut 100 mal weiterverbreitet wurde. Ebenfalls vorhandene Ausdrücke der Betroffenheit oder sachliche Auseinandersetzung mit dem Waffengesetz kommen nicht vor, auch nicht die Mehrheit, die ihre Betroffenheit auf die vielleicht beste Weise ausdrückte: mit Schweigen.

Die Schlussfolgerung ist klar: Twitter werde „fälschlicherweise als die Zukunft des Journalismus betrachtet“ (Von wem eigentlich? Von den Betreibern des Accounts @stern_digital, die zum Winnenden Amoklauf eine „Twitter-Übersicht“ anpriesen?), denn: „Während ausgebildete Journalisten darin geschult sind, sensibel mit Daten von Personen umzugehen und Fakten zu recherchieren, steht hingegen bei Twitter die Meinung schnell fest.“ Gerade eine vorgefasste Meinung muss sich allerdings auch der Stern vorhalten lassen, hat Autor Felix Disselhoff doch zentrale Passagen seiner Empörung wörtlich aus dem anderthalb Jahre alten Artikel seines Kollegen Gerd Blank nach dem Amoklauf von Winnenden kopiert:

Disselhoff 2010:

„Das Problem ist wie so oft nicht die Nachricht, sondern wie mit ihr umgegangen wird. Während ausgebildete Journalisten darin geschult sind, sensibel mit Daten von Personen umzugehen und Fakten zu recherchieren, steht hingegen bei Twitter die Meinung schnell fest. Der Pressekodex gilt nun einmal nur für die Presse. Und nicht für ein Medium, welches von vielen fälschlicherweise als die Zukunft des Journalismus betrachtet wird. Nur vergleichweise wenige User teilen Neuigkeiten über den Tathergang mit anderen Usern. Zynische Statements überwiegen. So fordert MelmachAsylant: ‚Die Lehre aus Lörrach und Winnenden: #Baden-Württemberg verbieten / den Franzosen zum Kauf anbieten.'“

Blank 2009:

So funktioniert das Web nur allzu oft. Aus einer einzelnen Meldung wird eine Lawine, die den Wahrheitsgehalt und das menschliche Drama oft unter sich begräbt.
So funktioniert das Web. Aus einer Meldung wird eine Lawine, die den Wahrheitsgehalt oft unter sich begräbt. Das Jeder-kann-mitmachen-Internet zeigt seine Fratze.

„Doch das Problem ist häufig nicht alleine die Nachricht, sondern wie mit ihr umgegangen wird. Während ausgebildete Journalisten eigentlich wissen, wie mit Namen, Adressen und Bildern umgegangen werden darf, erfährt man bei Twitter schnell, wie der mutmaßliche Täter heißt. Das Elternhaus wird in aller Pracht gezeigt, und damit man es auch findet, gibt es den Link zur Adresse dazu. Der Pressekodex gilt halt für die Presse, und nicht für ein Medium, welches von vielen fälschlicherweise als die Zukunft des Journalismus betrachtet wird.“

Disselhoff 2010:

„So funktioniert das Web nur allzu oft. Aus einer einzelnen Meldung wird eine Lawine, die den Wahrheitsgehalt und das menschliche Drama oft unter sich begräbt.“

Blank 2009:

„So funktioniert das Web. Aus einer Meldung wird eine Lawine, die den Wahrheitsgehalt oft unter sich begräbt. Das Jeder-kann-mitmachen-Internet zeigt seine Fratze.“

(Danke an Too Much Information für die Auffrischung meiner Erinnerung. Blank betreut übrigens auch den Account @stern_digital. Ich weiß allerdings nicht, ob das schon im März 2009 so war.)

Geht es hier um eine ernsthafte Auseinandersetzung mit einem jungen Medienphänomen, mit dem Normalanwender und Profis erst noch umzugehen lernen, oder darum, schnell einen Aufreger zu produzieren? Unreflektiert oder zynisch, aber nicht nur von den aus-allem-einen-coolen-Spruch-Machern bei Twitter, sondern besonders von manchen ausgebildeten Journalisten hätte ich mir statt solcher Texte vor allem eins gewünscht: Schweigen.

Update vom 23.09.2010: stern.de-Chefredakteur Frank Thomsen hat sich gestern mittag in einem Kommentar für die Textkopien, die „nicht unseren Standards“ entsprächen, entschuldigt und angekündigt, einen Hinweis darauf anzubringen. Das ist mit Datum von gestern passiert. Mir war heute morgen keine Änderung aufgefallen, aber das mag am Browser-Cache liegen. Inhaltlich bleibt die Redaktion standfest: „wir stehen zu unserer Analyse“. Der Text scheint aber noch in Arbeit zu sein – seht selbst.

links Nieman Reports 2010 vom 22. Juni 2010

Von der Nieman-Stiftung (Harvard) herausgegebene Texter über technologischen, wirtschaftlichen und kulturellen Wandel des Journalismus

Zur Seite http://www.nieman.harvard.edu/reportsitem.aspx?id=102394

links Breitband – Der neue Umgang mit Nachrichten vom 21. Juni 2010

Podcast des Deutschlandradio, in dieser Folge über die Entwicklung des Nachrichtenmarkts in Zeiten von Google News, User Generated Content und Content-Farmen wie Demand Media

Zur Seite http://breitband.dradio.de/der-neue-umgang-mit-nachrichten/

blog Walled Gardens vs. „Seeding“: News-APIs als Geschäftsmodell für Verlage Beitrag über , , , , vom 17. Juni 2010

Martha over the garden wall

Während viele Verlage „Walled Gardens“ errichten, um Google auszusperren, und sich damit ihrer größten kostenlosen Traffic-Quelle entledigen, gehen einige Häuser den entgegengesetzten Weg: Sie vereinfachen die Verteilung ihres Contents durch APIs (Application Programming Interface). Aktuelle Artikel, Archivmaterial oder Statistiken werden maschinenlesbar angeboten und können so sehr einfach in andere Seiten eingebunden werden.

Damit schwenken diese Anbieter von der Rohware Nachricht (die, wenn sie sich hinter einer Bezahlschranke befindet und Relevanz hat, nach 15 Minuten in einem frei zugänglichen Medium paraphrasiert ist) zur besser schützbaren und daher besser vermarktbaren Aufbereitung. Eine Information an sich, zum Beispiel über einen Unfall oder den Ausgang einer Wahl (manchmal auch beides zusammen) ist – zum Glück der Wissensgesellschaft – nicht urheberrechlich geschützt. Das heißdiskutierte Leistungsschutzrecht könnte das in Teilen ändern, ist aber noch völlig diffus. Geschützt sind aber Werke, also ein gut formulierter Bericht oder eine informative Grafik. Deren Produktion ist zudem verhältnismäßig kostenintensiv, also lohnt sich der Einkauf für Dritte.

Der „Guardian“ hat seine API nach einer Betaphase jetzt offiziell geöffnet und erlaubt, finanziert entweder über Werbung oder über Gebühren, eine kommerzielle Nutzung seiner Inhalte durch Dritte (über die sog. Content API). Neben den Werbeeinnahmen und Lizenzgebühren erweitert die Zeitung damit durch stärkere Verlinkung auch die Reichweite ihres eigenen Angebots (Kannibalisierungseffekte sollten mehr als aufgehoben werden). Anstatt den Garten einzuzäunen, streut der Guardian seine Saat über das Netz.
Über das „Micro-App-Framework“ können Guardian-Partner auch Content direkt auf die Guardian-Website bringen. Hier wird Reichweite also nicht an Werbekunden, sondern auch an andere, kleinere Medienunternehmen vermarktet.
Die „Politics API“ wiederum erlaubt den Zugriff auf Statistiken und Umfrageergebnisse, die sich als Zahlen direkt weiterverarbeiten lassen. (mehr zur Guardian-API bei Heise)

Dazu passt, dass der Guardian sich als Vorreiter im „Data Journalism“ positioniert, eine Entwicklung, die nicht nur Journalisten und Verleger, sondern auch Regierungen, NGOs und Unternehmen sicher noch beschäftigen wird und einen eigenen Blogpost wert ist.

Die New York Times bietet schon seit Ende 2008 eine API an, allerdings nur für die nichtkommerzielle Nutzung bei limitierten Zugriffszahlen. Abrufbar sind u.a. Artikel, Quellen der Wahlkampffinanzierung, Kongressabstimmungsdaten und Filmkritiken (erklärender Artikel bei Readwriteweb). Die Guardian-Variante finde ich aufgrund der Vielzahl an Monetarisierungsvarianten interessanter. Ich bin gespannt auf erste Zahlen aus dem regulären Betrieb.

Auch wenn der Nutzen klar auf der Hand liegt, gibt es bisher kein solches Angebot im deutschen Markt. Die innovativen Anbieter haben die Ressourcen nicht, die großen Verlage wiederum haben ihre wohl vollständig darin gebunden, ausgerechnet gegen ihre Hauptdistributeure Sturm zu laufen.

blog Jeder Leser bekommt den Journalismus, den er verdient (?) Beitrag über , , , , , , vom 15. Juni 2010

We Demand Donutz

Keine brandneue Meldung, aber wert, sich Gedanken über persönliche qualitative Filter zu machen:

Google-Juice vom journalistischen Prekariat

André Zalbertus (@zalbertus), Medienunternehmer (Gründer von AZ Media, center.tv) und preisgekrönter TV-Journalist, produziert in Zukunft journalistische Online-Inhalte streng nachfrageorientiert. „Demand Medien“ mit Sitz in Bochum soll seine Themen anhand von populären Suchanfragen z.B. bei Google und Youtube wählen und mit freien Mitarbeitern sehr günstig produzieren (Manager Magazin). Zalbertus kopiert damit die finanziell erfolgreiche US-Firma „Demand Media“. Im Gegensatz zu Demand Media, die an den Werbeeinnahmen eigener Veröffentlichungen (z.B. ehow.com) verdienen, will Zalbertus kommerzielle Onlineanbieter und Medienhäuser mit Inhalten beliefern. (FAZ über Demand Media)

Der „SEO-Journalismus“ boomt und Zalbertus ist ein erfahrener Geschäftsmann. Wie man im Journalismus Kosten drückt, hat er mit seiner TV-Produktionsfirma AZ Media und der Lokalsenderkette center.tv vorgemacht, als Vorreiter des Videojournalismus, also Ein-Mann-Videoreportern statt der konventionellen 3-Mann-Teams. Am wirtschaftlichen Erfolg von Demand Medien habe ich zumindest auf mittlere Frist wenig Zweifel. Inhaltlich erwarte ich Bratwurstjournalismus vom Feinsten und paraphrasierte Wikipedia-Einträge. Kann man machen, allerdings will ich mich nicht immer da durchwühlen, um an für mich relevanten Content zu kommen.

Lukas 11,9

Medien, die ich regelmäßig direkt lese, werden wahrscheinlich nicht zu den Abnehmern zählen. Aber die Suchergebnissseiten werden durch optimierten Billig-Content weiter zugekleistert. Auch ohne große Content-Farmer taucht dort genug Müll auf. Mit Blick auf die Demand Media konnte man ja darauf hoffen, dass Google & Co. irgendwann eine dauerhafte userbezogene Blacklist anbieten, wie ich jetzt schon „-site:ehow.com“ in die Suche eintragen kann. Taucht das deutsche Billig-Geschreibsel aber auf den unterschiedlichsten Domains auf, ist das nicht mehr praktikabel – was tun?

Möglichkeit a) Soziale Filter

Auf einen Großteil der tagesaktuellen Inhalte, die ich lese, komme ich über Kontakte bei Twitter, Facebook (das sich anschickt, größte Traffic-Quelle für News zu werden – deshalb wollen die Verlage am liebsten neben Google gleich auch Facebook in die Tasche langen) etc., Aggregatoren wie Rivva oder Blogs. Zur Suche eignen sich diese Seiten einzeln aber bisher nicht. Hier könnte Google Social Search helfen. Im Gegensatz zu den meisten Suchmaschinen und Aggregatoren sind dort für das Ranking meine direkten Verbindungen in Online-Netzwerken wesentlich. Steckt aber noch in den Kinderschuhen und war für mich bisher nicht besonders nützlich. Für gezielte Recherche hilft:

Möglichkeit b) Whitelisting

Wer regelmäßig online recherchiert, weiß, dass die Eingrenzung auf die richtigen Plattformen Zeit und Nerven spart. Ich lege mir zu für mich relevanten Themen eine Art Panels an, die ich per Suchanfrage „site:abc.com | site:def.org…“ oder Custom Search Engine durchsuchen kann. Für viele Themen gibt es spezialisierte Suchmaschinen. Und die Anleitung fürs „Social Media Cheat Sheet“ von Readwriteweb funktioniert leicht abgewandelt auch für redaktionelle Seiten.

Direkt-Journalismus per Vorauskasse

Nochmal zurück zum Journalismus, bei dem jemand vor die Tür geht, recherchiert und schreibt: „Journalism on demand“ bietet auch Spot.Us in San Francisco, L.A. und Seattle, aber in einer Form, in der es meinen Erwartungen eher entspricht: (Potentielle) Leser können dort Themen oder Fragen einreichen, die sie gern von Journalisten bearbeitet sehen würden. Ein freier Journalist erstellt eine Art Kostenvoranschlag und nimmt, wenn das Budget von Einzelpersonen oder Organisationen aufgebracht wird, die Arbeit auf. Zu den Bietern können auch Verlage zählen, die eine Geschichte dann zunächst exklusiv vermarkten dürfen. (neben anderen Geschäftsmodellen für journalistische Angebote im Netz gefunden bei Mashable)

Das Modell von Spot.Us hat für freie Journalisten gegenüber Plattformen wie Flattr (Micropayment für Publisher) den Vorteil, dass sie schon vor Aufnahme der Arbeit wissen, ob es sich lohnt. Erfolgskritisch wird sein, ob sich der Ansatz, der bei einigen heißen lokalen Themen in Millionenstädten funktioniert, in den Long Tail des Lokalen und Special Interest übertragen lässt. Wer wagt hierzulande das Experiment?

Update: Wochenmarkt der Nichtigkeiten

Netzwertig berichtet über den Start von tvype, einem Marktplatz für Bürgerreporter. Das Startup präsentiert neben einer eindrucksvollen Reihe öffentlicher Förderungen ein buntes Gemisch an Stock Photos, Promi-Bildern und Schnappschüssen von Unfällen und Demonstrationen. In gleicher oder höherer Qualität finde ich das auch bei Flickr. Der Vorteil von tvype: Die Redaktionen können Bilder und Videos zu einem festen Preis sofort herunterladen, anstatt erst „Freund“ eines Fotografen zu werden und auf schnelle Antwort zu hoffen oder schlicht auf das Urheberrecht zu pfeifen, wie es in manchen Print- und TV-Redaktionen offenbar gängige Praxis ist.

links Wirtschaftsjournalismus via Twitter vom 29. Januar 2010

2

In Amerika ist Recherche im Social Web schon weit verbreitet und anerkannt. Deutsche Journalisten hadern zum Teil noch, während FAZ-Redakteur und „Netzökonom“ Holger Schmidt Twitter schon als primäre Informationsquelle nutzt:

„Dies tut er, indem er etwa 100 Twitter Accounts folgt (er selbst hat an die 5.000 Follower), die er für seriös und informativ hält und die ausschließlich gut recherchierte Hard Facts aus den Themenbereichen Telco und Internet liefern.“

„Sein Ziel ist es, mit schnellen (Stichwort Echtzeit) und exklusiven Meldungen als erster am Online-Markt zu sein und damit eine Aufmerksamkeit zu erzeugen, die letztlich dem FAZ-Portal zugute kommt in Form von Besuchern und Klickraten.“

(Cirquent Blog)

links Mehrzahl der US-Journalisten nutzt Social Media für die Recherche vom 26. Januar 2010

1

„Von den befragten Journalisten gaben 89 Prozent an, dass sie für Recherchen Blogs durchsuchen. 65 Prozent greifen auf Social Media wie Facebook oder LinkedIn zurück und 52 Prozent nutzen Microblogging-Dienste, zum Beispiel Twitter, um an Informationen und Geschichten zu kommen. Ein weiteres zentrales Ergebnis der Studie ist, dass 61 Prozent der Umfrageteilnehmer in Wikipedia, der Online-Enzyklopädie, recherchieren.“

Es fehlt Social Media aber nach Meinung der Befragten an Glaubwürdigkeit.

Meistgenutzte Quelle ist nach wie vor der Kontakt zu PR-Verantwortlichen.

Cision-Umfrage in den USA: Mehrzahl der Journalisten nutzen Scial Media für Ihre Recherche (via @tknuewer)

Mein kurzes Fazit: Social Media setzen in Teilen bereits die Agenda, es gibt für die dort aufkommenden Themen aber noch erhebliches Framing-Potential durch beteiligte Akteure.