links Nieman Reports 2010 vom 22. Juni 2010

Von der Nieman-Stiftung (Harvard) herausgegebene Texter über technologischen, wirtschaftlichen und kulturellen Wandel des Journalismus

Zur Seite http://www.nieman.harvard.edu/reportsitem.aspx?id=102394

links Breitband – Der neue Umgang mit Nachrichten vom 21. Juni 2010

Podcast des Deutschlandradio, in dieser Folge über die Entwicklung des Nachrichtenmarkts in Zeiten von Google News, User Generated Content und Content-Farmen wie Demand Media

Zur Seite http://breitband.dradio.de/der-neue-umgang-mit-nachrichten/

blog Ein Versuch, Enterprise 2.0 zu erklären Beitrag über , , , vom 21. Juni 2010

7

Gleich werde ich am Institut für Kommunikationswissenschaft der WWU Münster einen kleinen Einführungsvortrag zu Enterprise 2.0 halten. Wie alles „-2.0“ ist das kein allzu einfach fassbarer Begriff. Eine gute Gelegenheit für ein Präsentations-Experiment. Ich habe versucht, Enterprise 2.0 zu zeichnen.

Die Präsentation ist durch den geringen Textanteil nicht ganz selbsterklärend. Besonders wichtig ist mir, dass Enterprise 2.0 natürlich nicht einfach die Installation bestimmter Softwaresysteme im Unternehmen ist (auf diesen Technikdeterminismus-Irrweg gehe ich in der Präsentation auch ein). Wer sie gern (nochmal) ansehen will:

Hier die weiterführenden Links zu Theorie und Praxis:

Diese Art, eine Präsentation zu erstellen, hat sich schon jetzt bewährt. Der Workflow:

> Präsentation mit Filzstift zeichnen
> scannen
> vektorisieren
> kolorieren
> in prezi.com laden
> Pfade hinzufügen
> zufrieden sein.

Es dauert nicht länger als das Herumgefummel mit Powerpoint oder Openoffice (Ja, ja, get a Mac bla bla), aber es macht wesentlich mehr Spaß, die eigene Auseinandersetzung mit dem Thema ist besser und ich bin überzeugt, es bleibt beim Publikum mehr hängen. Wie letzteres reagiert, weiß ich erst in drei Stunden. Vielleicht gibt der eine oder die andere hier ja noch direktes Feedback ab. Es würde mich freuen.

blog Walled Gardens vs. „Seeding“: News-APIs als Geschäftsmodell für Verlage Beitrag über , , , , vom 17. Juni 2010

Martha over the garden wall

Während viele Verlage „Walled Gardens“ errichten, um Google auszusperren, und sich damit ihrer größten kostenlosen Traffic-Quelle entledigen, gehen einige Häuser den entgegengesetzten Weg: Sie vereinfachen die Verteilung ihres Contents durch APIs (Application Programming Interface). Aktuelle Artikel, Archivmaterial oder Statistiken werden maschinenlesbar angeboten und können so sehr einfach in andere Seiten eingebunden werden.

Damit schwenken diese Anbieter von der Rohware Nachricht (die, wenn sie sich hinter einer Bezahlschranke befindet und Relevanz hat, nach 15 Minuten in einem frei zugänglichen Medium paraphrasiert ist) zur besser schützbaren und daher besser vermarktbaren Aufbereitung. Eine Information an sich, zum Beispiel über einen Unfall oder den Ausgang einer Wahl (manchmal auch beides zusammen) ist – zum Glück der Wissensgesellschaft – nicht urheberrechlich geschützt. Das heißdiskutierte Leistungsschutzrecht könnte das in Teilen ändern, ist aber noch völlig diffus. Geschützt sind aber Werke, also ein gut formulierter Bericht oder eine informative Grafik. Deren Produktion ist zudem verhältnismäßig kostenintensiv, also lohnt sich der Einkauf für Dritte.

Der „Guardian“ hat seine API nach einer Betaphase jetzt offiziell geöffnet und erlaubt, finanziert entweder über Werbung oder über Gebühren, eine kommerzielle Nutzung seiner Inhalte durch Dritte (über die sog. Content API). Neben den Werbeeinnahmen und Lizenzgebühren erweitert die Zeitung damit durch stärkere Verlinkung auch die Reichweite ihres eigenen Angebots (Kannibalisierungseffekte sollten mehr als aufgehoben werden). Anstatt den Garten einzuzäunen, streut der Guardian seine Saat über das Netz.
Über das „Micro-App-Framework“ können Guardian-Partner auch Content direkt auf die Guardian-Website bringen. Hier wird Reichweite also nicht an Werbekunden, sondern auch an andere, kleinere Medienunternehmen vermarktet.
Die „Politics API“ wiederum erlaubt den Zugriff auf Statistiken und Umfrageergebnisse, die sich als Zahlen direkt weiterverarbeiten lassen. (mehr zur Guardian-API bei Heise)

Dazu passt, dass der Guardian sich als Vorreiter im „Data Journalism“ positioniert, eine Entwicklung, die nicht nur Journalisten und Verleger, sondern auch Regierungen, NGOs und Unternehmen sicher noch beschäftigen wird und einen eigenen Blogpost wert ist.

Die New York Times bietet schon seit Ende 2008 eine API an, allerdings nur für die nichtkommerzielle Nutzung bei limitierten Zugriffszahlen. Abrufbar sind u.a. Artikel, Quellen der Wahlkampffinanzierung, Kongressabstimmungsdaten und Filmkritiken (erklärender Artikel bei Readwriteweb). Die Guardian-Variante finde ich aufgrund der Vielzahl an Monetarisierungsvarianten interessanter. Ich bin gespannt auf erste Zahlen aus dem regulären Betrieb.

Auch wenn der Nutzen klar auf der Hand liegt, gibt es bisher kein solches Angebot im deutschen Markt. Die innovativen Anbieter haben die Ressourcen nicht, die großen Verlage wiederum haben ihre wohl vollständig darin gebunden, ausgerechnet gegen ihre Hauptdistributeure Sturm zu laufen.

blog Eine persönliche Channel-Strategie: Fragenkatalog Beitrag über , , , vom 16. Juni 2010

4

Full New MTR System Map with Southern Kowloon Link

Update: Ich habe diesen Artikel hier und da verlinkt und um Feedback über erwünschte Postingfrequenzen und Inhalte gebeten. Ich freue mich über einen kurzen Kommentar dazu.

Vor einigen Tagen habe ich angekündigt, dass ich ein wenig Ordnung in die Vielzahl an Plattformen bringen will, die ich für Input und Output im Social Web nutze. Folgende Fragen habe ich mir dazu gestellt:

Es geht mir in dieser Reihe nicht so sehr um die individuellen Ziele/Botschaften/Inhalte, sondern um die strukturelle Komponente, das „Channeling“, wenn man auf Marketing-Neudeutsch so will. Um maximal effizient zu sein, sollte ich auf der Output-Seite eine möglichst hohe Reichweite, besser: eine möglichst tiefe Durchdringung meiner erwünschten Zielgruppen haben, dabei wenig Streuverlust. Auf der Input-Seite sollte ein minimaler Aufwand stehen, außerdem eine möglichst vollständige Erfassung der Reaktionen, um den Dialog aufnehmen zu können.

Es liegt auf der Hand, dass man das nicht mit einem einzigen Tool schafft, sondern sinnvolle Verknüpfungen hermüssen. Viele meiner Kontakte haben ihren Twitter-Account mit Facebook verknüpft oder twittern ihre Blogeinträge. Diese Verknüpfungen können auch mehrstufig sein: Wenn ich eine Seite per Browser-Plugin via Google Reader empfehle, führt das zu einer Veröffentlichung in Google Buzz und Twitter, Twitter wiederum wird bei Facebook gespiegelt. Bei bis zu 20 beteiligten Plattformen, verschiedenen Medienformaten und Zielgruppen kann das zu vielen Problemen im Detail führen:

So weit zu den Fallstricken in der Verknüpfung. Für die einzelnen verwendeten Tools fallen mir folgende Auswahlkriterien ein:

Ist diese Bewertung vorgenommen, kann es konkret an die Verknüpfung gehen: Buzz zu Twitter? Twitter zu Buzz? Del.icio.us über Buzz zu Facebook? Von da weiter zu Twitter? Was wird der Fokalpunkt in diesem Bild? Martin Koser entscheidet sich in seinem lesenswerten und linkschweren Artikel „Aggregation, syndication and the delicacies of smart knowledge worker workflows“ für Google Buzz. Großer Vorteil ist die gute Integration mit anderen Diensten, große Flexibilität, was den Content-Typ angeht, und das Angebot an Plugins und Clients. Gerrit hostet lieber selbst mit WordPress und dem Theme P2. Entsprechende Ressourcen zur Entwicklung vorausgesetzt, bietet diese Lösung in puncto Flexibilität die gleichen Vorteile, bei Integration und Clients wird es schwierig. Dafür ist der Fortbestand von Content und Links gesichert. Die Verknüpfung wird Gegenstand des nächsten Posts sein.

Alle Beiträge der Serie finden sich unter dem Tag „Social Media Workflow„.

blog Jeder Leser bekommt den Journalismus, den er verdient (?) Beitrag über , , , , , , vom 15. Juni 2010

We Demand Donutz

Keine brandneue Meldung, aber wert, sich Gedanken über persönliche qualitative Filter zu machen:

Google-Juice vom journalistischen Prekariat

André Zalbertus (@zalbertus), Medienunternehmer (Gründer von AZ Media, center.tv) und preisgekrönter TV-Journalist, produziert in Zukunft journalistische Online-Inhalte streng nachfrageorientiert. „Demand Medien“ mit Sitz in Bochum soll seine Themen anhand von populären Suchanfragen z.B. bei Google und Youtube wählen und mit freien Mitarbeitern sehr günstig produzieren (Manager Magazin). Zalbertus kopiert damit die finanziell erfolgreiche US-Firma „Demand Media“. Im Gegensatz zu Demand Media, die an den Werbeeinnahmen eigener Veröffentlichungen (z.B. ehow.com) verdienen, will Zalbertus kommerzielle Onlineanbieter und Medienhäuser mit Inhalten beliefern. (FAZ über Demand Media)

Der „SEO-Journalismus“ boomt und Zalbertus ist ein erfahrener Geschäftsmann. Wie man im Journalismus Kosten drückt, hat er mit seiner TV-Produktionsfirma AZ Media und der Lokalsenderkette center.tv vorgemacht, als Vorreiter des Videojournalismus, also Ein-Mann-Videoreportern statt der konventionellen 3-Mann-Teams. Am wirtschaftlichen Erfolg von Demand Medien habe ich zumindest auf mittlere Frist wenig Zweifel. Inhaltlich erwarte ich Bratwurstjournalismus vom Feinsten und paraphrasierte Wikipedia-Einträge. Kann man machen, allerdings will ich mich nicht immer da durchwühlen, um an für mich relevanten Content zu kommen.

Lukas 11,9

Medien, die ich regelmäßig direkt lese, werden wahrscheinlich nicht zu den Abnehmern zählen. Aber die Suchergebnissseiten werden durch optimierten Billig-Content weiter zugekleistert. Auch ohne große Content-Farmer taucht dort genug Müll auf. Mit Blick auf die Demand Media konnte man ja darauf hoffen, dass Google & Co. irgendwann eine dauerhafte userbezogene Blacklist anbieten, wie ich jetzt schon „-site:ehow.com“ in die Suche eintragen kann. Taucht das deutsche Billig-Geschreibsel aber auf den unterschiedlichsten Domains auf, ist das nicht mehr praktikabel – was tun?

Möglichkeit a) Soziale Filter

Auf einen Großteil der tagesaktuellen Inhalte, die ich lese, komme ich über Kontakte bei Twitter, Facebook (das sich anschickt, größte Traffic-Quelle für News zu werden – deshalb wollen die Verlage am liebsten neben Google gleich auch Facebook in die Tasche langen) etc., Aggregatoren wie Rivva oder Blogs. Zur Suche eignen sich diese Seiten einzeln aber bisher nicht. Hier könnte Google Social Search helfen. Im Gegensatz zu den meisten Suchmaschinen und Aggregatoren sind dort für das Ranking meine direkten Verbindungen in Online-Netzwerken wesentlich. Steckt aber noch in den Kinderschuhen und war für mich bisher nicht besonders nützlich. Für gezielte Recherche hilft:

Möglichkeit b) Whitelisting

Wer regelmäßig online recherchiert, weiß, dass die Eingrenzung auf die richtigen Plattformen Zeit und Nerven spart. Ich lege mir zu für mich relevanten Themen eine Art Panels an, die ich per Suchanfrage „site:abc.com | site:def.org…“ oder Custom Search Engine durchsuchen kann. Für viele Themen gibt es spezialisierte Suchmaschinen. Und die Anleitung fürs „Social Media Cheat Sheet“ von Readwriteweb funktioniert leicht abgewandelt auch für redaktionelle Seiten.

Direkt-Journalismus per Vorauskasse

Nochmal zurück zum Journalismus, bei dem jemand vor die Tür geht, recherchiert und schreibt: „Journalism on demand“ bietet auch Spot.Us in San Francisco, L.A. und Seattle, aber in einer Form, in der es meinen Erwartungen eher entspricht: (Potentielle) Leser können dort Themen oder Fragen einreichen, die sie gern von Journalisten bearbeitet sehen würden. Ein freier Journalist erstellt eine Art Kostenvoranschlag und nimmt, wenn das Budget von Einzelpersonen oder Organisationen aufgebracht wird, die Arbeit auf. Zu den Bietern können auch Verlage zählen, die eine Geschichte dann zunächst exklusiv vermarkten dürfen. (neben anderen Geschäftsmodellen für journalistische Angebote im Netz gefunden bei Mashable)

Das Modell von Spot.Us hat für freie Journalisten gegenüber Plattformen wie Flattr (Micropayment für Publisher) den Vorteil, dass sie schon vor Aufnahme der Arbeit wissen, ob es sich lohnt. Erfolgskritisch wird sein, ob sich der Ansatz, der bei einigen heißen lokalen Themen in Millionenstädten funktioniert, in den Long Tail des Lokalen und Special Interest übertragen lässt. Wer wagt hierzulande das Experiment?

Update: Wochenmarkt der Nichtigkeiten

Netzwertig berichtet über den Start von tvype, einem Marktplatz für Bürgerreporter. Das Startup präsentiert neben einer eindrucksvollen Reihe öffentlicher Förderungen ein buntes Gemisch an Stock Photos, Promi-Bildern und Schnappschüssen von Unfällen und Demonstrationen. In gleicher oder höherer Qualität finde ich das auch bei Flickr. Der Vorteil von tvype: Die Redaktionen können Bilder und Videos zu einem festen Preis sofort herunterladen, anstatt erst „Freund“ eines Fotografen zu werden und auf schnelle Antwort zu hoffen oder schlicht auf das Urheberrecht zu pfeifen, wie es in manchen Print- und TV-Redaktionen offenbar gängige Praxis ist.

blog Social Media-Fragmentierung und Workflow Beitrag über , , , vom 13. Juni 2010

3

Angeregt durch Martins Session zum „Knowledge-Worker-Workflow“ beim Barcamp Bodensee habe ich mir vorgenommen, meinen Online-Output auch noch einmal zu ordnen und effizienter zu gestalten. Aus den Fortschritten dabei werde ich eine kleine Serie mit dem Titel „Social Media Workflow“ machen.

Frogpond: Knowledge Worker Workflow
Martins Wissens-Workflow – Links zu weiteren Konzepten in seinem Blogpost

Zum Auftakt habe ich aufgelistet, an welchen Punkten ich Content kreiere, kommentiere oder weiterreiche, meine „Outlets“ sozusagen. Das hat mich geplättet:

aktiv:

reaktiv/derzeit inaktiv:

Hinzuzählen könnte man noch Amazon und Wikipedia, dort bin ich aber nur sehr sporadisch aktiv.

Die Blogs, Twitter-Accounts und Facebook-Seiten, die ich beruflich und ehrenamtlich betreue, lasse ich außen vor. Sie spielen für meinen persönlichen Social Media-Workflow erst einmal keine Rolle. Allerdings erwarte ich, dass ein durchdachtes Konzept zum Verteilen und Einsammeln von Nachrichten in modifizierter Form auch übertragbar sein wird.

Alles in allem ergeben sich 15-20 Kontaktpunkte mit unterschiedlichen Inhalten und Publika. Es könnte sich lohnen, diese medialen Baustellen gut zu organisieren. Vielleicht komme ich dann auch wieder öfter zum Bloggen. Fortsetzung folgt.

blog Ökonomen über Fußball Beitrag über , , , vom 11. Juni 2010

1

Gut informiert in den WM-Auftakt: Es sei jedem selbst überlassen, sich durch über 100 Seiten zu wühlen oder einfach unreflektiert zu jubeln.

Kick Off
Nonkommerzielle Nutzung erlaubt. Lizenzinfos: Creative Commons License

Bei Goldman Sachs hat in den letzten Monaten irgendwer die Zeit gehabt, ein 75-seitiges WM-Dossier (pdf) anzulegen. Laut ihrer „Probability Study“ (S. 65) gewinnt Brasilien vor Spanien und Deutschland.

Optimisten weichen auf die Uni Tübingen aus. In deren „ganzheitlicher Studie“ (pdf), die u.a. auch Politik, Ökonomie und Kultur einbezieht, werden wir Vize.

Wer auf einen Sieg hoffen will und die obigen Vorhersagen relativieren möchte, findet Trost (pdf) bei der Deutschen Bank. Anhand der Bundesliga wiesen die Ökonomen 2005 einen hohen Zufallsfaktor nach.

Diese und weitere fußballökonomische Betrachtungen bei Blick Log

Viel Spaß in den nächsten Tagen!

blog Wenn sich der Staub legt und alles noch steht Beitrag über , , , , vom 21. April 2010

4

Was this  the undercurrent in my gloomy road shots all the time?? scary Eyjafjallajökull
Ausbruch des Eyjafjellajökull, Foto von Sverrir Thor

„PR-Super-GAU“, „Social Media-Desaster“, „Web 2.0-Debakel“: Wenn es im Social Web knallt, kommen schnell alle herbeigelaufen, besserwissern um die Wette und bestaunen die Staubwolke. Wenn die sich gelegt hat und man das Ausmaß des tatsächlichen Schadens erkennen kann, sind die Social Media-Knallzeugen schon weitergezogen. Dabei gibt es neben vielen Geschichten der Marke „nicht so heiß gegessen wie gekocht“ auch reale Auswirkungen virtueller Kritik. Die müsste man jetzt nur noch im Vorfeld auseinanderhalten können. Drei Beispiele für Social Media-Krisen, ihre mutmaßlichen oder tatsächlichen Folgen und ein paar Fragen:

Vor gut einem halben Jahr stand Jack Wolfskin aufgrund seiner Abmahnungen gegen Kleinstunternehmer im Kreuzfeuer der Blogosphäre. Von „PR-Desaster“ war die Rede, ein „Super-GAU für die Marke“. Aber wenn wir ehrlich sind, bemerkt Jack Wolfskin die Blogger, die aus diesem Grund nun keine Jacke mit Tatze kaufen, nicht einmal als Knick in der Statistik. Mittlerweile ist bei einer Google-Suche nach dem Markennamen nur noch der Spiegel-Artikel unter den ersten zehn Suchergebnissen zu finden (auch im Wikipedia-Eintrag kommen diese und weitere Auseinandersetzungen vor) und wird meiner Meinung nach kaum jemanden vom Kauf abhalten. Warum? Weil die „Affäre“ keinen direkten Produktbezug hat und die wenigsten Konsumenten direkt betrifft. Eine Rückschau und Linksammlung zum Fall findet sich im Social Media PReview.

Ebenfalls im PReview, und zwar im Mittagstisch Nr. 2, rechnet Timo Lommatzsch nach (ca. ab 27:30), welcher finanzielle Schaden Domino’s Pizza durch die Youtube-Ekelvideos zweier Angestellter (Zusammenfassung incl. der sehr guten Reaktion) entstanden ist: Der Laden, in dem die Videos aufgenommen wurden, musste aufgrund von Umsatzeinbrüchen von über 50 Prozent schließen. Rund 15 Angestellte verloren ihre Jobs. Domino’s schätzt den landesweiten Schaden laut einem Pressebericht auf 1-2 Prozent ihres Umsatzes. Bei 3,1 Milliarden Gesamtumsatz wären das 34 bis 68 Millionen Dollar, nur durch einen unüberlegten Scherz! Kein Wunder: Auch im Wissen, dass die Videos gestellt waren, bekam man die Bilder beim Anblick einer Pizza für eine Weile nicht aus dem Kopf.

Den Effekt, den die beiden Angestellten wahrscheinlich eher versehentlich auslösten, machte sich Greenpeace zuletzt professionell zunutze: Die Umweltschützer beschuldigen Nestlé, mit ihrer Einkaufspolitik Regenwaldzerstörung zu unterstützen und den Orang Utan zu gefährden. Auch offline fanden Protestaktionen statt, Kern der Kampagne war aber ein Online-Schockvideo, in dem ein Büroangestellter unter den angewiderten Blicken seiner Kollegen auf einen Orang Utan-Finger anstelle eines Schokoriegels beißt. In den Tagen nach Veröffentlichung des Videos und unbeholfener Reaktionen des Konzerns gingen zehntausende Kommentare auf den Facebook-Seiten von Nestlé und KitKat ein und per Twitter um die Welt. Einige Social Media-Experten hatten mit dem Konzern regelrecht Mitleid und sahen in der Online-PR-Schlacht Greenpeace in der Rolle des Goliath. Mit der Professionalität, mit der viele NGOs das Social Web nutzen, können die meisten Konzerne in der Tat nicht mithalten.

Nahezu einig waren sich alle, dass diese Kampagne einen immensen Schaden angerichtet habe. Klingt zunächst logisch bei all dem Wirbel, aber wie äußert sich das? Der Entwicklung des Aktienkurses hat die Kampagne langfristig wohl nicht geschadet, selbst der kurzfristige Einfluss ist zu bezweifeln. Ist der Absatz eingebrochen? Nestlé wird es uns nicht sagen. Wer einen Tankstellenbetreiber oder Supermarktinhaber kennt, könnte eine Stichprobe ziehen. Ich habe Anfang des Monats Brian Melican losgeschickt, und zwar nach Croydon, London, den Sitz von Nestle im UK.

Brian Melican
Brian Melican, Foto von Iris Jungels

Brians Bericht in Kürze:

Befragte: 6 Engländer, Alter 20-30
Datum: 2. April, Karfreitag
Kontext: Kneipengespräch

Die Demonstration war fast allen bekannt, also hat sich die Aktion in Sachen Medienaufmerksamkeit und Mundpropaganda behauptet. Das Kaufverhalten wird aber wohl wenig geändert – vor allem wegen Ostern ist Schokolade hoch im Kurs und keiner will auf Nestle-Schokolade verzichten.

Zitate:
„Of course it’s not right that they’re ripping down trees for orangutans, but KitKat Chunky are just soooo good.“
„I’m not going to stop buying KitKats because of it – I like biting off the chocolate round the biscuit and you can’t do that so well with other chocolate bars.“
„It’s Easter and I want a KitKat easter egg for chist’s sake! F*** the orangutans.“

Gut, diese Umfrage ist alles andere als repräsentativ. Vor allem aber ist sie für jemanden, der sich größtenteils im Social Web bewegt und informiert, völlig kontraintuitiv. Es haben sich doch alle entrüstet, oder?

Wir haben hier ein vom Unternehmen angestoßenes Issue (Abmahnungen), eine „Grassroots-Geschichte“ (Ekelvideos) und eine koordinierte Attacke (Orang Utan). Sie unterscheiden sich in Konstellation der Beteiligten, Themendimension und Auswirkungen. Gemeinsam ist ihnen aber, dass sie für einige Tage „Aufmacher“ der Blogosphäre waren. Wer spürt einmal mit wissenschaftlicher Methodik den „Erfolgsfaktoren“ von solchen Social Media-Aufregern nach? Ich könnte mir vorstellen, dass es Unternehmen und NGOs gibt, die eine solche Studie fördern würden.

Einen Schluss wage ich schon selbst aus diesen und anderen beobachteten Fällen zu ziehen: Für die realweltlichen und wirtschaftlichen Auswirkungen ist die schiere Menge der negativen Online-Äußerungen nachrangig. Wie beim Eyjafjallajökull: Entscheidend ist nicht die Staubwolke allein, sondern die Reaktion, die sie hervorruft.

Ergänzung: Jeremyah Owang führt eine lange Liste von Marken, die ins Social Media-Kreuzfeuer gerieten.

blog Fernsehwerbung: Ein Rückblick in die Gegenwart Beitrag über , , vom 30. März 2010

1

Wenn ich „richtiges“ Fernsehen schaue, sehe ich mir aus einer Art ethnologischer Neugier die Werbespots an. Und jedes Mal legt sich ein imaginärer Sepia-Schleier über die digital nachgesättigten Farben. Die seidig glänzenden Haarspray-Powerfrauen, die lachenden Staubtuch-Muttis und smarten Mittelklassewagenfahrer stehen für mich in einer Reihe mit Klementine aus der Ariel-Werbung. Relikte aus einer anderen, heilen, geordneten Welt. Einer vergangenen.

Seiten: Prev 1 2 3 4 5 6 7 8 Next