Mensch & Computer und Usability Professionals 2012 – vier Tage im Paradies*

Anfang September fanden in Konstanz die beiden (seit 9 Jahren gemeinsam durchgeführten) Konferenzen Mensch & Computer und Usability Professionals 2012 statt. Wolfram war vier Tage vor Ort und hat selbst einen Vortrag gehalten. Er fasst seine Eindrücke aus über 25 Vorträgen, 30 Notizbuchseiten und unzähligen inspirativen Gesprächen und konstruktiven Diskussionen zusammen.

Das Motto der Konferenz war “interaktiv informiert – allgegenwärtig, allumfassend”. Und genau darum ging es vier Tage lang: Um Interaktion und Information im Zusammenhang mit mehr oder weniger stets verfügbaren digitalen Medien. Welche Herausforderungen ergeben sich in der digitalen Informationsgesellschaft für Usability und User Experience Professionals und allgemein für Experten, die in irgendeiner Form digitale Services verantworten.

Der Input war qualitativ und quantitativ extrem hoch! Das “Problem” dadurch: Ich wurde tatsächlich (zu) allumfassend informiert. Information Overflow im positiven Sinne! :-)

Einige ausgewählte Vorträge und die wesentlichen Gedanken, Interpretationen und Erkenntnisse:

Die Keynotes von Miriam Meckel und Giles Colborne gehörten definitiv zu den Highlights der Konferenz.

Kann das Internet unser Denken verändern?

Miriam Meckel (Autorin von NEXT) beleuchtete unter dem Titel “Total Recall – wie das Internet unser Denken verändern könnte” kritisch das Thema Internet und unter anderem die Frage was die technologische Vernetzung mit uns macht oder machen könnte. Wird der Unterschied zwischen Menschen und Computern irgendwann verschwinden? Gibt es noch Zufälle in einer Welt, in der durch Algorithmen und immer intelligentere Computer alles vorausgesagt werden kann? Gibt es noch zufällige Entdeckungen? Zum Beispiel eine Beziehung, die entsteht, weil sich zwei Menschen zufällig treffen oder ein Thema, das man zufällig beim Aufschlagen einer Zeitung entdeckt? Es besteht die Gefahr des Scheuklappenverhaltens und -denkens. Traditionelle Informationsversorgung ist/war stärker von Zufall getrieben, als es heute der Fall ist. Alles ist vorbestimmt. Es gibt Systeme, die heute schon voraussagen können was wir in den nächsten fünf Tagen machen werden. Gedankenerkennung ist heute schon möglich. “Mind reading is no longer science fiction” [IBM] (Stichwort “brain to xxx”).

Witziges und nachdenklich machendes Video zugleich: “AI vs. AI. Two chatbots talking to each other”

Außerdem sprach sie noch drei weitere Punkte an:

  • Weltkurzsichtigkeit: Selektierte Informationen auf Basis von persönlichem Verhalten oder persönlichen Daten (die Konstellation und Zimmerbelegung in US Colleges wird heute über Algorithmen festgelegt).
  • Digitale Demenz: Es wird eine Veränderung der Wahrnehmung stattfinden. Wir stehen am Beginn eines erheblichen Veränderungsprozesses in der Nutzung kognitiver Fähigkeit (dieses Problem kann man offensichtlich objektiver ansprechen als es Manfred Spitzer tut).
  • Differenzprobleme: Wie sehen wir die Welt und was bedeutet das? Eine Beobachtung der 2. Ordnung funktionert nicht, weil die Schnittstelle in uns selbst ist (Beobachtungs-Interpretationsproblem: Wir können uns nicht beim Beobachten beobachten).

“Die Freiheit des Menschen liegt nicht darin, dass er tun kann, was er will, sondern, dass er nicht tun muss, was er nicht will.” [Jean-Jacques Rousseau]

Meckel kommt zu dem Schluss, dass wir menschliche Intelligenz brauchen. Genauso wie Zufall und Serendipity.

Problem: Ablenkung durch (zu viele) digitale Medien

Giles Colborne, den ich schon im November 2011 auf der MobX Conference in Berlin sehen durfte, beleuchtete ein weiteres Problem der Digitalen Gesellschaft: Ablenkung. In seinem Vortrag “Driven to distraction” ging er speziell auf das Multitasking-Problem ein (Man kann nicht multitasken. Und es ist ineffizient.). Stichwort “Cognitive Breakdown”. Sein Ansatz lässt sich in fünf Tipps zusammenfassen:

  1. Minimise distraction (E-Mail Notification ausschalten und stattdessen 15-minütige Zeitfenster bewusst dafür verwenden)
  2. Focus (z.B. eine Lese-Anwendung, die die relevanten Stellen fokusiert/highlightet).
  3. Increase Motivation (z.B. durch Gamification)
  4. Decrease pressure (Entscheidungen erleichtern, in dem zum Beispiel nachträgliche Änderungen angeboten und kommuniziert werden)
  5. Facilitate recovery (Bsp. Textsuche im Firefox-Browser)

Und, ganz wichtig: Understand context!

Aus dem Publikum kamen noch zwei interessante Einwürfe: Ein sechstes Prinzip könnte “Design for awareness” sein und man könnte/sollte differenzieren zwischen positiver und negativer Ablenkung.

UX braucht Unterstützung von ganz oben!

Henning Brau (ehemals Präsident der German UPA) referierte in seinem Tutorial “Designstrategie und Organisationelle Fitness” über das leidige Problem, dass für User Experience, Usability oder allgemein Website Projekte oft die nötige Unterstützung in den Unternehmen fehlt. Und deshalb ist es oft auch schwierig entsprechende Projekte erfolgreich umzusetzen. Er stellt dazu zwei Hypothesen auf. Erstens: “UCD-Kreuzzüge” (UCD = User Centered Design) mit Defizitorientierung sind problematisch (“Ihr könnt das nicht, also lasst uns mal machen.”). Der typische Elefant im Porzellanladen. Die angesprochenen bzw. abzulösenden ehemals Verantwortlichen schalten auf stur. Nichts geht mehr. Die zweite Hypothese: Es gibt keine passenden Vorgehensmodelle. Weder vor noch nach dem Projekt. Um eine Designstrategie einzuführen, muss man sich für einen Designprozess entscheiden, man muss ihn definieren.

In dem Zusammenhang gibt es drei wichtige organisatorische Ebenen (von oben nach unten): Normativ (Chef, Vorstand, etc.), strategisch (oberes, mittleres, unteres Management) und operativ (die Mitarbeiter). Im Optimalfall sollte der Vorstand die Organisationskultur vorgeben: Gemeinsame Ziele und Werte, Organisationsgestaltung, Vorhabenrealisierung, Zusammenarbeitsformen. Nur wenn von der normativen Ebene die Unterstützung garantiert ist, kann über den operativen Bereich (falls überhaupt noch notwendig) die strategische Ebene überzeugt werden. Alle müssen auf eine Linie gebracht werden und am gleichen Strang ziehen. Grabenkämpfe, persönliche Eitelkeiten und Kompetenzgerangel behindern und führen oft zum Scheitern von Projekten. Designstrategie und Corporate Identity stehen in einer Wechselbeziehung. Organisation und Designstrategie müssen zusammenpassen (“fit”!).

Mammutaufgabe Icon-Redesign

Ulf Schubert und Nadine Schoenherr berichteten über ihre Erfahrungen aus einem umfangreichen Icon- und Interface-Redesign Projekt bei Datev. Aus rund 2000 bestehenden Icons wurden letztlich ca. 700 umgesetzt. Eine Mammutaufgabe! Die Definition der Icons basiert auf drei Elementen: Semantik + Syntax + visueller Stil. Wichtig dabei ist, dass die Projekte designgetrieben sind – das heißt, dass die Designer in einem solchen Prozess den Hut aufhaben sollten. Auch die beiden empfehlen (wie Henning Brau), dass die Projekte “von oben abgesegnet” sein sollten. Der Icon Design Prozess bei Datev ist nachvollziehbar aufgebaut: benötigte Icons auflisten, persönliche Durchsprache (Experten fragen), Icons zuweisen, fachliche Abstimmung und Prüfung mit den Fachabteilungen (es geht nicht um persönlichen Geschmack) und Umsetzung. In der “Semantikrunde” bei der Icon-Zuweisung sollten alle Designer und Entwickler mitarbeiten. Probleme kann es geben, wenn Missverständnisse bei der Icon-Umstellung auftreten (Worum geht es genau? Werden die Icons nur aufgehübscht? Werden Zuständigkeiten neu verteilt?). Kompetenzen, Rollen, Zuständigkeiten aller Beteiligten und die zusätzlichen Aufgaben für die Designer müssen klar definiert und kommuniziert werden. Bei der Pflege der Icons können ein Wiki als Semantikbibliothek oder eine Excel-Liste helfen.

User Experience Trends

Dr. Markus Weber untersuchte UX (User Experience) Trends und lieferte unter dem Motto “Nur weil es viele Retweets kriegt, ist es noch lange nicht richtig!” eine kritische Betrachtung des Themas. Er hat dabei einige bekannte Fragen aufgegriffen und mögliche Antworten geliefert. Die UX Community setzt sich aus unterschiedlichsten Disziplinen zusammen, tauscht sich auf Konferenzen aus und Kommuniziert über Blogs, Twitter und andere Plattformen. Oft sagt man “UX Design”, meint in Wirklichkeit aber “Web Design”. Die (subjektive) Begriffsdefinition kann zwar langweilig sein, ist aber essenziell für eine weiterführende Diskussion. Diese basieren teilweise auf UX Mythen. Oft geht es auch um Pseudopsychologie oder es herrscht ein wenig zielführender Methoden-Wettkampf. An dieser Stelle möchte ich auf (m)eine Definition von “(User) Experience (Design)” verweisen, die auf einem längeren Artikel von Marc Hassenzahl basiert.

Die vier Phasen der Website-Nutzung

Dr. Meinald Thielsch referierte in der Session “Webseitenanalyse” in seinem mit dem Best Paper Award ausgezeichneten Vortrag über “Das Zusammenspiel von Website-Inhalten, Usability und Ästhetik”. Die Untersuchung von Usability und Ästhetik sind gang und gäbe. Er hat den zusätzlichen Faktor Inhalt hinzugenommen und die Interkorrelationen dieser drei Konstrukte wissenschaftlich untersucht und mit diversen Formeln hergeleitet. Ihm zufolge gibt es vier Stufen oder Phasen der Website-Nutzung:

  1. Ersteindruck
  2. Gesamteindruck
  3. Wiederbesuchsbereitschaft
  4. Bereitschaft eine Website oder einen Link weiterzuempfehlen

In seiner Untersuchung konnte er die Erkenntnis von Gitte Lindgaard, dass man nur 50 Millisekunden für einen Ersteindruck braucht, nicht widerlegen – obwohl er es versucht hat. (“You have 50 milliseconds to make a good first impression.”). Diese Zeitspanne und die These beziehen sich zwar nur auf die Ästhetik, scheinen aber fundiert und korrekt zu sein. Usability und Inhalt lassen sich in so kurzer Zeit nicht beurteilen.

Trotz aller Wissenschaftlichkeit hat Meinald Thielsch seine Erkenntnisse (bezogen auf die vier Phasen der Website-Nutzung) verständlich rüber gebracht. Er hat die Relevanz der drei untersuchten Faktoren wie folgt identifziert:

  1. Ersteindruck: Ästhetik
  2. Gesamteindruck: Inhalt, Ästhetik, (ein bisschen Usability)
  3. Wiederbesuchsbereitschaft: Inhalt (ein bisschen Ästhetik)
  4. Bereitschaft eine Website oder einen Link weiterzuempfehlen: Inhalt.

Vereinfacht lässt sich daraus schließen, dass die Ästhetik für den Ersteindruck elementar ist, in allen anderen Phasen dagegen spielt der Inhalt die entscheidende Rolle.

Für die Praxis leitet er folgende Empfehlungen ab: Man darf Design, Seitenarchitektur und Inhalt nicht trennen. Ästhetik ist großteils “Deko”, der Inhalt ist handlungsrelevant. Man muss bei Tests unbedingt alle Phasen untersuchen. Die Untersuchung des Ersteindrucks greift viel zu kurz. Web-Usability-Tests übersehen oft relevante Informationen.

Aus wissenschaftlicher Sicht folgert er, dass Inhalt, Usability und Ästhetik einen unterschiedlichen Einfluss auf die Phasen haben, dass man die relevante Phase genau betrachten muss und dass UX (User Experience) und HCI (Human Computer Interaction) Forscher dem Inhalt mehr Beachtung schenken sollten.

Für mich persönlich schließe ich aus dieser Studie, dass wir mit unserem Kernthema “Content Strategy” den richtigen Fokus haben, dass Informationen und Datenmanagement Kern aller Informationsdienste sind und dass das “Weiterempfehlen” (Social Web, Community, Vernetzung, Informationsverbreitung über Twitter und Facebook, etc.) ein entscheidender Faktor für die (Beurteilung der) Website-Qualität darstellt.

Allgemeingültige Personabeschreibungen auf Meta-Ebene

Malte Krökel stellte in dem sehr interessanten Vortrag “Milieubeschreibungen als Meta-Personas” (s)einen neuen Ansatz der User Experience Evaluation vor. Die Idee dazu kam ihm bei der Frage, ob es eine produktübergreifende Personagestaltung geben kann. Dazu kombinierte er seine Meta-Personas mit den Sinus-Mileus. Ein wichtiger Aspekt dabei war die Frage wie die Nutzertypen aus den Sinus-Milieus das Internet nutzen. Für den emotionalen Parameter der Personabeschreibung verwendete er die Be-Goals von/nach Hassenzahl und Burmester. Einen interessanten deutschen Artikel dazu findet man hier. Das Fazit seines Vortrags: Man kann Testpersonen nach Milieus rekrutieren, Produkte gegen Zielgruppen testen, Studienergebnisse vergleichen und letztlich eine produktübergreifende Persona-Gestaltung vornehmen. Sein Ansatz und vor allem dieser letzte Punkte führte anschließend zu einer kontroversen und konstruktiven Diskussion im Bezug auf  Persona-Modellierung für die User Research Phase. Auf jeden Fall können Meta-Personas (und das ist auch meine Meinung) die Rekrutierung eingrenzen und die Abstimmung eines Projekts und die Kommunikation über die relevanten Zielgruppen vereinfachen.

Ich finde die Idee von Malte unter anderem deshalb so interessant, weil wir in unserem Multiscreen Experience Projekt einen ähnlichen Ansatz (nur mit anderen Quellen) verfolgen. Statt der Sinus-Milieus haben wir die Einteilung unserer Persona-Beschreibungen auf Basis der Nutzertypen der Studie D21 vorgenommen. Für die emotionalen Parameter greifen wir auf die Limbic Map von Hans-Georg Häusel zurück.

Cross-Plattform und Multiscreen Experience

Mein Vortrag zu Multiscreen Experience Design war gemeinsam mit dem Vortrag von Björn Oltmanns in der Session Cross-Plattform UX dran. Die beiden Vorträge haben sich sehr gut ergänzt. Björn lieferte fundierte Einblicke in die Probleme und Fallstricke bei der Entwicklung von Websites und Apps für mobile Endgeräte. Braucht man eine App (nativ oder hybrid?) oder reicht eine Website? Weiter erörterte er Chancen und Herausforderungen mit HTML 5 und die zunehmende Gerätefragmentierung. Es gibt beispielsweise über 3000 verschiedene Auflösungen bei mobilen Endgeräten. Er kam zu der Erkenntnis, dass man eine optimale User Experience nur mit nativen Apps erreichen kann. Aber auch das ist natürlich wieder eine Budget-Frage und hat großen Einfluss auf die Pflege und Aktualisierung der Inhalte und Anwendungen für die verschiedenen Plattformen (Maintenance). Die anschließende Diskussion leitete mehr oder weniger direkt zu meinem Vortrag über. Dadurch konnte ich nahtlos in das Thema einsteigen und mich teilweise auf die zuvor besprochenen Tipps und Erkenntnisse berufen.

Der Inhalt meines Vortrags in drei Sätzen zusammengefasst: Multiscreen gehört zum Kern einer professionellen Kommunikationsstrategie. Deshalb muss man zukünftig ein ganzheitliches Konzept für mehrere Screens entwickeln. Das kann man mit bekannten Mustern und Prinzipien oder mit Hilfe des Multiscreen Experience Toolkits machen.

Die elementaren Faktoren, die man kennen und einsetzen sollte, sind die vier mittelfristig relevanten Screens bzw. Endgeräte (Smartphone, Tablet-PC, PC und TV), die Anwender und der Nutzungskontext. Für alle drei Faktoren haben wir in unserem Projekt Prototypen entwickelt, die Hilfestellung geben eine möglichst fließende Multiscreen Experience zu konzipieren.

Wer sich im Detail für das Thema interessiert, darf mich gerne jederzeit kontaktieren oder kann einen Blick in den Vortrag werfen. Wird werden voraussichtlich dieses Jahr ein Buch dazu veröffentlichen, in dem die einzelnen Muster, Tipps und Beispiele ausführlich erläutert werden. Mehr zum Buch auf der Ankündigungsseite (dort kann man auch seine E-Mail hinterlegen um sich über den Erscheiungstermin informieren zu lassen).

Mein Vortrag auf Slideshare:
Multiscreen Experience Design (September 2012, MuC UP12)
from Wolfram Nagel

Das Feedback zum Vortrag war sehr positiv. Das freut mich! Die Fragen aus dem Publikum waren interessant. Zu zweien möchte ich nochmal kurz Stellung nehmen.

  1. Ich glaube nicht, dass es irgendwann mal einen Standard geben wird. Die Interessen der Anbieter sind zu verschieden. Der einzige Standard wird vermutlich der Browser bzw. HTML bleiben.
  2. Ob Content-Anbieter ihren Inhalt irgendwann freigeben werden (Open Content) lässt sich schwer sagen. Manche sicherlich. Der Ansatz von npr “Create Once, Publish Everywhere” ist gut und richtig. Ich denke, dass nur die, die sich der Dynamik des Webs öffnen und Schnittstellen und mehr oder weniger offene Inhalte anbieten, erfolgreich sein können. Dazu müssen natürlich entsprechende Monetarisierungsmodelle erarbeitet werden. Wenn Content nicht offen ist, werden sich Anwender immer irgendwie Lösungen oder Workarounds bauen, um dies zu umgehen oder sie werden den “geschlossenen”, schwerzugänglichen und nicht Cross-Plattform-fähigen Inhalt ignorieren. Ein Trend, der schon länger und deutlich in diese Richtung geht sind RSS-Feeds, Content-Aggregatoren wie Pulse oder Flipboard oder Bookmarking-Dienste wie Instapaper oder Read Later. Bei den damit aggregierten Inhalten ist der Autor oder die Ursprungsquelle oft nicht mehr eindeutig zu identifizieren.

Das Thema Multiscreen ist angekommen. Nicht zuletzt durch die kürzlich veröffentlichte Google-Studie. Die Problematik und die Herausforderungen sind grundsätzlich bekannt. Es liegt an uns nun entsprechende Konzepte und Strategien für die Informationsgesellschaft zu entwickeln, die dem geänderten Nutzungsverhalten typischer Multiscreener, die ständig ein digitales Endgerät bei oder um sich haben, gerecht werden.

User Experience und Innovation

Um den Nachbericht nicht endlos werden zu lassen, möchte ich stellvertretend für die vielen guten Vorträge stichwortartig noch ein paar wesentliche Erkenntnisse und Gedanken (teilweise von mir interpretiert) auflisten.

UX in frühen Phasen des Innovationsprozesses (Pietschmann, Winter)

  • Beim Thema Innovation herrscht noch große Unsicherheit. Innovation braucht UX (User Experience) um sich vom Wettbewerb abzusetzen.
  • Ein mögliches Modell für den Innovationsprozess: Ideengenerierung – Ideenakzeptierung – Ideenverwirklichung
  • Man sollte in allen Phasen ein einheitliches Werkzeug benutzen.
  • Zur Dokumentation und Verwaltung von Ideen bietet es sich an eine Ideenmatrix zu benutzen (verworfene Ideen für später aufbewahren)
  • Das Wissen und die Bedeutung von und über User Experience ist relevant (siehe Definitionen weiter oben)
  • UX gehört als Bewertungsmethode in den Innovationsprozess
  • Die UX-Qualität steht und fällt mit dem Einsatz von Experten

Privacy und Datenschutz am Beispiel Google

Privacy UX – Was ist datenschutzbezogene User Experience? (Hatscher, Schnorf, Ortlieb, Kormann-Philipson)

  • Das Privacy Engineering Team bei Google umfasst rund 70 Leute
  • Privacy UX wird immer wichtiger (immer wenn es um Nutzerdaten geht)
  • Nutzer wünschen sich Transparenz und Kontrolle
  • Privacy ist nach innen und außen relevant und muss als Qualitätsaspekt gesehen werden.
  • Es gibt noch keine Qualitätskriterien
  • Komplexes Themenfeld
  • Unterstützung von ganz oben ist wichtig (Privacy muss Teil der Prozesse sein)
  • Die Nutzerperspektive wurde bisher selten behandelt.
  • Das Forschungsprojekt “User Perceptions of Privacy” kommt zu vier Erkenntnissen:
    • Der Zugriff auf Daten durch andere bekannte Personen ist ein “Problem” für Anwender.
    • Nutzer wissen oft nicht welche Daten online über sie verfügbar sind.
    • Nutzer sind besorgt aufgrund von Daten, die online über sie verfügbar sind, unfair bewertet zu werden.
    • Nutzer wünschen sich von Google (und anderen) Hilfe und Strategien für ein sicheres Online-Leben.

Abschließend noch ein paar ganz kompakte Vortrags-Fazits:

Fokusgruppen, UX Management und Net Promoter Score

Oft ist es unpraktikabel Fokusgruppen von überall her einzuladen. Asynchrone oder synchron getestete Fokusgruppen sind eine sinnvolle Alternative (Online-Befragung bzw. Online-Diskussion, entweder geführt oder orts- und zeitunabhängig für die Teilnehmer). Asynchrone Remote-Tests sind eine sinnvolle Alternative zu aufwändigen Laborstudien (remote = räumliche Trennung, asynchron = zeitlich entkoppelt). Diese Tests lassen sich auf Plattformen wie Amazon Mechanical Turk einstellen und durchführen.

UX Management Frameworks (mit vorgegebenen Methoden für einzelne Aufgabenbereiche wie Design, Entwurf, Nutzer oder Konzeption) können helfen Prozesse zu strukturieren. Ein Lastenheft braucht Bilder, wenn es verstanden werden soll.

Bei der NPS-Methode (Net Promoter Score) wird nur eine Frage gestellt, die auf einer 11-stufigen Skala (0 bis 10) bewertet werden kann: “Würden Sie XY weiterempfehlen?” Das führt oft zu Kritik. Die Methode funktioniert aber und liefert sinnvolle Ergebnisse. ImmobilienScout 24 hat diese eine Frage mit einem zusätzlichen Freitext-Feld ergänzt und die semantischen Cluster mit Hilfe einer Treiberanalyse ausgewertet. Grundsätzlich gibt es Faktoren, die, wenn sie vorhanden sind, nicht zu Zufriedenheit führen. Das Nichtvorhandensein dieser Faktoren führt dagegen zu deutlicher Unzufriedenheit. Man sollte auf jeden Fall nicht nur den Durchschnitt auswerten, sondern auch die Skala der Treiberanalyse berücksichtigen. Dann steigt der Mehrwert des Ergebnisses.

Content is King und Designmethoden sind elementar!

Eine Meta-Erkenntnis, die ich von der Konferenz mitnehme, ist, dass Content Strategy (bzw. Inhalte allgemein), kritisches Hinterfragen von Projekteanfragen und der Design Thinking Ansatz (Kollaboration, Iteration, heterogene Teams) mit die relevantesten Themen sind.

 

Die Konferenz mit 700 Teilnehmern (Rekord) war toll. Es hat viel Spaß gemacht! Danke an alle Gesprächspartner, Referenten und die Organisatoren. Konstanz ist auf jeden Fall eine Reise wert. Ich komme wieder (zu beiden)… :-)

Ein paar Eindrücke, die ich während der vier Tage mit und auf Instagram gesammelt habe:

———————–

*Laut Grußwort wird die Universität Konstanz im Volksmund tatsächlich als Paradies bezeichnet. Das herrliche Wetter und die sensationelle Aussicht von der Mensa-Terrasse lieferten die entsprechenden Argumente dafür… :-)

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ photo

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s