Lassen Sie besser nicht Ihre Kunden die Qualitätskontrolle machen

Ich nenne es das „Microsoft-Prinzip“ … und es ist falsch. Seit vielen Jahren ist Microsoft bekannt dafür, halbgare Software auszuliefern, die nach und nach repariert werden durch Patches und „Service Packs“ auf der Basis der von Kunden gefundenen Fehler. Faktisch lässt Microsoft seine Kunden die Qualitätskontrolle (QC) machen.

 

Szenenwechsel. Vor einigen Jahren nahm ich an einem Lean-Process-Workshop teil. Um direkt zum Punkt zu kommen, der schließlich entwickelte „optimierte“ und ‚lean‘ Prozess verzichtete auf eine Ausgangskontrolle und schob den abschließenden Schritt der finalen Qualitätskontrolle zum Kunden. Um fair zu sein, wir hatten einige schlaue neue QC Zwischenchecks an Übergabe-Schnittstellen im Prozess eingebaut … aber die Prüfung, dass das Produkt abschließend in Ordnung war, wurde faktisch übergeben.

Ich war damals sehr überrascht, der Einzige zu sein, der widersprach und offen insistierte „das ist schlicht und einfach Mist!

An diesem Punkt muss ich anmerken, dass ich mit einem Erfahrungshorizont kam, der sich von dem  der Anderen unterschied. Bevor ich zu der pharmazeutischen Firma kam (für welche ich zu diesem Zeitpunkt arbeite), hatte ich ca. 10 Jahre lang mein eigenes kleines Service-Unternehmen. Ich war davon durchdrungen, dass sich Kunden typischerweise wünschen bzw. klar erwarten, für Ihr Geld zuverlässige Qualität zu bekommen. Und ich denke bis heute, sie können das auch erwarten. Ich tue das ja auch. Als Service-Provider war es immer eine großartige und unglaublich befriedigende Erfahrung, vom Kunden das Feedback zu bekommen, dass er ebenfalls zufrieden war mit einer qualitativ hochwertigen, fehlerfreien Lieferung. Ich kann nur sagen, es macht wirklich Spaß, sein eigenes Produkt vom Kunden wertgeschätzt zu erleben.

 

Selbstverständlich braucht es immer auch eine explizite Endabnahme durch den Kunden, mit der zwangsläufig eine – wie auch immer gestaltete Form der – kundenseitigen Kontrolle einhergeht. Alleine aus vertragsrechtlichen Gründen.  Aber das meine ich hier nicht. Idealerweise sollte der Kunde hierbei nämlich nichts finden. Zumindest keine Flüchtigkeitsfehler oder fehlerhaften Produkte, die durch eine geeignete Ausgangskontrolle identifiziert und zurückgehalten hätten werden können.

Erneuter Szenenwechsel. Vor kurzem arbeitete ich mit einer Agentur, deren Lieferungen ich immer wieder gegenprüfen und kleinere wie grössere Fehler korrigieren musste. Aus meiner Sicht tat ich deren Arbeit. Und wir sprechen hier von Fehlern, die augenscheinlich waren und durch einen einfachen Gegencheck auf Agenturseite vor Ablieferung ausgemerzt hätten werden können. Ich fragte mich selber, warum ich eigentlich einen Teil der Arbeit tat, für die ich bezahlte? Ich persönlich erwarte ganz klar zuverlässige und ausgereifte Produkte bzw. Werke, die abschließend qualitätsgeprüft sind, bevor sie in meiner Inbox landen. Diese Agentur nervte mich.

War dies die Basis einer langen, fruchtbaren Zusammenarbeit?

Ich denke nicht.

 

Lange Rede kurzer Sinn, das Abliefern ordentlich qualitätsgeprüfte Produkte kann besser für Ihr Business sein als „über-lean“ zu sein. Spielen Sie nicht Microsoft solange Sie nicht dieselbe Monopolstellung haben.

Machen Sie durch Qualität im Detail zufrieden … und genießen Sie im Gegenzug eigene Zufriedenheit und Erfolg!

Keine Angst, liebe Docs: Fehler melden, rettet Leben

Die Relevanz mancher Dinge offenbart sich viel konkreter, wenn man selbst betroffen ist. Klinisches Qualitätsmanagement ist genau so eine Sache.

Vor längerer Zeit hatte ich eine OP, während der ein feinchirurgisches Instrument – ein winziger Bohrer – die Auseinandersetzung mit meinem Schädelknochen aufgab und abbrach. Kann passieren. Allerdings wurde der winzige abgebrochene Bohrkopf nie gefunden, nicht im OP und auch nicht beim der Suche per CRT.

Interessant war auch die erste Visite des operierenden Chefarztes nach der OP. Nach einigen Ausführungen zum generellen Operationsverlauf und -erfolg, hatte er sich eigentlich schon zum Gehen gewendet. Auf einen dezenten Stupser seiner assistierenden Oberärztin hin, dreht er sich jedoch nochmal zu mir, und informierte mich über das Ereignis; in meiner Wahrnehmung fast ein bisschen im Stil von „Ach-ja-da-war-ja-noch-was“. Die Verlegenheit war ihm deutlich anzusehen.

Soweit ging aber alles für mich OK. Das entscheidende war jedoch, dass es in meinem Fall keine interne Meldung des Vorfalls als kritisches Ereignis oder Beinahe-Schaden gab, wie gemäß klinikeigenem QM-System (Qualitätsmanagementsystem) eigentlich vorgeschrieben.

Fazit: Die Chance aus dem Vorfall zu lernen bzw. oder zumindest die Qualität des verwendeten Materials zu überprüfen wurde fahrlässig vertan. Im Ergebnis wurde das Folgerisiko ähnlicher Ereignisse nicht reduziert, und weitere ähnliche Fälle bei anderen Patienten können zukünftig nicht ausgeschlossen werden.

Aber woran war es gescheitert?

Das Klinikum, an welchem ich operiert wurde, hatte ein respektables QM-System implementiert und zertifiziert. Das zugehörige klinische Risikomanagement einschließlich anonymisiertem internen Meldewesen (CIRS) war zwar noch relativ jung, aber am Platz. Eigentlich waren Prozesse und Tools vorhanden, die eine vorgeschriebene Bearbeitung des unerwünschten Ereignisses erlaubt hätten.

Nein, ich denke hier war mal wieder „Culture eats strategy for breakfast“ (Peter Drucker) am Werk. Prozesse, Tools, Systeme, Strategien sind keine Lösung sondern nur Hilfsmittel. Und als solche sind sie Nichts in einer Kultur, in der die zugrundeliegenden Prinzipien und Werte nicht gelebt bzw. mit Überzeugung täglich umgesetzt werden. Ganz einfach gesagt, die nutzerfreundlichste Meldemaske im Intranet ist nur Makulatur, wenn sie keiner benutzt (z.B. weil man keinen Vorteil oder sogar Nachteile damit verbindet).

Aus meiner Sicht haben Menschen versagt, aus unterschiedlichen Gründen.

Erstmal habe ich selber, der Patient, versagt, weil auch ich in der Pflicht war, das Ereignis zu melden. Möglichkeiten, dies anonymisiert zu tun, waren vorhanden und ich war ausreichend darauf hingewiesen worden. Sicher hat man nach einer schwerwiegenden OP oder Behandlung erst einmal andere Probleme. Doch auch ich war in der Pflicht.

Und selbstredend hatte das gesamte medizinische Fachpersonal versagt, vom operierenden Chefarzt über die assistierenden Mediziner bis zu den beteiligten Krankenpflegern. Jeder Einzelne von ihnen wäre definitiv verpflichtet gewesen, das kritische Ereignis zu melden. Meiner Meinung nach war Angst der wesentliche Motivator, dies nicht zu tun. Angst vor Reputationsverlust, Angst vor einer möglichen Patientenklage, Angst vor Regressforderungen der Krankenkassen für notwendige Folgeuntersuchungen (z.B. CRT zum Aufspüren des verlorenen Bohrkopfes), Angst des Untergebenen vor möglichen Repressalien des Chefs, Angst vor Veränderungen aufgrund von resultierenden Risikovorbeugemaßnahmen, Angst vor der eigenen überzogenen Selbstwahrnehmung als Arzt, der keine Fehler macht bzw. machen darf. Nun ist Angst ohnehin – davon bin ich zutiefst überzeugt – grundsätzlich ein schlechter Ratgeber. Im vorliegenden Fall wirkte sie sich jedoch fatal aus, weil sie Menschen mit konkreter Verantwortung davon abhielt das Richtige und Notwendige zu tun. Und weil sie beispielsweise verhinderte, dass die Qualität der verwendeten chirurgischen Bohrer hinterfragt und überprüft wurde.

Letztlich hatte auch die Klinikleitung versagt, weil sie es nicht geschafft hatte, eine Kultur des offenen Umgangs mit Fehlern zu schaffen, ohne die kein klinisches Risikomanagement funktionieren kann. Leider findet man noch sehr oft Ressentiments seitens des klinischen Personals gegenüber Qualitätsmanagement und – instrumenten. Diese werden immer wieder nicht als Chance sondern als Last betrachtet. Es braucht einen echten top-down-approach, um diese Sichtweise zu ändern.

Für mich als betroffenem Patienten war nicht das Ereignis an sich schlimm. Bohrköpfe können brechen und Mediziner sind auch nur Menschen. Ich finde schlimm, dass Angst, Hybris und Faulheit einen Lerneffekt behindern, der es erlaubt hätte, das Risiko von ähnlichen Folgeereignissen zu vermindern. Ein Folgerisiko, dass auch mich selber wieder treffen kann.

Daher habe ich mir vorgenommen, dass – sollte ich wieder einmal von einem unerwünschten Ereignis oder Fehler  konfrontiert sein – die Situation ohne Scheu anzusprechen und aktiv das Lernen daraus einzufordern. Schon in meinem ganz ureigenen Interesse.

Klinisches Qualitäts- und Risikomanagement machen nur Sinn, wenn alle mitmachen.

 


Mehr dazu …

Ein Kommentar zu „Satiriker Sonneborn lässt Oettinger auflaufen“

Am 01. Oktober erschien in der Welt Kompakt ein Artikel mit der Überschrift „Satiriker Sonneborn lässt Oettinger auflaufen“ zur Befragung Günther Oettingers als designierter EU-„Digitalkommissar“ durch das EU-Parlament.

Da die Kommentarfunktion dieses WELT-Artikels leider heute schon ausgeschaltet war, das Ganze aber meiner Meinung nach nicht unkommentiert stehen gelassen werden sollte, schreibe ich meine Gedanken kurz hier und hoffe, dass sie ihren Adressaten finden.

 

Lieber leider ungenannter Autor,

 

Sie berichten in Ihrem Artikel über eine Aussage des designierten EU-Kommissars Oettinger. Dieser hatte auf die Frage, wie Bürger im Internet geschützt werden können, geantwortet, dass man Menschen, die beispielsweise Nacktbilder von sich ins Netz stellen, kaum schützen kann. In Folge machten Sie sich über das angeblich unvollständige Verständnis Oettingers zur „Welt des Internets“ lustig, weil dieser das Abspeichern in kennwortgeschützten Cloudservices gleichsetze mit „ins Netz stellen“.

Ich bin mir ehrlich gesagt nicht sicher, ob Günther Oettinger da nicht weiter ist und eine klarere Sicht der „Welt des Internets“ hat als Sie, lieber Autor. Wie naiv kann man denn sein, wenn man Cloudservices seine intimsten Daten und Fotos anvertraut? Die dann auf einem Server auf der anderen Seite des Planeten stehen. Sie selber wissen – seien Sie ehrlich! – nicht einmal wirklich in welchem Land. Ihre persönlichsten Daten auf einem Serverspeicher, auf den eine unbekannte Anzahl Ihnen vollkommen unbekannter Menschen Zugriff hat.

Wer ist da tatsächlich erschreckend naiv? Wem fehlt da wirklich das vollständige Verständnis der „Welt des Internets“? Nein, lieber Autor, auch bei Cloudservices geben Sie faktisch und real Ihre  informatorische Selbstbestimmung auf. Und ich selber kann der verallgemeinernden Aussage Günther Oettingers nur voll zustimmen, dass es sehr dumm bzw. eigentlich richtig dämlich ist, Nacktfotos oder andere sensible Daten von sich ins „Netz“ zu stellen, auch und gerade in Cloudservices als Teil desselben.

Abschließend darf ich noch ergänzen, dass die vollkommen daneben gegriffene Wahl Ihrer Headline meinen Gesamteindruck des Artikels abrundet. EU-Abgeordneter Martin Sonneborn ist ganz sicher ein begnadeter Selbstdarsteller. Doch so toll war seine von Ihnen herausgegriffene Frage eigentlich gar nicht, auch kein echter Schenkelklopfer … und schon überhaupt gar nicht repräsentativ für die parlamentarische Vorstellung und Befragung von Günther Oettinger (der diese – mal so ganz nebenbei – im Gegensatz zu Anderen im ersten Anlauf mit Bravour absolvierte). Darf ich fragen, warum Sie ausgerechnet diese Momentaufnahme so herausstellen?

Ich würde mir wünschen, lieber namenloser WELT-Redakteur, dass Sie sich bei der zukünftigen journalistischen Begleitung digitaler Themen auf EU-Ebene weniger von sonnebornschen Wichtigtuern blenden lassen und mehr die wirklich kritischen und berichtenswerten Themen herausarbeiten. Da gibt es wahrhaftig genug. Auch für eine echte kritischen Begleitung der Arbeit des neuen Digitalkommissars. Pseudowitzigkeiten kann „Titanic“ besser, das ist da ganz gut aufgehoben. Von der WELT erwarte ich mehr.

 

In diesem Sinne mit Vorfreude,

Ihr ergebener Leser

 


Kurzanleitung Dilettantokratie

Anbei ein satirischer Blick auf die Schlüsselfaktoren zur erfolgreichen Einrichtung einer Dilettantokratie. Ähnlichkeiten mit realen Personen oder Unternehmen sind leider nicht immer zufällig … jedoch selbstverständlich niemals vorsätzlich beabsichtigt.

Mache die Finanzabteilung zum Staat im Staate

Produkte sind überbewertet. Endkunden lediglich propagandistisch nicht irrelevant. Qualität und Produktivität taugen maximal als nette buzz-words für interne Präsentationen. Fixiere die ganze Mannschaft ausschließlich auf das Thema Kosten, und gib der Finanzabteilung freie Hand, ohne jegliche Berücksichtigung des business impacts Ausgaben zu senken. Dann hast Du den halben Weg zur Dilettantokratie schon geschafft.

Besetze Posten kompetenzfrei

Besetze Positionen bevorzugt mit Mitarbeitern ohne belegbare inhaltliche Expertise oder Erfahrung. Fachwissen ist ohnehin komplett überbewertet und fördern maximal Silobildung. Und je weniger Fachkunde jemand mitbringt, umso mehr kann er sich entwickeln (bzw. entwickelt werden), man muss das ja auch einmal positiv sehen.

Besetze Führungspositionen fachkundefrei

Vor allem bei Führungspositionen im unteren Management braucht es keine Fachidioten, sondern potenzielle Querdenker, die viel können,  wenn auch nichts wirklich richtig, aber vor allem im Aufgabenbereich des Teams, das sie führen sollen, möglichst wenig inhaltliche Ahnung haben. Diese werden garantiert so dermaßen quer denken …

Breche Silos auf

OK, zugegeben, keiner weiß eigentlich wirklich, was so ein „Silo“ ist oder wann man als solches qualifiziert. Aber es hört sich gut an. Und man kann beliebigen Abteilungen oder Mitarbeitern jederzeit aus dem Stand „Silobildung“ vorwerfen. Im Endergebnis erreicht man mit dem „Silo“-brechen zumindest die völlige Zerstörung und Auflösung jeglicher Fachkompetenzcluster.

Strukturiere regelmäßig um

Je öfter desto besser, allerdings mindestens alle zwei Jahre. Bloß keine Ruhe aufkommen lassen, in der sich irgendjemand häuslich einrichten und konstruktiv arbeiten könnte. „Disruptive Innovation“ ist momentan sowieso ein Hype. Also, je mehr „Disruption“ desto mehr Innovation. Ist doch logisch!

Verzichte auf Change Management

Change Management ist eh nur was für Kopfgesteuerte. Aber bitte nicht falsch verstehen. Auf die business slides für’s Management und die betroffenen Mitarbeiter gehört das Thema absolut selbstredend. Aber in der realen Implementierung brauchen echte Macher das nicht.

Löchriges Peer-Review System

Das Peer-Review-prinzip für wissenschaftliche Publikationen ist in der Theorie eine gute Idee. In der Praxis jedoch gibt es immer wieder Löcher im System. Hier ein aktueller Fall bei Retraction Watch 

[…] weiterlesen …

Welche ist die bessere Publikation?

Wie kann man den Wert einer wissenschaftlichen Publikation messen?
Woran kann ich in einem Stapel Paper die wichtige(re)n erkennen?

Diese Fragen beschäftigen Wissenschaftler, Forschungsförderer und Nutzer wissenschaftlicher Information seit Jahrzehnten. Aber außer dem etablierten Science Citation Index ist bisher nicht viel dabei herausgekommen.

Beim Science Citation Index wird der Wert einer Publikation über einen Relevanzgrad für das Journal ermittelt. Je öfter Publikationen in einem „peer-reviewed“ Journal von anderen Publikationen zitiert werden, desto mehr Punkte bekommt dieses Journal (den sogenannten „Impact Factor„).

Die Annahme ist, dass Publikationen, die öfter zitiert werden, wichtiger seien und hochwertigere wissenschaftliche Aussagen enthalten. Und ein Journal, welches mehr öfter zitierte Publikationen enthält, hätte damit einen höheren Stellenwert. Gemessen wird die Wertigkeit also über den Umweg des grundsätzlichen Stellenwertes einer wissenschaftlichen Zeitschrift.

Doch sind diese ganzen Annahmen so richtig? Wer ein grösseres wissenschaftliches Team hat, dadurch viel publiziert und sich dabei selber fleißig zitiert, hat schon einen Vorsprung. Genauso, wer viele wissenschaftliche Freunde hat, gut vernetzt ist und deswegen öfter zitiert wird. Genauso, derjenige, der eher die Lehrmeinung vertritt oder für Kollegen passende Daten veröffentlicht, gegenüber einem Kollegen mit abweichender Meinung oder Daten. Und so weiter, und so weiter …

Der Bekanntheitsgrad und die Vernetzung in der wissenschaftlichen Community können also mindestens genauso wichtige Faktoren sein, wie die Publikationsqualität. Der Citation Index ist daher ohne Zweifel ein ausgezeichnetes Mittel, um die „Gurus“ und (key) opinion leader eines wissenschaftlichen Feldes zu ermitteln.

Bei der inhaltlichen Bewertung muss der Citation Index aber scheitern. Denn gute Vernetzung und wissenschaftliche Etabliertheit sind nicht zwangsläufig ein Qualitätsmerkmal für einzelne Publikationen.  Ich wage sogar zu behaupten, dass es Beispiele gab, bei denen es genau umgekehrt war. Und wichtige oder neue wissenschaftliche Ergebnisse und Erkenntnisse sind eben oft auch in Publikationen von Journalen enthalten, die im Zitatranking weiter unten stehen. Die neuen, reinen Onlinejournale fallen sogar ein Stück weit komplett aus dem Raster.

Deswegen ist der Citation Index schon seit langem nicht nur fest etablierter Bestandteil der wissenschaftlichen Systeme, sondern auch in der Kritik. Weil er eben direkt über den wissenschaftlichen Stellenwert einer einzelnen Publikation doch wieder nichts aussagt. Auf der anderen Seite hat bisher niemand ein besseres System gefunden. Und ich gehe mal davon aus, dass sich schon viele extrem schlaue Köpfe reichlich Gedanken darüber gemacht haben.

Science's Genealogy by M'hamed el Aisati/Academic and Government Products Group (Elsevier), Amsterdam; Katy Börner and Angela M. Zoss/Indiana University

About 39,000,000 papers were published in scientific journals between 1817 and 2010. To map the explosion of research, technology analyst M’hamed el Aisati graphed unique publications based on information in Elsevier’s Scopus database.

Zugegeben, die Fragestellung ist wirklich nicht trivial. Und mit der ansteigenden Menge wissenschaftlicher Publikationen verschärft sich das Problem von Jahr zu Jahr. Wie findet man in der Publikationsflut bloß das, was wirklich wichtig ist? Ist das Zitatranking tatsächlich das einzige probate Mittel, um Wertigkeiten – zumindest in Annäherung – zu ermitteln?

Ich habe mir vorgenommen, mich ein wenig mit diesem sehr spannenden Thema zu beschäftigen. Die ersten Arbeiten zum Thema stapeln sich schon auf meinem Tisch.

Ich verspreche, meine Erkenntnisse und Ideen an dieser Stelle zu teilen. Und ich lade ganz herzlich dazu ein, sich an der Diskussion darüber zu beteiligen, was eine gute wissenschaftliche Publikation ausmacht, und wie man dieses „was“ messen könnte.

Ich freu mich drauf.

Praxis Onlineredakteur: Geschwindigkeit

Hase und Igel

Onlinemedien sind schnelle Medien. Auf aktuelle Ereignisse kann unmittelbar und zügig reagiert werden. Für den Onlineredakteur hat dies zur Konsequenz, dass er einem noch höheren Zeitdruck ausgesetzt ist, als seine Printkollegen. Redakteure bei Tageszeitungen haben im schlimmsten Fall wenige Stunden zur Verfügung, der Onlineredakteur manchmal nur wenige Minuten.

Beispiel 11. September 2001. Zwei Flugzeuge krachen in das New Yorker World Trade Center. In Deutschland ist es kurz nach 15 Uhr. Die Redaktionen laufen heiß. Die politische Redaktion der FAZ bereitet für den Drucklegungstermin gegen Abend erste Texte vor. Dabei können die sich anfangs überschlagenden Ereignisse und teilweise widersprüchlichen Einzelmeldungen abgewägt und sorgfältig ausgewertet werden. Die interne Rechercheabteilung arbeitet Hintergrundinformationen zu. Die Korrespondenten und freie Mitarbeiter in den USA werden aktiviert. Reuters und CNN liefern im Laufe der folgenden Stunden zahlreiche Bilder vom Unglücksort und den Ereignissen, aus denen die besten ausgewählt werden können. Im Endergebnis liefert die FAZ in der Ausgabe des folgenden Tages einen sorgfältig recherchierten Komplex aus Ereignisberichten und Hintergrundartikeln, dessen Detailinformationen im Rahmen des möglichen überprüft und bestätigt werden konnten.

Im Kontrast hierzu die Ereignisredaktion von n-tv online. Hier müssen bereits wenige Minuten nach dem Anschlag erste (kleinere) Texte und Bilder auf der Website stehen. Die Onlineredaktion profitiert dabei von Synergieeffekten, weil Nachrichten und Bilder von der TV-Redaktion und dem Medienpartner CNN sofort übernommen werden können. Trotzdem ist der zeitliche Erwartungsdruck hoch, und Meldungen müssen innerhalb von Minuten überprüft, getextet und platziert werden. Dabei bleibt oft nicht genügend Zeit für eine Bestätigung und etliche Meldungen müssen wenig später revidiert werden. Jeder Onlineredakteur recherchiert in dieser Situation seine Detailinformationen selbständig, doch der zeitliche Rahmen dafür ist eng bemessen. Parallel zu der laufenden Ereignisberichterstattung wird ein Sonderthema vorbereitet mit Hintergrundartikeln und älteren Texten aus den Archiven.

Tatsächlich sind die Produktionsabläufe in der Onlinesparte eher vergleichbar mit denen der TV-Berichterstattung als mit denen der Printmedien. Eine Reaktion auf Ereignisse erfolgt unmittelbar. Es gibt auch keine Zeitphase für Druck und Verteilung. Inhalte werden per Knopfdruck sofort oder mit kurzfristigem Freigabedatum publiziert.

In Situationen wie dem 11.09. bewähren sich langfristige Kooperationen mit Zulieferern – wie im genannten Beispiel zwischen n-tv und CNN – weil ohne die Notwendigkeit für Verhandlungen auf der Basis bestehender Vereinbarungen kurzfristige Material verwendet werden kann. Und es bewähren sich auch redaktionelle Infrastrukturen auf Basis eines synergistischen und integrierten Cross-Media-Publishing. So muss die Onlineredaktion nicht alles de novo erzeugen, sondern kann auf Material des Redaktionsstammes und Korrespondentennetzes der TV-Sparte zurückgreifen.

Die flinke Redaktion

Der journalistische Onlineredakteur muss in der Lage sein, mit dem zeitlichen Druck umzugehen. Dabei helfen Selbstdisziplin, solide etablierte Arbeitsabläufe, definierte Zuständigkeitsbereiche und klare Absprachen mit den Kollegen in der Redaktion. Der Onlineredakteur muss in solchen Situationen auch eher einmal etwas abgeben können und kann nicht die internen Exklusivrechte für eine Geschichte erwarten. Im Interesse der Gesunderhaltung der Mitarbeiter und Kollegen kann es auch sinnvoll sein, besondere Aufgaben, wie beispielsweise die Zuständigkeit für Aktuelles, innerhalb der Redaktion rotieren zu lassen.

Große, professionelle und kleine, kluge Redaktionen haben daher einen fest etablierten Workflow zwischen der Fertigstellung von Inhalten bis zur endgültigen Veröffentlichung mit mehreren Freigabestufen. Dies wird von vielen Redaktionssystemen EDV-technisch unterstützt.

Fazit: Die Schnelligkeit des Mediums bringt Vorteile, weil zügiger auf aktuelle Ereignisse eingegangen werden kann. Aber die Schnelligkeit des Mediums bringt gleichzeitig den Nachteil der Gefahr, dass die solide Hintergrundrecherche leidet.

Der flotte Informationsmanager

Im Falle firmeninterner Informationsportale ist der Zeitfaktor sicher weniger ausschlaggebend. Und viele öffentliche eZines haben aufgrund ihrer inhaltlichen und thematischen Ausrichtung den ’need for speed‘ ebenfalls nicht. Hier ist das Problem mit der Geschwindigkeit eher ein anderes, nämlich, dass Informationen durch die unkomplizierte Freigabe per Knopfdruck manchmal zu schnell und zu unkritisch veröffentlicht werden. Daher gilt die Notwendigkeit von inhaltlicher Kontrolle, Verifizierung und Lektorat hier genauso.

Der rastlose Leser

Unterschätzen Sie den Faktor Geschwindigkeit ebenfalls nicht hinsichtlich des Nutzungsverhaltens der Leser. Medium Online bedingt, dass Nutzer viele ihrer Entscheidungen, etwas zu lesen, weiter zu gehen oder etwas käuflich zu erwerben, in wenigen bis Bruchteilen von Sekunden per Mausklick fällen. Die Entscheidungsfindung erfolgt oft spontan und aus einem Gefühl heraus. Das bedeutet, dass ich beispielsweise Kaufentscheidungen nicht durch lange Erklärungen beeinflussen kann, sondern die Menschen dort abhole, wo sie sind, ihnen eine schnelle Entscheidung zu meinen Gunsten erleichtere und ein gutes Gefühl gebe, das Richtige zu tun.

Auch die Entscheidung, bei einem Thema weiter zu lesen oder nicht erfolgt oft spontan und ohne langes Überlegen. Aber hier geht die nutzerorientierte Begleitung der Eiligkeit nach dem Anklicken des „Mehr …“ weiter. Der Leser wird erschrocken sein, wenn die sich dann öffnende Seite einen ellenlangen Blocktext zeigt, unabhängig davon, wie gut dieser ist. Allein die Optik reicht bei vielen Angeboten aus, dass ich als Leser sage „scheint interessant, so viel zu lesen habe ich aber im Moment keine Zeit, komme später wieder“ … und komme dann in der Regel später nicht wieder, weil es vergessen geht oder wichtigere Dinge dazwischen kommen. Im schlimmsten Fall werde ich meine Entscheidung bereuen, weil ich eigentlich konzentriert aufgearbeitete Kerninformationen erwartet hatte und keine Doktorarbeit, und werde das nächste Mal weniger wahrscheinlich auf den Link zum Weiterlesen drücken. Wesentlich besser ist es daher, die Informationen auf gestaffelte Seiten zunehmender Detailtiefe aufzuteilen. Dann kann der Leser selber entscheiden, wie weit er gehen möchte, ohne von einem Monstertext erschrocken zu werden.

© Dr. Christian Velten, 2007