The Innovator's Dilemma
Warum etablierte Unternehmen den Wettbewerb um bahnbrechende Innovationen verlieren
Zusammenfassung
Christensens wegweisendes Werk „The Innovator’s Dilemma“ erschien 1997 und zählt heute zu den wichtigsten Managementbüchern überhaupt. Der New York Times Bestseller wurde in über zehn Sprachen übersetzt und erhielt zahlreiche Auszeichnungen.
Unternehmen scheitern aus vielen Gründen. Dass führende Unternehmen aber scheitern, weil sie im Grunde alles richtig machen, klingt paradox. Und doch erweisen sich die klassischen Erfolgsfaktoren wie Kunden-, Ertrags- und Wachstumsorientierung bei disruptiven Innovationen als geradezu gefährlich und existenzbedrohend.
Anhand von Erfolgen und Fehlschlägen führender Unternehmen präsentiert „The Innovator’s Dilemma“ Regeln für einen gelungenen Umgang mit dem Phänomen bahnbrechender Innovationen. Diese Regeln werden Managern helfen zu entscheiden, wann es sinnvoll ist, sich nicht nach den Kundenwünschen zu richten, in weniger leistungsfähige Produkte mit geringeren Margen zu investieren oder in noch kleine, aber wachstumsstarke Marktsegmente zu stoßen. Das Buch zeigt die „Unlogik“ von disruptiven Innovationen auf und will zugleich Orientierung stiften, um Unternehmen – den etablierten wie den jungen – den Weg zum wirklich Neuen zu ebnen.
„Die Beschäftigung mit Christensens Ideen ist für Praktiker wie Wissenschaftler gleichermaßen gewinnbringend.“ FAZ vom 27.12.2011
Leseprobe
Inhaltsverzeichnis
Zum Inhalt
Christensens wegweisendes Werk „The Innovator’s Dilemma“ erschien 1997 und zählt heute zu den wichtigsten Managementbüchern überhaupt. Der New York Times Bestseller wurde in über zehn Sprachen übersetzt und erhielt zahlreiche Auszeichnungen.
Unternehmen scheitern aus vielen Gründen. Dass führende Unternehmen aber scheitern, weil sie im Grunde alles richtig machen, klingt paradox. Und doch erweisen sich die klassischen Erfolgsfaktoren wie Kunden-, Ertrags- und Wachstumsorientierung bei disruptiven Innovationen als geradezu gefährlich und existenzbedrohend.
Anhand von Erfolgen und Fehlschlägen führender Unternehmen präsentiert „The Innovator’s Dilemma“ Regeln für einen gelungenen Umgang mit dem Phänomen bahnbrechender Innovationen. Diese Regeln werden Managern helfen zu entscheiden, wann es sinnvoll ist, sich nicht nach den Kundenwünschen zu richten, in weniger leistungsfähige Produkte mit geringeren Margen zu investieren oder in noch kleine, aber wachstumsstarke Marktsegmente zu stoßen. Das Buch zeigt die „Unlogik“ von disruptiven Innovationen auf und will zugleich Orientierung stiften, um Unternehmen – den etablierten wie den jungen – den Weg zum wirklich Neuen zu ebnen.
„Die Beschäftigung mit Christensens Ideen ist für Praktiker wie Wissenschaftler gleichermaßen gewinnbringend.“
FAZ vom 27.12.2011
Zu den Autoren
Clayton M. Christensen ist Professor für Business Administration an der Harvard Business School. Er ist Berater zahlreicher Regierungen und Unternehmen sowie Aufsichtsratsmitglied bei Franklin Covey und Tata Consultancy Services. Im Jahr 2000 gründete er zusammen mit weiteren Partnern das Beratungsunternehmen INNOSIGHT.
Kurt Matzler ist Professor für Strategisches Management an der Universität Innsbruck sowie wissenschaftlicher Leiter des Executive MBA Programms am MCI Innsbruck. Er beschäftigt sich mit Fragen der Strategie und Innovation und ist Partner bei der Managementberatung IMP (Innovative Management Partner).
Stephan Friedrich von den Eichen ist Sprecher der Geschäftsführung der Managementberatung IMP sowie Honorarprofessor für Betriebswirtschaft an der Universität Bremen. Als Berater begleitet er Unternehmen bei Design und Umsetzung zukunftsfähiger Geschäftsmodelle und beim Aufbau von (disruptionstauglichen) Innovationssystemen. Zuvor war er in leitender Funktion bei Arthur D. Little sowie am Malik Management Zentrum St. Gallen tätig.
The Innovator’s Dilemma
Warum etablierte Unternehmen den Wettbewerb um bahnbrechende Innovationen verlieren
Clayton M. Christensen
Aus dem Amerikanischen übersetzt und überarbeitet von
Kurt Matzler
Stephan Friedrich von den Eichen
Inhaltsverzeichnis
Warum richtiges und gutes Management zum Scheitern führen kann
Die „Logik des Scheiterns“ auf dem Prüfstand
Wie die Prinzipien disruptiver Innovation genutzt werden können
Disruptive Chancen und Risiken erkennen
Wo disruptive Innovationen stattfinden
Teil 1 Zum Scheitern führender Unternehmen – ein Erklärungsansatz
Kapitel 1 Wie es zum Scheitern kommt – ein Blick in die Computerbranche und die Kameraindustrie
Wie Computerlaufwerke funktionieren
Der Einfluss des technologischen Wandels
Evolutionärer technologischer Wandel
Wenn Unternehmen an disruptiven Technologien scheitern
Disruption in der Fotografie – oder: Wie die Digitalkamera die Branche revolutionierte
Kapitel 2 Wertesysteme und der Antrieb zur Innovation
Organisation und Management als Ursachen für Misserfolg
Fähigkeiten und radikale Technologien als Erklärung
Wertesysteme und eine neue Perspektive auf die Ursachen des Misserfolgs
Technologische S-Kurven und Wertesysteme
Managemententscheidungen und disruptiver Technologiewandel
Flash Memory und das Wertesystem
Implikationen des Konzeptes des Wertesystems für Innovationen
Die Schweizer Uhrenindustrie in den 1970er und 1980er Jahren
Kapitel 3 Ein disruptiver technologischer Wandel bei Baggergeräten
Führerschaft bei evolutionären technologischen Veränderungen
Die Auswirkungen der disruptiven Hydraulik-Technologie
Wie etablierte Hersteller auf die Hydrauliktechnologie reagierten
Die Entscheidung zwischen Seil- und Hydrauliktechnologie
Können wir ein ähnliches Muster auch in Deutschland erkennen?
Folgen und Implikationen des Einbruchs der Hydrauliktechnologie
Kapitel 4 Das „Einrastprinzip“
Die Migration der Computerlaufwerke in High-End-Segmente
Wertesysteme und ihre typischen Kostenstrukturen
Ressourcenallokation und Aufwärtsmigration
Aufwärtsmigration von ganzen Wertesystemen
Die Aufwärtsmigration der integrierten Stahlhersteller
Das Stranggussverfahren der Minimills zur Produktion von Stahlblech
Die Stahlindustrie in Deutschland
Teil 2 Disruptive Herausforderungen meistern
Kapitel 5 Die richtige Organisationseinheit beauftragen
Innovation und Ressourcenallokation
Erfolg in der disruptiven Computerlaufwerkstechnologie
Disruptive Technologien und die Theorie der Ressourcenabhängigkeit
DEC, IBM und der Personal Computer
Kresge, Woolworth und die Diskonter im Einzelhandel
Überleben durch Selbstmord: Die Laser- und Tintenstrahldrucker von Hewlett-Packard
Das bestehende System als Barriere für disruptive Innovationen – der Fall Siemens
Kapitel 6 Die Größe der Organisation auf die Größe des Marktes abstimmen
Sind Pioniere immer die Leute mit den Pfeilen im Rücken?
Unternehmensgröße und Innovationsführerschaft bei disruptiven Technologien
Fallstudie: Die Wachstumsrate eines neu entstehenden Marktes beschleunigen
Fallstudie: Warten, bis der Markt groß genug ist, um interessant zu sein
Fallstudie: Kleine Märkte kleinen Organisationen zuordnen
Kapitel 7 Neue Märkte entdecken
Marktprognosen für evolutionäre und disruptive Technologien
Marktidentifikation für das HP 1,3-Zoll-Kittyhawk-Laufwerk
Hondas Invasion des nordamerikanischen Marktes für Motorräder
Wie Intel den Markt für Mikroprozessoren entdeckte
Unplanbarkeit und Abwärtsimmobilität in etablierten Unternehmen
Kapitel 8 Wie Sie die Fähigkeiten und „Un“-Fähigkeiten Ihres Unternehmens erkennen
Ein Modell organisationaler Kompetenzen
Prozesse, Werte und Erfolg bei evolutionären und disruptiven Innovationen
Die Fähigkeit zum Wandel entwickeln
MP3 – eine digitale Disruption aus Deutschland
Kapitel 9 Leistungsangebot, Marktnachfrage und der Produktlebenszyklus
Leistungsüberangebot und sich verändernde Grundlagen des Wettbewerbs
Wann wird ein Produkt ein Massenprodukt?
Leistungsüberangebot und Entwicklung des Produktwettbewerbs
Weitere Merkmale disruptiver Technologien
Leistungsüberangebot im Produktlebenszyklus von Insulin
Google versus Microsoft – David gegen Goliath?
Die Entwicklung des Produktwettbewerbs im Auge behalten
Richtige und falsche Strategien
Kapitel 10 The Innovator’s Dilemma: Eine Zusammenfassung
VVorwort
Das Thema Innovation ist wie eine Zwiebel: Hat man eine Schale des Eindringens hinter sich gebracht, stößt man auf die nächste.
Viele Unternehmensführer sind noch mit der ersten Schale beschäftigt, nämlich die Schumpeter’sche Bedeutung von Innovation zu verinnerlichen – zu erkennen, warum das entscheidende Merkmal von wirklichen Unternehmern darin besteht, mit neuen Kombinationen von Ressourcen und Fähigkeiten im Markt Bestehendes zu verdrängen und mit größerem Kundennutzen ein gutes Geschäft zu machen.
Die zweite Schale steht für die Herausforderung, vom Erkennen und Wollen zum Können und Tun zu gelangen. Da geht es um die Stimmigkeit zwischen Innovation und Unternehmensstrategie, um die Formulierung einer wirklichen Innovationsstrategie, darum, ein Innovationssystem zu organisieren, das wirksam Neues hervorbringt, das bei der systematischen Ideenfindung beginnt und bei einem passenden Innovationsmarketing endet.
Ist das geschafft – und immer mehr Unternehmen sind hier auf einem guten Wege –, dann kommt die dritte Schale, bei der einem schon die Augen tränen können: Es gilt zwischen Innovation und Innovation zu unterscheiden. Und eben diese dritte Schale geht das vorliegende Buch an:
Das eine ist die sukzessive Innovationsführerschaft mit Generationen von evolutionären Weiterentwicklungen des bisherigen Produkt- oder Dienstleistungsangebots. Und in der Tat, mit exzellentem Innovationsmanagement erzielen Unternehmen heute deutliche Wettbewerbsvorsprünge, besonders im internationalen Markt, die ihnen Wachstum und gute Margen bescheren. Und an diese Erfolge kann man sich selbstbewusst gewöhnen. Genau hier liegt die Gefahr. Der Erfolg mit exzellentem Innovationsmanagement kann nämlich den Blick für eine andere Art von Innovation verstellen: Die Rede ist von den disruptiven Innovationen, die die sequentielle Innovationslogik und die dafür geschaffenen Routinen über den Haufen werfen, weil sie eben nicht aus dem (inzwischen etablierten) Innovationsmanagement hervorgehen.
Das vorliegende Buch greift anschauliche Beispiele auf und analysiert, warum „verlässlich innovative“ und damit „verlässlich erfolgreiche“ Unternehmen disruptiv aus der Bahn geworfen werden. So etwa Digital Equipment Corp., in den 1980er Jahren äußerst erfolgreicher Pionier der Minicomputer, und doch heute ebenso vergessen wie Wang und Nixdorf. Hatte man zuvor noch die Mainframe-Hersteller IBM oder Siemens aus weiten Teilen des Marktes verdrängt, wurde man selbst Opfer der Disruption. VIÄhnlich Xerox, einst marktbeherrschend mit Kopiermaschinen, mittlerweile längst disruptiv verdrängt von Canon, Brother und anderen mit ihren multifunktionalen Tischgeräten.
Aus der Analyse entwickeln die Autoren ein Muster des Scheiterns gerade jener innovations- und erfolgsverwöhnter Unternehmen. Damit dringen sie zur vierten Schale der Innovationszwiebel vor: Es geht ihnen darum, Bewusstsein für die Potenziale disruptiver Innovationen zu schaffen. Es geht ihnen darum, unsere Sensorik für das wirklich Neue zu schärfen, unser Denken und Handeln vor diesem Hintergrund zu reflektieren, um schließlich einen weiteren Schritt in Richtung der hohen Schule der Innovationsstrategie zu gehen.
Zu dieser hohen Schule gehört es, unterschiedliche Typen von Innovation unterschiedlich zu nutzen: Die das laufende Geschäft erfolgreich vorantreibenden Innovationen, um immer bessere Autos, immer bessere Kraftwerke, immer bessere Laptops, immer bessere Kaufhäuser anbieten zu können. Und die das laufende Geschäft kannibalisierenden, disruptiven Innovationen, die längerfristig zweifellos die größeren Chancen bieten, die wir aber auch ganz anders „managen“ müssen. Beispielsweise die neue Welt der e-Mobilität, der gekoppelten Strom- und Wärmeerzeugung im Haus, der situativen ubiquitären Informations- und Kommunikationssysteme und des Cloud Computing, der virtuellen Shopping-Zentren und andere Dinge, für die uns heute oft sogar noch die Namen fehlen.
Wie gelingt der Ritt auf disruptiven Innovationspotenzialen, ohne die Pferde des laufenden Innovationsportfolios scheu zu machen, die uns ja erst einmal weiter voranbringen müssen – besonders dann, wenn sich die eine oder andere Disruption als enttäuschend erweisen sollte?
Aus den Erfahrungen mit disruptiven Innovationen leitet das vorliegende Buch Prinzipien ab, die bei dem Umgang mit der vierten Schale der Innovationszwiebel helfen. Es geht insbesondere um die organisatorische Behandlung dieser „anderen“ Innovationen, um die eher explorativen Führungsanforderungen, die sie stellen und um die Abstimmung mit der Aufnahmebereitschaft des Marktes.
Angesichts der Endzeitsituationen und des erkennbaren Ablaufdatums vieler jener „Logiken“, nach denen die Geschäfte in vielen Industriefeldern heute betrieben werden, kommt dieses Buch genau zur richtigen Zeit: Endzeit der Verbrennungsmotoren in der Automobilindustrie, Endzeit der Kernkraftwerke und der fossilen Energieträger Öl, Gas und Kohle, Endzeit des Ausbaus der terrestrischen Telekom-Strukturen, Endzeit des Nachfragewachstums in vielen etablierten Konsum- und Investitionsgütermärkten, in denen Verbesserungen einen immer marginaleren Charakter annehmen.
Viele unserer Industriefelder schreien geradezu nach Disruption – und die Potenziale sind Legionen. Aber der Durchbruch, den es in den Feldern erfordert, setzt die Beherrschung eben dieser vierten Schale der Innovationszwiebel VIIzwingend voraus. Das vorliegende Buch erweist sich dabei als wertvoller Pfadfinder, denn es reicht dem Leser die Hand, sich aus dem „Innovator’s Dilemma“ zu befreien.
Tom Sommerlatte
VIIIVorwort zur deutschen Ausgabe
Unternehmen scheitern aus vielen Gründen. Dass führende Unternehmen aber scheitern, weil sie im Grunde alles richtig machen, klingt paradox – zumindest auf den ersten Blick. Kundenorientierung, Innovation, Ertrags- und Wachstumsorientierung sowie Planungs- und Entscheidungssysteme gehören zum Repertoire richtigen und guten Managements. Nun gibt es aber Konstellationen, in denen sich klassische Erfolgsfaktoren in „Miss-Erfolgsfaktoren“ verkehren – und geradewegs in den Untergang führen. So etwa bei bahnbrechenden, technologischen Veränderungen, die wir im Folgenden als disruptive Innovationen bezeichnen. In eben diesem Fall, so stellen wir fest, ist es besser, einmal nicht auf seine Kunden zu hören. In diesem Fall ist es besser, auf Produkte von niedrigerer Qualität mit bescheidenen Margen zu setzen und es ist besser, aggressiv in kleine anstatt in große Märkte zu stoßen. Diese revolutionären Gedanken formulierte Clayton M. Christensen erstmals in seinem Bestseller „The Innovator’s Dilemma“, der 1997 im Harvard Business Press Verlag erschien. Damit beeinflusste er die Managementforschung – und nach und nach auch die Unternehmenspraxis. Und doch versuchen Unternehmen immer noch den Pfad des wirklich Neuen auf traditionelle Weise zu managen. Zugleich wirken in immer mehr Bereichen disruptive Kräfte, die neue Geschäftslogiken entstehen lassen. Die Aktualität des Werks, das nun erstmals in einer deutschsprachigen Auflage vorliegt, ist ungebrochen. Aufbauend auf dem Gedankengut von Clayton M. Christensen veranschaulichen europäische Branchen- und Unternehmensbeispiele die Thesen zum wirksamen Umgang mit disruptiven Innovationen. Im Kern geht es uns darum, beim Leser das Bewusstsein zu schärfen: Jede Zeit fordert ihr Management. Was sich unter stabilen Vorzeichen als richtig und gut erweist, erweist sich bei Disruption als fatal. Wir wollen Hilfestellungen geben, wann klassische Grundsätze richtigen und guten Managements anzuwenden sind – und wann richtiges und gutes Management von uns fordert, von eben diesen Grundsätzen abzurücken.
Bei diesem Projekt standen uns zahlreiche Personen als Diskussionspartner zur Verfügung. Ihnen schulden wir Dank: Marcus Fehling (Siemens AG), Andreas Kaufmann (ACM und Leica Camera AG), Professor Ronald Maier, Dr. Gerald Wissel, Professor Michael Mirow und Professor Tom Sommerlatte. In unseren Recherchen und Analysen leisteten Andre Breuer, Stefan Fässler, Stefanie Nadine Keller, Harald Oberparleiter, Bruno Siegele, Philipp Stampflund Felix Wallner einen wertvollen Beitrag. Wir bedanken uns auch beim gesamten Team des Instituts für Strategisches Management, Marketing und Tourismus der Universität Innsbruck, vor allem bei Andrea IXMayr, Dagmar Abfalter, Julia Hautz, Katja Hutter, Julia Müller und Melanie Zaglia. Unser Dank gilt darüber hinaus dem Beratungsunternehmen Innovative Management Partner (IMP) für unzählige Stunden der Diskussion, des Feedbacks und der Unterstützung in unseren Recherchen. Schließlich gilt besonderer Dank Klaudia Weber für die Unterstützung bei der sorgfältigen Fertigstellung des Manuskripts.
Kurt Matzler und Stephan Friedrich von den Eichen
Innsbruck und München im Mai 2011
1Einführung
Worum geht es in diesem Buch? Es geht um Scheitern – und zwar um das Scheitern von Erfolgreichen! Konkret geht es um Unternehmen, die über Jahre hinweg ihre Branche angeführt hatten, die aber scheiterten, als sie mit großen Umwälzungen und Marktveränderungen konfrontiert waren. Es geht nicht um die allgegenwärtigen Misserfolge von irgendwelchen Unternehmen, sondern um das Scheitern von Unternehmen, die von vielen bewundert und deren Strategien von vielen nachgeahmt werden. Um Unternehmen, die nicht zuletzt für ihre Innovationsfähigkeit und ihre Umsetzungsstärke bekannt sind. Die Empirie lehrt: Unternehmen kommen aus mannigfaltigen Gründen ins Wanken: Bürokratie, Arroganz, Führungsschwäche, schlechte Planung, kurzfristige Investitionshorizonte, unzureichende Fähigkeiten und Ressourcen, aber auch einfach durch Pech – um nur einige Gründe zu nennen. Das alles wollen wir in diesem Buch einmal außer Acht lassen. Unser Augenmerk richtet sich auf gut geführte Unternehmen. Unternehmen, die ihre Antennen ausfahren, die akribisch die Bedürfnisse ihrer Kunden analysieren, aggressiv in neue Technologien investieren und dennoch ihre vormals dominierende Stellung einbüßen.
Derartiges passiert in dynamischen Branchen, aber auch in Branchen, die sich eher langsam verändern. Es passiert genauso in Branchen, die auf elektronische, chemische oder mechanische Technologien setzen. Es passiert im produzierenden Gewerbe genauso wie auch in der Dienstleistungswirtschaft. Blicken wir zurück auf Sears Roebuck: Sears Roebuck galt über Grenzen und Dekaden hinweg als eines der bestgeführten Handelsunternehmen der Welt. Immerhin erwirtschaftete dieses Unternehmen in seinen Glanzzeiten zwei Prozent des amerikanischen Handelsumsatzes. Zahlreiche Innovationen, die noch heute zu den kritischen Erfolgsfaktoren eines Handelsunternehmens gehören – wie etwa Supply Chain Excellence, Etablierung von Handelsmarken, den Versandhandel oder die Ausgabe von (Kunden-)-Kreditkarten – gehen auf Sears Roebuck zurück.
Für all das zollte man dem Management von Sears große Anerkennung. Dazu ein Fortune-Artikel aus dem Jahre 1964:
„How did Sears do it? In a way, the most arresting aspect of its story is that there was no gimmick. Sears opened no big bag of tricks, shot off no skyrockets. Instead, it looked as though everybody in its organization simply did the right thing, easily and naturally. And their cumulative effect was to create an extraordinary powerhouse of a company.“1
Mitte der 90er Jahre sprach man anders über Sears. Das Unternehmen hatte wichtige Trends verschlafen: Etwa den zum Discount-Handel oder den Trend hin zu den Baumärkten. Sears zentriert sich um sein Geschäftsmodell 2– den boomenden Versandhandel – ohne dessen Zukunftsfähigkeit zu reflektieren. Das Presseecho von Sears ist durchweg negativ: „Sears‘ Merchandise Group lost $ 1.3 billion (in 1992) even before a $ 1.7 billion restructuring charge. Sears let arrogance blind it to basic changes taking place in the American marketplace.“2 An anderer Stelle heißt es:
Sears has been a disappointment for investors who have watched its stock sink dismally in the face of unkept promises of a turnaround. Sears‘ old merchandising approach–a vast, middleof-the-road array of mid-priced goods and services–is no longer competitive. No question, the constant disappointments, the repeated predictions of a turnaround that never seems to come, have reduced the credibility of Sears‘ management in both the financial and merchandising communities.3
Bemerkenswert ist die Tatsache, dass man Sears genau zu dem Zeitpunkt das höchste Lob zollt, als das Unternehmen den Trend zum Discount-Handel und den Baumärkten ignoriert und es obendrein zulässt, dass Visa und MasterCard das Kreditkartengeschäft an sich reißen.
In anderen Branchen sind ganz ähnliche Muster zu beobachten. Etwa in der Computerbranche. IBM dominierte den Markt für Großrechner und verschlief darüber den Trend zum Minicomputer, der – technologisch betrachtet – weit simpler war. Ein Blick in die Runde zeigt zudem, dass kein einziger Hersteller von Großrechnern den Sprung zu einem bedeutenden Anbieter von Minicomputern schaffte. Digital Equipment Corporation (DEC) kreiert zwar den Markt für Minicomputer, sah sich dort aber bald von einer Reihe agiler Konkurrenten umgeben: Data General, Prime, Wang, Hewlett-Packard und Nixdorf. Drehen wir die Zeit etwas weiter, stellen wir wiederum fest, dass keines dieser Unternehmen den Sprung zum Desktop-PC schaffte. Es waren Apple, Commodore, Tandy und IBM, die diesen Markt entwickelten. Insbesondere Apple setzte in der Folge einen einzigartigen Standard für benutzerfreundliche PCs. Dabei hinkten Apple und IBM ihrerseits in der Einführung von tragbaren Computern der Konkurrenz (zunächst) deutlich hinterher. Analogien zu Sears werden greifbar. Wie Sears werden viele Unternehmen der Computer-Branche von Journalisten und Managementforschern zum Vorbild stilisiert. Nur exemplarisch heißt es über Digital Equipment im Jahre 1986: „Taking on Digital Equipment Corp. these days is like standing in front of a moving train. The $ 7.6 billion computer maker has been gathering speed while most rivals are stalled in a slump in the computer industry“4. Von Peters und Waterman 1984 im Rahmen der McKinsey Studie In Search of Excellence5 noch hoch gelobt, spricht man nur kurze Zeit später ganz anders über DEC:
Digital Equipment Corporation is a company in need of triage. Sales are drying up in its key minicomputer line. A two-year-old restructuring plan has failed miserably. Forecasting and production planning systems have failed miserably. Cost-cutting hasn’t come close to restoring profitability. (...) But two years trying halfway measures to respond to the lowmargin personal the real misfortune may be DEC’s lost opportunities. It has squandered computers and workstations that have transformed the computer industry.6
3In beiden Fällen – bei Sears und bei DEC – werden die Entscheidungen, die schließlich zum Niedergang der Unternehmen führen, genau zu dem Zeitpunkt getroffen, an dem die Unternehmen für so viele als besonders nachahmenswerte Muster gelten.
Und damit sind sie nicht alleine. Xerox etwa dominierte den Markt für große Kopiermaschinen, die an Kopierzentren vertrieben wurden. Zugleich versäumte man aber den wachsenden und vielversprechenden Markt für die kleineren Tischkopiergeräte. In der Stahlindustrie stören die „Minimills“ – gemeint sind Stahlhersteller, die auf das Elektroverfahren anstatt auf das Sauerstoffverfahren setzen – die Kreise der etablierten, integrierten Stahlhersteller erheblich. Bereits Mitte der 90er Jahre stehen sie für 40 % der amerikanischen Stahlproduktion. Und doch hatte keiner der etablierten Stahlhersteller weder in den USA, Europa noch in Asien zu diesem Zeitpunkt einen Fuß in der Minimill-Technologie. Heute steht diese Technologie immerhin für etwa 60 % der amerikanischen und etwa 40 % der europäischen Stahlproduktion7. Die Liste der Beispiele ließe sich nahezu beliebig fortsetzen, richtet man etwa den Blick auf die Schweizer Uhrenindustrie, den Übergang zur Digitalfotografie oder auch die Low Cost Airlines. Die großen Musiklabels ignorierten den Trend zu den Musikdownloads und überließen das Terrain einem Branchenneuling. Die deutsche Markenikone Leica verschlief die Digitaltechnologie und kämpft heute ums Überleben. Aktuell stellen viele disruptive Innovationen etablierte Unternehmen auf die Probe: die digitale Zeitung, Software-as-a-Service, das Elektroauto – um nur einige zu nennen.
Die Liste jener Unternehmen, die scheitern, sobald sie einem technologischen Umbruch mit einem entsprechenden Wandel ihrer Markstruktur gegenüberstehen, ist lang. Prima vista scheint es zwischen den Veränderungen, die diese Unternehmen ein- und dann auch überholten, keine Gemeinsamkeiten zu geben. In einigen Fällen kam der technologische Wandel quasi über Nacht. In anderen Fällen zieht sich der Übergang über Jahrzehnte hin. Bisweilen waren die neuen Technologien komplex und ihre Entwicklung aufwändig. Andernorts handelte es sich lediglich um Weiterentwicklungen von dem, was die führenden Unternehmen bereits besser beherrschten als jeder andere. Eines eint unterdessen all jene Unternehmen, die letztlich scheitern: Die Entscheidungen, die ursächlich für ihren Niedergang sind, werden zu einem Zeitpunkt getroffen, an dem diese Unternehmen als die besten ihrer Branche gelten.
Es gibt zwei Möglichkeiten, dieses Paradoxon aufzulösen: Da ist zum einen der einfache Schluss, dass Unternehmen wie Sears, Digital, Xerox, Leica, Nixdorf im Grunde nie gut geführt worden sind. Glück statt richtiges und gutes Management gilt dann als Erklärung für ihren Erfolg. Kamen sie am Ende nur deshalb in Schwierigkeiten, weil sie eben dieses Glück verließ? Vielleicht! Wir bieten noch eine andere Erklärung an: Die Unternehmen wurden so gut geführt, wie sie von Managern nur eben geführt werden 4können. Aber erfolgreiche Unternehmen neigen in ihren besten Zeiten zu Entscheidungen, die den Grundstein für ihren späteren Niedergang legen. Unsere Forschungsarbeiten unterstützen Letzteres: Sie belegen, dass in all den untersuchten Fällen richtiges und gutes Management letztlich zum Scheitern führte. Gerade weil sich diese Unternehmen kundenorientiert zeigen, weil sie aggressiv in neue Technologien investieren, um ihren Kunden leistungsfähigere Produkte zu liefern, weil sie sehr akribisch Markttrends analysieren und ihre Budgets stringent auf jene Innovationen lenken, die die höchsten Erträge versprechen, verlieren sie ihre führende Position.
Im Kern bedeutet das, dass vieles von dem, was man allgemein als richtiges und gutes Management wertet, nur unter bestimmten Konstellationen zum Erfolg führt. Es gibt Zeiten, in denen es besser ist, gerade nicht auf Kunden zu hören, in denen es besser ist, auf Produkte von niedrigerer Qualität mit niedrigeren Margen zu setzen und in denen es besser ist, aggressiv in kleine anstatt in große Märkte zu stoßen. Und hieraus ergibt sich auch der leitende Gedanke des vorliegenden Buches: Es geht darum, beim Leser das Verständnis zu schärfen, dass jede Zeit ihr Management kennt. Wir wollen Hilfestellungen geben, wann die klassischen Grundsätze richtigen und guten Managements anzuwenden sind. Wir wollen aber auch aufzeigen, wann von diesen abzuweichen und alternativen Grundsätzen Vorrang zu geben ist. Diese Grundsätze, wir nennen sie „Prinzipien der disruptiven Innovation“, lassen den Leser besser verstehen, warum führende Unternehmen scheitern. Weil sie diese Prinzipien entweder ignorieren oder sogar bekämpfen. Umgekehrt lassen sich die schwierigsten Herausforderungen in puncto Innovation meistern, wenn man diese Prinzipien wirklich versteht und für sich zu nutzen weiß. Wie bei anderen, großen Herausforderungen auch, ist es von zentraler Bedeutung zu verstehen „wie die Welt funktioniert“. Dann und nur dann ist es möglich, jene Kräfte zu beeinflussen oder sogar nutzbar zu machen, die hinter diesen Herausforderungen wirken.
Dieses Buch richtet sich an eine breite Zielgruppe. Es richtet sich an Wissenschaftler, an Berater und an Führungskräfte, ganz gleich ob sie im produzierenden Gewerbe oder in der Dienstleistungswirtschaft zu Hause sind, ob man sich eher langsam oder schnell verändernden Märkten gegenüber sieht, ob es sich um High Tech oder Low Tech handelt. Dabei verwenden wir den Begriff „Technologie“ in einem sehr breiten Verständnis. Technologie steht für alle jene Prozesse, deren sich ein Unternehmen bedient, um seine Ressourcen in Produkte oder Dienstleistungen und damit in Kundennutzen umzuwandeln. Insofern verwendet jedes Unternehmen, selbst ein Discounter, eine Technologie, um seine Kunden zu befriedigen. Technologie beinhaltet weit mehr als Entwicklung und Produktion, es schließt Marketing-, Investitions- und Managementprozesse mit ein. Daraus leitet sich dann auch das Innovationsverständnis dieses Buches ab: Innovation steht hier für ein Verändern einer solchen Technologie.
5Das Dilemma
Um das Kernanliegen dieses Buches in ausreichender Breite und Tiefe darzustellen und um die Allgemeingültigkeit unserer Aussagen zu begründen, teilen wir dieses Buch in zwei Teile. Der erste Teil – das sind die Kapitel 1 bis 4 – entwickelt einen theoretischen Bezugsrahmen. Er erklärt, warum „an sich vernünftige Entscheidungen“ von „an sich fähigen Führungskräften“ dennoch Unternehmen zum Scheitern bringen können. Das Bild, das nach und nach entsteht, macht das Innovator’s Dilemma greifbar: Entscheidungen, die nach all unserem Wissen richtig und gut für den Erfolg des Unternehmens sind, erweisen sich zugleich als Entscheidungen, die den Niedergang besiegeln können. Der zweite Teil des Buches – also die Kapitel 5 bis 9 – löst dieses Dilemma auf. Auf Basis unseres Bezugsrahmens entwickeln wir Prinzipien, die diesem Dilemma entgegenwirken. Prinzipien, die zeigen, wie sich Führungskräfte einerseits auf die kurzfristige Entwicklung ihres Unternehmens konzentrieren können und zugleich ausreichend Ressourcen auf jene disruptive Technologien lenken, die bei Nichtbeachtung den Niedergang des Unternehmens verursachen können.
In diesem Buch graben wir tief in der Geschichte von Unternehmen und Branchen, bevor wir allgemeine Schlussfolgerungen ziehen. Kapitel 1 und 2 wenden sich der Computer Hardware Industrie zu. Besonderes Augenmerk dient der Produktion von Festplattenlaufwerken. Gerade hier sind führende Unternehmen in arge Bedrängnis geraten. Diese Branche erscheint geradezu ideal für unsere Analysen, da (1) die Entwicklungen gut dokumentiert sind und (2) diese Branche „schnelle Geschichte“ schreibt (wie es einst Kim B. Clark, Dekan der Harvard Business School, treffend formulierte). Innerhalb von wenigen Jahren sind neue Marktsegmente, neue Unternehmen und Technologien entstanden, zur Reife gelangt und auch wieder verschwunden. In nur zwei von sechs neuen Hardware-Technologien nimmt das vormals führende Unternehmen auch im nächsten Technologiezyklus eine dominierende Rolle ein. Dieses vergleichsweise stabile Muster des Scheiterns erlaubt es uns, eine vorläufige „Logik des Scheiterns“ zu entwickeln, um diese dann an anderen Zyklen der Industriegeschichte auf Schlüssigkeit und Robustheit zu testen.
Kapitel 3 und Kapitel 4 vertiefen unser Verständnis vom Scheitern führender Unternehmen der Computer-Branche und testen zugleich die Gültigkeit des Bezugsrahmens für die Erklärung des Niedergangs von führenden Unternehmen anderer Branchen. Kapitel 3 wendet sich der Baumaschinenindustrie – im Speziellen der Herstellung von Baggern – zu. Es belegt, dass es in dieser Branche genau die gleichen Kräfte waren, die den Führenden zum Verhängnis wurden, obgleich sich die Branchen hinsichtlich Wettbewerbskonstellationen und Technologieintensität unterschieden. Kapitel 4 ergänzt unser Modell des Scheiterns. Es zeigt, wie innovative Minimills die 6integrierten Stahlhersteller aus ihrer vormals marktbeherrschenden Stellung vertreiben.
Warum richtiges und gutes Management zum Scheitern führen kann
Unsere „Logik des Scheiterns“ beruht auf drei Erkenntnissäulen: Die erste ist die Unterscheidung zwischen evolutionären und disruptiven Technologien. Um es vorweg zu nehmen: Diese Begriffe unterscheiden sich von der häufig verwendeten Einteilung in inkrementelle und radikale Innovationen. Wir kommen darauf zurück. Die zweite Erkenntnis betrifft den technologischen Fortschritt – genauer seine Charakteristik: Technologien entwickeln sich oftmals schneller als das Marktbedürfnis. Damit ändern sich die Relevanz und die Wettbewerbsfähigkeit von Technologien im Zeitablauf. Die dritte Säule betrifft die Kundenstruktur sowie die Instrumente, die im Zuge der Investitionsentscheidung zur Anwendung kommen. Beides, die Kundenstruktur und die Managementinstrumente haben starken Einfluss auf die Art und Weise, wie neue Investitionsmöglichkeiten identifiziert und bewertet werden.
Evolutionäre versus disruptive Technologien
Die meisten neuen Technologien sind darauf ausgerichtet, Produkte zu verbessern. Diese Technologien nennen wir evolutionäre Technologien. Manche evolutionäre Technologien können durchaus radikaler Natur sein, während andere eher inkrementellen Charakter haben. Allen evolutionären Technologien ist aber gemein, dass sie darauf gerichtet sind, die Leistungsfähigkeit von vorhandenen Produkten entlang der zentralen Kundenanforderungen in bestehenden Märkten zu steigern. Der Großteil des technologischen Fortschritts einer Branche beruht auf eben diesem Technologietypus. Eine wichtige Erkenntnis dieses Buches liegt für uns darin, dass evolutionäre Technologien – und seien sie noch so radikal – selten den Niedergang von führenden Unternehmen verursachen.
Von Zeit zu Zeit entstehen aber disruptive Technologien. Sie führen zunächst zu schlechteren Produkten. Paradoxerweise sind sie es, die bislang führende Unternehmen zu Fall bringen. Sie sprechen einen anderen Kundennutzen an. In aller Regel können Produkte, die auf Basis disruptiver Technologien entstehen, nicht mit der Leistungsfähigkeit etablierter Produkte Schritt halten. Dafür haben sie andere Qualitäten. Und gerade deshalb werden sie von einer kleinen Gruppe neuer Kunden geschätzt. Produkte auf der Grundlage disruptiver Technologien sind oftmals billiger, einfacher und nicht selten bequemer. So etwa im Fall der Desktop-PCs, 7Transistoren (im Vergleich zu Röhren), mp3-Musikdownloads, Software-as-a-Service oder der digitalen Fotografie (im Vergleich zur klassischen analogen Kamera).
Technologieentwicklung versus Marktbedürfnisse
Die Beobachtung, dass sich Technologien schneller als die Marktbedürfnisse entwickeln können, bildet die zweite Säule der „Logik des Scheiterns“. Abbildung 0.1 stellt die Zusammenhänge dar: Im Bestreben, bessere Produkte als ihre Wettbewerber zu entwickeln und damit höhere Margen zu erzielen, schießen Unternehmen über das Ziel hinaus. Sie bieten ihren Kunden mehr als sie brauchen und auch mehr als sie dafür zu bezahlen bereit sind. Das schafft Raum für disruptive Technologien. Sie liegen zunächst noch weit hinter der Leistungsfähigkeit einer evolutionären Technologie zurück, können aber über die Zeit durchaus volle Wettbewerbsfähigkeit erlangen.
Abbildung 0.1: Die Entwicklung evolutionärer versus disruptiver Technologien
Um ein Beispiel zu geben: Kunden, die für ihre Zwecke einst einen Mainframe Computer benötigten, stellen schon einige Jahre später fest, dass ein Desktop-PC ihre Bedürfnisse vollkommen befriedigt. Der Entwicklungspfad der Technologie ist ein anderer als der Entwicklungspfad des Kundenbedürfnisses. Die Leistungsfähigkeit von Mainframe Computern wächst wesentlich schneller als die Nachfrage nach Computerleistung. Analoges spielt sich in anderen Branchen ab. So etwa im Handel. Kunden, die einst nur im Fachhandel ihre Ansprüche nach Qualität und Sortiment erfüllt sahen, sind heute mit dem Leistungsniveau eines Discounters voll zufrieden.
8Disruptive Technologien versus rationale Investitionsentscheidungen
Die dritte Säule unserer „Logik des Scheiterns“ betrifft die Art und Weise, wie etablierte Unternehmen ihre Investitionsentscheidungen treffen. Für diese Unternehmen macht es prima vista wenig Sinn, in disruptive Technologien zu investieren. Das hat drei Gründe: Erstens sind disruptive Produkte einfacher, billiger und lassen eher niedrigere als höhere Margen erwarten. Zum Zweiten finden disruptive Produkte zunächst nur den Weg in unbedeutende Marktsegmente. Und drittens haben die profitablen Stammkunden keine Verwendung für diese Produkte. Eine disruptive Technologie wird – in aller Regel – zunächst von wenig attraktiven Kunden nachgefragt. Unternehmen, die auf ihre wichtigsten Kunden hören, setzen primär auf Innovationen, die hohe Gewinne und Wachstum versprechen. Investitionen in disruptive Technologien lösen die Versprechen nicht ein.
Abbildung 0.2: Thomas W. Lawson (1902 – 1907) 8
Die Dynamik disruptiver Technologien veranschaulicht das folgende Beispiel: Am 10. Juli 1902 lief die Thomas W. Lawson vom Stapel. Sie war das größte je gebaute Segelschiff ohne Hilfsantrieb, der größte je gebaute Schoner 9und der einzige Siebenmaster überhaupt. Ohne jeden Zweifel eine Meisterleistung der Schiffsbaukunst, realisiert von der Fore River Ship & Engine Building Co. in Quincy, Massachusetts. Mit ihren 25 Segeln konnte sie eine Geschwindigkeit von 14 Knoten erreichen. Ihre maximale Ladekapazität betrug 11 000 Standardtonnen. Bei ihrer ersten Atlantiküberquerung geriet die Thomas W. Lawson in einen Sturm. In den frühen Morgenstunden des 14. Dezember 1907 kenterte das Schiff vor den Scilly-Inseln und ein Großteil der Besatzung kam ums Leben.
Mit der Thomas W. Lawson war nicht nur ein Schiff, sondern eine ganze Branche untergegangen. Das Dampfschiff löste das Segelschiff ab. Kein einziger Hersteller von Segelschiffen meisterte diesen Technologiesprung, obgleich sich der Aufstieg des Dampfschiffes über Jahrzehnte hinzieht. Was war der Grund dafür?
Blicken wir zurück: Im Jahre 1783 wurde das erste funktionsfähige Dampfschiff vom Franzosen Claude François Jouffroy d’Abbans gebaut. Fünf Jahre später ließen sich Isaac Briggs und William Longstreet das erste Dampfschiff patentieren. Danach dauerte es aber Jahrzehnte, bis das Dampfschiff wirklich mit dem Segelschiff konkurrieren konnte. Ende des 19. Jahrhunderts überstieg die Population der Dampfschiffe die der Segelschiffe. 1902, im Jahr des Stapellaufs der Thomas W. Lawson, waren Segelschiffe längst in der Minderheit. Dennoch investierte die Fore River Ship & Engine Building Co. 258 000 US-Dollar in den Bau dieses Schiffes – und das im festen Glauben, durch sieben Masten mit den Dampfschiffen mithalten zu können. Auch andere versuchten durch Verbesserung der Segelschiffe dem Dampfschiff Paroli zu bieten, was am Ende nicht gelang. Wie konnte man nur so kurzsichtig sein, auf eine veraltete Technologie setzen und dabei die Entwicklung hin zum Dampfschiff verschlafen?
Abbildung 0.3: Antriebskonzepte in der Schifffahrt 9
10Als Robert Fulton im Jahre 1819 mit seinem Dampfschiff den Hudson River befuhr, waren Dampfschiffe den Segelschiffen in fast jeder Hinsicht unterlegen: Die Kosten pro zurückgelegter Meile waren höher, die Schiffe waren langsamer und sehr viel anfälliger. Prinzipiell galten Dampfschiffe für Ozeanfahrten als vollkommen ungeeignet und konnten nur in einem gänzlich anderen Markt Fuß fassen. Ihr Markt war zunächst die Binnenschifffahrt. Hier galten ganz andere Leistungsmaßstäbe. Auf Flüssen und Seen geht es darum, gegen den Wind und auch bei Windstille zu fahren. Und eben hier waren Dampfschiffe den Segelschiffen überlegen.
Das eigentliche Problem war nicht das Wissen um die neue Technologie der Dampfschiffe. Das Problem lag vielmehr darin, dass die Hersteller von Segelschiffen auf ihre Kunden hörten. Die Reedereien konnten Dampfschiffe für die Ozeanfahrten lange Zeit nicht gebrauchen. Die ersten Dampfschiffe waren langsam und unzuverlässig. Sie brauchten Segel zur Unterstützung. Erst im Jahre 1889 wurde der erste Hochseedampfer ohne jegliches Segel in den Dienst gestellt. Mit seinen 20 Knoten wurde das Dampfschiff nun zu einer ernst zu nehmenden Konkurrenz für das Segelschiff.
Um sich auch im Markt für Dampfschiffe erfolgreich zu behaupten, hätten sich die Hersteller von Segelschiffen auf die Binnenschifffahrt konzentrieren müssen. Denn das war der einzige Markt, in dem Dampfschiffe seinerzeit von Nutzen waren. Was aber taten sie? Sie ignorierten die neue Technologie und konzentrierten sich auf die Weiterentwicklung des Segelschiffs – und damit auf den weit größeren und attraktiveren Markt. Schritt für Schritt verbesserte sich die Leistungsfähigkeit der neuen Technologie. Bald waren Dampfschiffe genauso zuverlässig und genau so schnell wie Segelschiffe und damit nicht mehr aufzuhalten. Das siebte Segel der Thomas W. Lawson steht damit für eine bestimmte Art der Innovation. Es steht für die evolutionäre Innovation, die – entweder auf inkrementelle oder radikale Art – darauf abzielt, Bestehendes zu verbessern. Märkte, Kunden und Leistungsparameter sind bekannt. Das Dampfschiff indes steht für die Disruption. Zunächst hinsichtlich der zentralen Leistungsparameter unterlegen, erweist sich eine disruptive Technologie in anderen Märkten, in denen andere Leistungsparameter zählen, als interessant. Dort kommt die Technologie dann auch zum Einsatz, wird weiterentwickelt bis sie schließlich ein Leistungsniveau erreicht, mit dem sie die etablierte Technologie angreifen und abzulösen vermag. Dieses Muster werden wir in allen unseren untersuchten Branchen wiederfinden. Wenden wir uns aber vorher den einer disruptiven Innovation innewohnenden Prinzipien zu.
11Die „Logik des Scheiterns“ auf dem Prüfstand
In Kapitel 1 und 2 entwickeln wir die „Logik des Scheiterns“ – und das im Kontext von Festplattenlaufwerken. Zu Beginn der Kapitel 4 bis 8 kommen wir immer wieder auf diese Branche zurück, um unser Verständnis Schritt für Schritt zu schärfen, warum es für Führungskräfte so schwierig ist, das Phänomen der Disruption zu meistern. Der Grund, warum wir diese Branche so genau und umfassend analysieren, liegt darin, dass wir die Erklärungskraft unseres Bezugsrahmens sicherstellen wollen. Wenn ein Bezugsrahmen nicht zuverlässig erklären kann, was innerhalb einer Branche passiert ist, kann er kaum auf weitere Branchen übertragen werden. Nach der Analyse der Computerbranche untersuchen wir disruptive Innovationen jüngerer Zeit. Wir zeigen, dass die gleichen Prinzipien, die führende Hersteller von Computerlaufwerken zu Fall brachten auch dafür verantwortlich waren, warum ein einst so erfolgreicher Hersteller von Filmkameras den Trend zur Digitalkamera so lange ignorierte und deshalb beinahe seine Tore schließen musste.
Die Erkenntnisse aus der Computerbranche spiegeln wir schließlich mit dem Untergang der Schweizer Uhrenindustrie in den 1970er und 1980er Jahren und erklären, warum es den damaligen Herstellern nicht gelingen konnte, auf die disruptive Innovation der Quarzuhren zu reagieren und warum Fluglinien mit ihrem Geschäftsmodell im Preiskampf gegen Low-Cost-Airlines klein beigeben müssen.
Kapitel 3 und die Ausführungen in den Kapiteln 4 bis Kapitel 9 prüfen die Allgemeingültigkeit der Aussagen. Kapitel 3 wendet den Bezugsrahmen auf die Frage an, warum führende Hersteller von Seilbaggern durch die Hydrauliktechnologie aus dem Markt gedrängt wurden. Kapitel 4 blickt auf die Stahlindustrie, insbesondere auf die disruptive Minimill-Technologie. Kapitel 5 untersucht auf Basis des Modells den Erfolg der Discount-Händler im Vergleich zu den traditionellen Kaufhäusern und analysiert wie disruptive Technologien die Märkte für Drucker veränderten. Kapitel 6 beschäftigt sich mit den Personal Digital Assistants (PDA). Kapitel 7 beschreibt, wie neue Wettbewerber mit disruptiven Technologien führende Hersteller von Motorrädern und Logikschaltkreisen entthronten. Kapitel 8 zeigt, wie und warum führende Computerhersteller Opfer disruptiver Technologien wurden und wie mp3 die Musikbranche revolutioniert. Kapitel 9 beleuchtet dasselbe Phänomen für Accounting Software und die Insulinbranche. Wir diskutieren auch wie Software-as-a-Service als disruptive Innovation die Softwarebranche verändern kann. Kapitel 10 fasst die Erkenntnisse des Buches zusammen.
12Wie die Prinzipien disruptiver Innovation genutzt werden können
Die ersten Veröffentlichungen der Forschungsergebnisse zu disruptiven Innovationen erregten große Aufmerksamkeit10. Wenn richtiges und gutes Management erfolgreiche Unternehmen bei disruptiven Veränderungen zum Scheitern bringt, dann verstärken die klassischen Reaktionsmuster – stringente Investitionsplanung, härteres Arbeiten, höhere Kundenorientierung – das Problem anstatt es zu lösen. Effektive Umsetzung, Schnelligkeit, Total Quality Management, Prozessmanagement und -effizienz – alles das erscheint plötzlich in einem anderem Licht. In der Tat finden wir im Standardrepertoire der Managementmethoden keine passende Antwort auf die disruptive Herausforderung. Die Kapitel 5 bis 9 zeigen mögliche Auswege aus dem Dilemma auf. Jedes Unternehmen, ganz gleich welcher Branche, unterliegt dem Einfluss einiger weniger Kräfte, die bestimmen, was Führungskräfte in bestimmten Situationen tun oder auch nicht und was sie als richtig oder falsch erachten. Diese Gesetze sind organisationaler Natur. Nehmen diese Kräfte bei disruptiven Innovationen überhand, scheitern Manager und letztlich ganze Unternehmen. Erinnern wir uns zurück an die Anfänge des Fliegens: Man scheiterte kläglich, als man gefederte Flügel an die Arme band, von einer Anhöhe sprang und mit aller Kraft versuchte, sich Flügel schlagend in der Luft zu halten. Allen Träumen und Anstrengungen zum Trotz unterliegt man den Kräften der Natur. Niemand war stark genug, den Kampf gegen die Naturgesetze zu gewinnen. Der Traum vom Fliegen wurde erst wahr, als man die Naturgesetze erkannte und für sich nutzte: die Schwerkraft, das Gesetz von Bernoulli, das Zusammenwirken von Auftrieb, Vortrieb, Widerstand und Gewicht. Als man schließlich Fluggeräte baute, die sich genau dieser Kräfte bedienten – anstatt sie zu bekämpfen – war man in der Lage bis dahin unvorstellbare Flugleistungen zu erbringen.
Kapitel 5 bis Kapitel 9 beschreiben fünf Prinzipien der disruptiven Innovation. So wie die ersten Flugversuche des Menschen scheiterten, weil man gegen die Naturgesetze ankämpfte, scheitern Führungskräfte an disruptiven Innovationen, wenn sie gegen diese Prinzipien ankämpfen. Dabei geht es uns mehr um das generelle Reflektieren dieser Prinzipien als um einfache Kochrezepte. Dahinter steht unsere Überzeugung, dass jeder aufmerksame Leser – sobald er ein Verständnis für die Problematik entwickelt hat – bestens gerüstet ist, für sich selbst und seine jeweilige Situation passende Antworten zu finden. Das setzt allerdings ein tieferes Verständnis darüber voraus, was (a) in der eigenen Branche zum Phänomen der disruptiven Innovation geführt hat und (b) welche Kräfte die Gegenmaßnahmen im spezifischen Fall beeinflussen.
131. Prinzip: Unternehmen hängen von ihren Kunden und ihren Investoren ab!
Die Geschichte der Computerlaufwerke zeigt, dass etablierte Unternehmen bei „Innovationswellen“ solange an der Spitze bleiben, solange es sich um evolutionäre Technologien handelt. Indes bringt die einfachste disruptive Innovation führende Unternehmen zum Scheitern. Dieses Phänomen steht in Einklang mit der Theorie der Ressourcenabhängigkeit. Diesem Ansatz zur Folge unterliegen Führungskräften der Illusion, dass sie es sind, die in ihrem Unternehmen über Ressourcenströme entscheiden. Tatsächlich sind es aber die Kunden und die Kapitalgeber. Unternehmen, die ihre Mittel so einsetzen, dass sie weder Kunden noch Investoren zufriedenstellen, werden nicht überleben. Umgekehrt sind die Unternehmen am erfolgreichsten, denen eine Allokation im Sinne von Kunden und Kapitalgebern gelingt. Dabei entwickeln sie Entscheidungsroutinen, die systematisch jene Ideen verwerfen, die ihre Kunden nicht wollen. Das wiederum hat zur Folge, dass es diesen Unternehmen unendlich schwer fällt, ausreichend Ressourcen für disruptive Technologien bereit zu stellen. Zumindest solange, bis die bestehenden Kunden schließlich Interesse an der disruptiven Technologie zeigen. Aber dann ist es in aller Regel zu spät.
Und doch gibt es einen Ausweg, den etablierte Unternehmen – mal mehr, mal weniger – bestreiten. Führende Unternehmen sind dann auch bei disruptiven Technologien erfolgreich, wenn sie dafür eigene Organisationseinheiten schaffen und diesen Einheiten den klaren Auftrag erteilen, sich um das Disruptive zu kümmern. Eine solchermaßen unabhängige Organisationseinheit unterliegt nicht dem gleichen Einfluss der Kunden, wie der Rest des Unternehmens und kann sich folglich auf neue Kundensegmente konzentrieren, die bereits Interesse für die disruptive Technologie zeigen. Kurzum: Auch führende Unternehmen können disruptive Technologien meistern, wenn sie sich so organisieren, dass das Prinzip der Ressourcenabhängigkeit nicht überall in gleichem Maße gegen sie wirkt.
Dabei können Führungskräfte nicht erwarten, dass freiwillig Ressourcen dafür verwendet werden, um in neue, noch unbedeutende Märkte zu stoßen. Für ein Unternehmen, dessen gesamte Kostenstruktur auf den Wettbewerb in einem „High-End Segment“ des Marktes ausgerichtet ist, erweist es sich als ausgesprochen schwierig, im „Low-End Segment“ Zählbares zu erwirtschaften. Will sich ein etabliertes Unternehmen auf den Wettbewerb rund um eine disruptive Technologie einlassen, reicht es nicht aus, eine unabhängige Organisationseinheit zu schaffen. Diese braucht zugleich entsprechend ausgerichtete Strukturen und Prozesse, um sich mit dem Prinzip der Ressourcenabhängigkeit zu arrangieren.
142. Prinzip: Kleine Märkte befriedigen nicht das Wachstumsbedürfnis großer Unternehmen
Disruptive Technologien kreieren neue Märkte. Unternehmen, die frühzeitig in diese Märkte eintreten, genießen sogenannte „First Mover Advantages“. Wenn diese Unternehmen nun aber wachsen, wird es für sie zunehmend schwieriger als „First Mover“ das Spiel in neu entstehenden Märkten zu wiederholen. Doch erfolgreiche Unternehmen müssen wachsen, um ihren Aktienkurs hochzuhalten und um ihren Führungskräften Perspektiven zu bieten. Während ein Unternehmen, das 40 Mio. Umsatz erwirtschaftet, lediglich einen 8 Mio. Markt braucht, um ein Umsatzwachstum von 20 % auszuweisen, braucht ein 4 Mrd. Unternehmen für das gleiche Umsatzwachstum einen 800 Mio. Markt. Doch kein neuer Markt hat ein solches Volumen. Je größer also ein Unternehmen wird, umso unattraktiver stellen sich aus seiner Perspektive kleine, neu entstehende Märkte dar. Die Folge: Große Unternehmen nehmen eine Position des Wartens ein. Sie warten bis neue Märkte jenes Volumen aufweisen, das sie interessant macht. Wir kommen darauf zurück, warum das meist keine erfolgreiche Strategie ist.
Was zeichnet führende Unternehmen aus, die auf Basis disruptiver Technologien erfolgreich in neuen Märkten agieren? Sie haben in aller Regel die Verantwortung für Einführung und Vermarktung dieser Technologie auf eigene Organisationseinheiten übertragen, die in Größe und Agilität auf die Bedingungen eines neuen Marktes ausgerichtet sind. Kleine Einheiten können wesentlich besser die Wachstumschancen von kleinen Märkten nutzen. Indes machen es formelle und informelle Zwänge bei der Ressourcenallokation großen Unternehmen nahezu unmöglich, ausreichend Energie und Managementkapazitäten in kleine Märkte zu investieren, auch wenn der Verstand sagt, dass sich diese einmal zu interessanten Zukunftsmärkten entwickeln werden.
3. Prinzip: Märkte, die (noch) nicht existieren, können nicht analysiert werden
Marktforschung, gepaart mit guter Planung und konsequenter Umsetzung, sind Eckpfeiler richtigen und guten Managements. Ihnen ist es zu verdanken, dass etablierte Unternehmen evolutionäre Technologien weiterentwickeln und damit ihre Positionen festigen können. Marktforschung, Planung und Umsetzung sind bei evolutionären Technologien nützlich, weil die Größe und Wachstumsraten der Märkte bekannt, Entwicklungspfade und technologischer Fortschritt gegeben und die Bedürfnisse der wichtigsten Kunden klar artikuliert sind. Die Welt disruptiver Innovationen ist eine andere: Marktforscher und Planer versagen. Die Erfahrungen, die wir bei Computerlaufwerken, Mikroprozessoren und Kameras sammeln konnten, lehren uns, dass das Einzige, was wir als sicher annehmen dürfen, die 15Unsicherheit sämtlicher Prognosen über das Marktpotential ist. Unbeschadet dessen, ob ein Unternehmen eine führende Position einnimmt oder nicht, liegen im Fall der evolutionären Technologie ausreichend Marktinformationen vor. Es kann geplant werden. Unter diesen Bedingungen sind technologische „Fast Follower“ meist ähnlich erfolgreich wie „First-Mover“. Anders bei disruptiven Innovationen. Hier wissen wir wenig über Märkte. „First-Mover“-Vorteile sind entscheidend. Einmal mehr zeigt sich das Innovator’s Dilemma. Denn Unternehmen, die Investitionsentscheidungen nur auf Basis eindeutiger Quantifizierungen von Marktpotential und Renditeabschätzungen treffen, sind bei disruptiven Innovationen wie gelähmt oder machen entscheidende Fehler. Sie fordern Marktdaten, wo solche (noch) nicht vorhanden sind, treffen Entscheidungen auf Basis von Finanzprognosen, wo weder Umsätze noch Kosten schätzbar sind. Marketing- und Planungstechniken, die sich beim Management evolutionärer Innovationen bewährt haben, verkommen bei disruptiven Innovationen zu einem Muster ohne Wert.
Wir plädieren für einen anderen, „explorativen“ Ansatz. Er berücksichtigt, dass der richtige Markt und die passende Strategie, um diesen wirksam zu bearbeiten, nicht im Voraus bekannt sind. Ein solches „discovery-based planning“ fordert von Führungskräften eine Bewusstseinsleistung ein: Sie sollen (a) annehmen, ihre Prognosen seien eher falsch als richtig, auch sollen sie (b) nicht davon ausgehen, dass ihre Strategien greifen. Schließlich müssen Führungskräfte (c) abseits von bislang Gelerntem lernen, was mit der Entwicklung des Marktes noch gelernt werden muss. Damit stehen die Chancen gut, die Herausforderungen, die mit disruptiven Innovationen verbunden sind, tatsächlich zu meistern.
4. Prinzip: Die Fähigkeiten einer Organisation erweisen sich zugleich als ihre Unzulänglichkeiten
Geht es um die Lösung eines Innovationsproblems, suchen Führungskräfte instinktiv nach besonders fähigen Mitarbeitern. Gelingt ihnen die Wunschbesetzung, verfestigt sich das Bild, dass die Organisation, für die sie arbeiten, auch die Fähigkeit besitzt, die richtigen Leute für die richtigen Aufgaben zu betrauen. Erfolg verkürzt sich auf das richtige Zuweisen der richtigen Leute. Das ist eine gefährliche Annahme. Die Fähigkeiten des Unternehmens sind unabhängig von den Fähigkeiten einzelner Mitarbeiter. Organisationale Fähigkeiten gibt es auf zwei Ebenen: Auf Ebene der Prozesse und auf Ebene der Werte. Prozessuale Fähigkeiten betreffen die Art und Weise, wie Mitarbeiter die vorhandenen Ressourcen nutzen, um Resultate zu erzielen. Organisationale Werte betreffen die Kriterien, die Führungskräfte heranziehen, um Prioritäten zu setzen. Menschen indes sind relativ flexibel. Sie können sensibilisiert, geschult und weiterentwickelt werden, um in unterschiedlichen Situationen ihre Aufgaben erfolgreich zu meistern. 16Ein Mitarbeiter eines Großunternehmens kann seinen Arbeitsstil anpassen, um in einem Start-up-Unternehmen erfolgreich zu agieren. Prozesse und Werte hingegen sind starr: Ein Prozess, der sich in der Entwicklung eines Laptops als erfolgreich erweist, mag für die Entwicklung eines Smartphones ungeeignet sein. Ähnlich verhält es sich mit Werten. Werte, die dazu führen, dass Mitarbeiter Entwicklungsprojekte priorisieren, die hohe Margen versprechen, lassen sich über Nacht nicht so verändern, dass nunmehr Projekte mit niedrigen Margen zum Zuge kommen. Prozesse und Werte, die in einem bestimmten Kontext als Stärken eines Unternehmens gelten, können sich in einem anderen Kontext als Schwäche oder gar als Unfähigkeit erweisen.
Wir zeigen wie Führungskräfte erkennen, wo ihr Unternehmen Fähigkeiten, aber auch Unzulänglichkeiten im Umgang mit disruptiven Innovationen aufweist. Ein anschauliches Beispiel liefern einmal mehr die Hersteller von Computerlaufwerken in ihrem Bemühen, die Prozesse und Werte ihres Unternehmens auf die geänderten Herausforderungen disruptiver Innovationen anzupassen.
5. Prinzip: Technologien entwickeln sich schneller als Kundenbedürfnisse
Disruptive Technologien finden zunächst nur den Weg in kleine, neu entstehende Märkte. Sie werden aber zur ernsten Bedrohung, wenn sie ihre volle Leistungsfähigkeit entfalten. Nicht selten verdrängen sie am Ende die etablierten Produkte. Diesen Zusammenhang stellt Abbildung 0.1 dar. Die Produkteigenschaften folgen einem Entwicklungspfad. Dabei entwickelt sich der technologische Fortschritt schneller als die Kundenbedürfnisse. Die Anbieter neigen dazu, über die wirklichen Bedürfnisse der Kunden hinaus zu schießen. Eigenschaften, die Kundennutzen schaffen, bergen alsbald die Gefahr eines „Overengineering“. Produkte, die heute – bezogen auf die Bedürfnismuster des „Mainstream“ – hinter den Anforderungen zurück bleiben, können sich in Zukunft als wirkliche Meilensteine erweisen.
Einmal mehr zeigen die Computerlaufwerke – und nicht nur diese – wie sich die Regeln des Wettbewerbs ändern, indem sich Bedürfnismuster und kaufentscheidende Kriterien verschieben. Ab dem Zeitpunkt, ab dem die Leistungsfähigkeit eines Produktes über den Kundenanforderungen liegt, verliert die Produktleistung ihre kaufentscheidende Wirkung. Es gewinnt nicht mehr das leistungsfähigste Produkt. Die Kaufkriterien entwickeln sich von Funktionalität über Zuverlässigkeit hin zu Bequemlichkeit und schließlich spielt der Preis die entscheidende Rolle.
Produkte und Märkte durchlaufen bestimmte Phasen, die sich insgesamt als Lebenszyklus darstellen lassen. Wir greifen dieses Phänomen an späterer Stelle auf und zeigen, wie ein „Overengineering“ neue Phasen des Produktlebenszyklus 17einleitet. In ihrem Bemühen der Konkurrenz einen Schritt voraus zu sein, schätzen viele Unternehmen die Geschwindigkeit falsch ein, mit der sie ihre Produkte weiterentwickeln und verbessern müssen. Am Ende sind sie schneller als der Markt es verlangt. Sie bieten mehr, ja oftmals weit mehr, als ihre wichtigsten Kunden erwarten. Damit tragen sie selbst gehörig dazu bei, dass sich unterhalb ihrer Produktleistung ein Vakuum entwickelt, das Raum schafft für einfachere und billigere Produkte. Sie selbst ebnen damit neuen Konkurrenten den Weg, die auf Basis disruptiver Technologien in den Markt eintreten. Nur jene Unternehmen, die sehr gewissenhaft verfolgen – und dieses Verfolgen geht weit über Befragen hinaus –, wie ihre Kunden ihre Produkte verwenden, erkennen, wann sich Anforderungen an die Produkte und damit die Basis des Wettbewerbs verändern.
Disruptive Chancen und Risiken erkennen
Führungskräfte, die sich nach und nach mit dem Phänomen der Disruption vertraut machen, mögen mit gemischten Gefühlen – von Ungeduld bis Besorgnis – diese Prinzipien lesen. Vieles weist darauf hin, dass gerade die besten Manager mit der konsequenten Anwendung von richtigem und gutem Management Fehler machen, wenn ihre Märkte durch disruptive Technologien aufgemischt werden. Von Interesse können die Fragen sein, ob (a) die eigene Branche Raum für Disruption schafft – oder bereits Ziel eines konkreten Angriffs ist, (b) wie man sich verteidigt bevor es zu spät ist oder (c) wie man unternehmerische Chancen mittels disruptiver Technologien gezielt entdecken und nutzen kann.
Wo disruptive Innovationen stattfinden
Seit dem ersten Erscheinen dieses Buches im Jahre 1997 zeigen sich mehr und mehr Bereiche, in denen disruptive Kräfte wirken. Einige davon fassen wir in Tabelle 0.1 zusammen. Eine treibende Kraft sind dabei das Internet, die Digitalisierung und die Web 2.0-Technologie, die an vielen Stellen disruptive Umbrüche und schließlich ganz neue Geschäftslogiken überhaupt erst ermöglichen.
Jede Innovation auf der rechten Seite der Tabelle – in Form einer neuen Technologie oder einer neuen Geschäftslogik – greift etablierte Technologien oder traditionelle Geschäftsmodelle an. Werden die bislang führenden Unternehmen diese Angriffe überleben? Unsere Hoffnung ist, dass die Zukunft anders sein wird als die Vergangenheit es war. Und wir glauben, dass die Zukunft anders sein kann, wenn auch Führungskräfte etablierter Unternehmen disruptive Innovationen also solche erkennen und sich mit Hilfe der vorgestellten Prinzipien zu Nutze machen.
18Etablierte Technologie |
Disruptive Technologie |
Segelschiff |
Dampfschiff |
Seilbagger |
Hydraulikbagger |
Integrierte Stahlwerke |
Elektrostahlwerke („Minimills“) |
5 ¼-Zoll-Festplattenlaufwerke |
3,5-Zoll-Festplattenlaufwerke |
Kaufhäuser |
Discounthändler |
Mechanische Uhr |
Quarzuhr |
Tintenstrahldrucker |
Laserdrucker |
Enzyklopädie |
Wikipedia |
Festnetztelefonie |
Mobiltelefonie |
Filmkamera |
Digitalkamera |
Klassische Fluglinie |
Low-Cost-Airline |
Musik-CD |
MP3 |
Reisebüro |
Online-Buchungssysteme |
Installierte Software |
Software-as-a-Service |
Stationärer Handel, Kataloghandel |
Online-Handel |
Universalbanken |
Direktbanken |
Verbrennungsmotor |
Elektroauto |
Telefon |
Voice over IP |
PC/Notebook |
Tablets |
PC/Notebook/Tablet |
Smart Phone |
Tabelle 0.1: Beispiele von disruptiven Innovationen
20Teil 1
Zum Scheitern führender Unternehmen – ein Erklärungsansatz
21Kapitel 1 Wie es zum Scheitern kommt – ein Blick in die Computerbranche und die Kameraindustrie
Genforscher wählen nicht gerne den Menschen als Forschungsobjekt. Viel lieber sind ihnen schwarzbäuchige Taufliegen (Drosophila melanogaster). Und das hat einen einfachen Grund: Beim Menschen entsteht nur etwa alle 30 Jahre eine neue Generation. So dauert es ewig, bis man Ursache-Wirkungs-Zusammenhänge untersuchen und schließlich verstehen kann. Bei schwarzbäuchigen Taufliegen geht das schneller. Viel schneller. Ihr Lebenszyklus umschließt nur wenige Tage. Um Zusammenhänge in der Wirtschaft zu verstehen, ist es daher äußerst hilfreich, Branchen mit kurzen Lebenszyklen zu beobachten. Eine solche Branche ist die der Hersteller von Computerlaufwerken. Nicht ganz so schnelllebig wie die Lebenszyklen der schwarzbäuchigen Taufliegen, kommt diese Branche nach allem, was die Wirtschaft zu bieten hat, dem doch sehr nahe.
Die Wirtschaftsgeschichte kennt kaum eine Branche, in der sich Technologien, Marktstrukturen, Globalisierung und vertikale Integration so schnell entwickeln und verändern. Während die Geschwindigkeit und Komplexität für die betroffenen Manager oftmals einem Alptraum gleichkommt, bietet kaum eine andere Branche ähnlich gute Möglichkeiten, um Theorien zu entwickeln und empirisch zu beobachten – auch und insbesondere solche über den Erfolg und das Scheitern von Unternehmen. Zunächst fassen wir in diesem Kapitel die Geschichte dieser Branche kurz zusammen. Das mag an sich schon faszinieren11. Der wahre Wert der Betrachtung liegt aber darin, ein paar vergleichsweise einfache und konsistente Faktoren zu identifizieren, die den Erfolg oder das Scheitern der Besten dieser Branche erklären. Kurz zusammengefasst waren die besten Unternehmen der Branche so erfolgreich, weil sie (a) sehr genau und gewissenhaft die Kundenwünsche analysierten und weil sie (b) recht aggressiv in jene Technologien, Produkte und Kompetenzen investierten, die erforderlich waren, um die Anforderungen an die nächste Produktgeneration befriedigen zu können. Das Paradoxe daran ist aber, dass genau diese Faktoren auch das Scheitern der Unternehmen nach sich ziehen: Die Gescheiterten analysierten sehr genau und gewissenhaft die Wünsche ihrer Kunden, sie investierten aggressiv in die Technologien, Produkte und Kompetenzen, die notwendig waren, um die Bedürfnisse der Kunden an die nächste Generation von Produkten zu befriedigen. Das Dilemma des Innovators lässt grüßen: Unbedingte Kundenorientierung kann sich als fataler Fehler erweisen!
Die Geschichte der Computerlaufwerke macht deutlich, wann Kundenorientierung vorteilhaft ist und wann sie zum Nachteil gereicht. Doch 22robuste Schlussfolgerungen setzen eine entsprechende Detaillierung der Analyse voraus. Einige Details wollen wir gleich in der Folge vorstellen, andere bleiben späteren Kapiteln des Buches vorbehalten, um den Leser mit der Geschichte dieser Branche mehr und mehr vertraut zu machen. Ganz in der Hoffnung, den Leser in die Lage zu versetzen, jene Muster zu erkennen, die auch das Schicksal des eigenen Unternehmens (oder jenes der Konkurrenten) bestimmen.
Wie Computerlaufwerke funktionieren
Computerlaufwerke machen den Zugriff auf digitale Daten auf einem Speichermedium möglich. Sie bestehen aus a) einem Schreib-/Lesekopf, der über einer rotierenden Scheibenoberfläche schwebt – ähnlich einem Tonabnehmer eines Plattenspielers, b) einer magnetisch beschichteten Scheibe als den eigentlichen Informationsträger, c) mindestens zwei elektrischen Motoren (einer zum Antrieb der Scheibe; ein anderer, der den Schreib-/Lesekopf auf die gewünschte Stelle oberhalb des Informationsträgers bringt und d) einer Steuerelektronik, die die Funktion des Laufwerks und die Schnittstelle zum Computer regelt. Abbildung 1.1 stellt ein typisches Computerlaufwerk dar.
Abbildung 1.1: Die wichtigsten Komponenten eines Computerlaufwerks 12
Der Schreib-/Lesekopf ist ein winziger Elektromagnet, der kleinste Bereiche der Scheibenoberfläche unterschiedlich magnetisiert. Auf diese Weise schreibt er die Daten auf das Speichermedium. Der Schreib-/Lesekopf 23schwebt über der rotierenden Scheibenoberfläche aufgrund eines Luftpolsters, erzeugt durch die Reibung der Luft. Lag die Schwebehöhe bei einer Festplatte noch vor wenigen Jahren bei 20 Nanometer (nm), hat sich diese mittlerweile halbiert. Zum Vergleich: Ein menschliches Haar ist immerhin etwa 50 000 nm dick. Den Halbleitern gleich erfolgt die Herstellung deshalb in Reinräumen. Daten werden durch die gezielte Magnetisierung von kleinsten Flächen ferromagnetischen Materials auf der Glas- oder Aluminiumscheibe gespeichert. Diese Flächen werden dann vom Schreibfinger angesteuert und können den elektronisch-binären Wert von 0 oder 1 annehmen. Beim Lesen einer Festplatte (oder Diskette) werden diese 0/1-Werte dekodiert, an das Betriebssystem weitergegeben und schließlich vom Prozessor des Computers ausgewertet und weiterverarbeitet.
Die ersten Laufwerke
Das erste Laufwerk wurde in den Jahren 1952 bis 1956 von einem IBM-Forscherteam in den San Jose Forschungslaboratorien entwickelt. Es trägt den Namen RAMAC (Random Access Method for Accounting and Control) und hatte am Ende die Dimensionen eines Kühlschrank: 51 Speicherplatten konnten ein Datenvolumen von insgesamt fünf Megabyte (MB) speichern (siehe Abbildung 1.2). RAMAC 350 – so die genaue Bezeichnung – kann heute im IBM Museum in Sindelfingen bestaunt werden. Überhaupt gehen die meisten Komponenten der Laufwerksarchitektur und die damit verbundenen Technologien auf IBM zurück. So etwa die Wechselplatten (eingeführt 1961), die Floppy-Disks (1971) oder die Winchester-Architektur (1973), um nur einige zu nennen. Sie alle hatten wesentlichen Einfluss auf das, was man in der Branche unter Laufwerken verstand und noch versteht. Während IBM zunächst nur für den eigenen Bedarf produzierte, entstand darüber eine ganze Branche. Verschiedene Hersteller bedienten im Wesentlichen zwei unterschiedliche Märkte: Da war zum einen der sogenannte PCM-Markt (plugcompatible market). Es handelte sich um Kopien der IBM Laufwerke, die von einigen Herstellern zu niedrigeren Preisen direkt an IBM-Kunden vertrieben wurden. Zum anderen ging es um den Markt für Erstausrüster (OEM) von Laufwerken. Obgleich die meisten Konkurrenten von IBM als vertikal integrierte Unternehmen (z. B. Control Data, Burroughs und Univac) ihre eigenen Laufwerke produzierten, entstanden in den 1970er Jahren ein paar kleinere, nicht-integrierte Computerhersteller wie Nixdorf, Wang und Primes, die diesen neuen Markt schufen. Bis 1976 wurden Laufwerke im Gesamtwert von 1 Milliarde Dollar produziert. Die Hälfte für den Eigenbedarf und jeweils 25 % für den PCM- und den OEM-Markt.
Die nächsten Jahre waren geprägt durch starkes Wachstum, Marktturbulenzen und technologiebasierte Produktverbesserungen. Bis 1995 stieg der Gesamtwert der produzierten Laufwerke auf 18 Milliarden Dollar an. Dabei 24war Mitte der 1980er Jahre der PCM-Markt relativ unwichtig geworden. Hingegen entfielen auf den OEM-Markt mittlerweile 75 % der Weltproduktion. Von den 17 Unternehmen, die 1976 im Markt waren – allesamt relativ große, diversifizierte Unternehmen wie Diable, Ampex, Memorex, EMM und Control Data – blieb bis 1995 nur IBM übrig. Die anderen waren zwischenzeitlich gescheitert oder wurden übernommen. Wir zählen während dieser Periode 129 Markteintritte, wobei 109 davon scheiterten. Außer IBM, Fujitsu, Hitachi und NEC handelte es sich bei den Markteilnehmern im Jahre 1996 durchwegs um Start-ups, die nach 1976 in den Markt eingetreten waren.
Abbildung 1.2: Die RAMAC 350 von IBM (links: IBM RAMAC 350 Platte mit zwei Zugriffstationen, rechts: IBM 350 RAMAC Einheit) 13
Die hohe Sterblichkeitsrate unter den integrierten Unternehmen schreibt man für gewöhnlich dem enormen technologischen Fortschritt zu. Und dieser Fortschritt war in der Tat atemberaubend. Die Speicherdichte an Daten, gemessen in Megabits (MB), stieg Jahr für Jahr um durchschnittlich 35 % an: Von 50 KB im Jahre 1967 über 1,7 MB im Jahre 1973, 12 MB in 1981 auf 1100 MB im Jahre 1995. Fünf Jahre später betrug die Speicherdichte bereits über 55 000 MB14. Gleichzeitig schrumpfte die Größe der Laufwerke – ebenfalls um jährlich 35 %: War das kleinste 20 MB Laufwerk 1978 noch 800 Kubikzoll groß, betrug der Wert 1993 nur noch 1,4 Kubikzoll.
Abbildung 1.3 zeigt die Erfahrungskurve in der Produktion der Laufwerke. Sie setzt die kumulierte Produktion von Laufwerken (ausgedrückt in Terabyte) in Beziehung zu dem Preis pro Megabyte (jeweils im Dollar-Wert von 1982). Bei jeder Verdoppelung der Produktionsmenge fallen die Preise pro Megabyte auf 53 % des Vorwertes („53 % Kurve“). Damit liegt der Erfahrungskurveneffekt weit über der für andere Bereiche der Mikroelektronik üblichen 70 % Marke. Quartal für Quartal fiel der Preis pro Megabyte um etwa 5 % – und das über einen Zeitraum von mehr als 20 Jahren.
Abbildung 1.3: Die Erfahrungskurve in der Laufwerkproduktion 15
Der Einfluss des technologischen Wandels
Zieht man die vorliegenden Studien zu Rate, warum es für führende Unternehmen so schwierig ist an der Spitze zu bleiben, so findet man im Wesentlichen eine Erklärung – den technologischen Wandel (bisweilen als „mudslide“ im Sinne einer technologischen Schlammlawine bezeichnet). Folgt man der Argumentation, so ist man rastlos gezwungen, sich mit allen Kräften an der Oberfläche zu halten. Wer nur kurz innehält, um Luft zu holen, wird von einer Lawine begraben. Das klingt zunächst plausibel. Und doch wollen wir diese Hypothese hinterfragen. Dazu wurden die technischen Daten und Leistungsspezifikationen aller Laufwerkmodelle jener Unternehmen gesammelt und ausgewertet, die in den Jahren 1975 bis 1994 Laufwerke produzierten16. Die Datenbasis schafft Transparenz, wer bei der Einführung einer bestimmten Technologie führend war, wie sich neue Technologien verbreiteten, wer bei der nächsten Technologie die Nase vorne hatte und welchen Einfluss der technologische Wandel auf Kapazität, Geschwindigkeit und andere Leistungsparameter ausübte. Insgesamt können auf diese Weise jene technologischen Veränderungen identifiziert werden, die einzelne Unternehmen plötzlich an die Spitze katapultieren oder führende Unternehmen zum Scheitern bringen.
Diese Untersuchungen führen zu einem vollkommen neuen Verständnis des technologischen Wandels. Anders als frühere Arbeiten zeigen die Ergebnisse, dass weder die Geschwindigkeit noch die Komplexität des 26technologischen Wandels ursächlich für das Scheitern der führenden Unternehmen waren. Demzufolge lässt sich auch die „mudslide-Hypothese“ nicht länger halten. Die Hersteller vieler Produkte, so macht unsere Analyse deutlich, setzten auf einen Entwicklungspfad von Leistungsverbesserungen17. So erhöhte etwa Intel die Geschwindigkeit seines Mikroprozessors um etwa 20 % pro Jahr, von 8 MHz (8088-Prozessor) im Jahre 1979 auf 133 MHz (Pentium Chip) im Jahre 1994. Gleiches Phänomen, andere Branche: Das Pharmaunternehmen Eli Lilly steigerte den Reinheitsgrad seines Insulins von 50 000 ppm (parts per million) im Jahre 1925 auf 10 ppm im Jahre 1980, was einer jährlichen Verbesserungsrate von 14 % entspricht. Hat ein Unternehmen einmal einen solchen Entwicklungspfad des technologischen Fortschritts gefunden, lässt sich der Einfluss einer neuen Technologie auf die Produktleistung recht klar bestimmen.
Allerdings kann der technologische Wandel auch ganz andere Formen annehmen. Stellt ein Notebook eine Verbesserung gegenüber einem Mainframe Computer dar? Diese Frage ist nicht eindeutig zu beantworten, da Notebooks einen neuen technologischen Entwicklungspfad eröffnen – mit einem eigenen Verständnis des Begriffs Produktleistung. Schließlich werden Notebooks für ganz andere Zwecke verwendet.
Die Untersuchung über den technologischen Wandel bei den Computerlaufwerken bringt zwei unterschiedliche Wandlungstypen zum Vorschein: Der erste Typus trägt dazu bei, dass Leistungsverbesserungen kontinuierlich fortgeschrieben werden können – und das entlang eines bestimmten technologischen Entwicklungspfades. Dieser Technologietypus ist demzufolge evolutionärer Natur. Dabei können evolutionäre Technologien sowohl inkrementeller, als auch radikaler Natur sein. Führende Unternehmen machen in Bezug auf Entwicklung und Verwendung dieser Technologien ihrem Namen alle Ehre. Sie führen den Wettbewerb uneingeschränkt an. Im Gegensatz dazu steht ein zweiter Typus des technologischen Wandels: Die disruptive Technologie. Disruptive Technologien leiten neue technologische Entwicklungspfade ein. Sie führen regelmäßig zum Scheitern der Branchenführer.
Im Weiteren wollen wir uns noch etwas ausführlicher mit den beiden Wandlungstypen beschäftigen. Für jeden Typus finden wir bekannte Beispiele und zeigen, welche Rolle der Entwicklungstypus für die jeweilige Branche spielt. Dabei richtet sich unser Blick insbesondere auf die Branchenführer. Können sie die Entwicklung anführen oder hinken sie hinterher? Führende Unternehmen sind für uns solche, die bereits vor dem Technologiewandel im Markt waren und mit der „alten“ Technologie arbeiten. Als neu eintretende Unternehmen bezeichnen wir jene, die zum Zeitpunkt des technologischen Wandels neu in die Branche eintreten. Folglich kann ein Unternehmen zu einem bestimmten Zeitpunkt ein Neueinsteiger sein, bei dem nächsten Technologiesprung aber zum Kreis der Etablierten zählen.
27Evolutionärer technologischer Wandel
Zurück zur Geschichte des Computerlaufwerks. Hier waren die meisten technologischen Veränderungen evolutionärer Natur und trugen insofern zur Fortführung des technologischen Entwicklungspfades bei. Abbildung 1.4 zeigt die durchschnittliche Speicherdichte bei drei aufeinanderfolgenden, evolutionären Technologien. Die erste Kurve stellt die Speicherdichte der konventionellen, mit Eisenoxyd beschichteten Scheiben und der Ferrit-Kopf-Technologie dar. Die zweite Kurve spiegelt die durchschnittliche Speicherdichte der neuen Dünnfilmköpfe und -platten wider. Die dritte Kurve verdeutlicht schließlich die Verbesserung der Speicherdichte mit MR-Technologie für die Kopftechnik (magnetoresistive Aufzeichnung).
Die Art und Weise, wie die jeweiligen neuen Technologien die Leistungsfähigkeit der alten Technologien überholen, gleicht einer Reihe sich überlagernder S-Kurven. Inkrementelle Verbesserungen der Technologie führen dazu, dass man sich entlang der S-Kurve kontinuierlich verbessert. Der Sprung auf die nächste Technologie kommt einer radikalen Verbesserung gleich. Im Beispiel der Speicherdichte in der Abbildung 1.4. haben inkrementelle Verbesserungen, etwa die Verfeinerung der Ferrit-Köpfe und die Verwendung feinstverteilter Eisenoxyd-Partikel auf der Oberfläche der Speicherplatte, die Speicherdichte im Zeitraum von 1976 bis 1989 von 1 auf 20 Megabits pro Quadratzoll (Mbpsi) erhöht. Ganz im Sinne der S-Kurven-Theorie flacht die Erhöhung der Speicherdichte mit Eisenoxyd-Technologie gegen Ende ab, geradezu typisch für eine reifende Technologie. Die Dünnfilmkopf-Technologie, die die Eisenoxyd-Technologie Mitte der 80er Jahre abzulösen begann, setzte den Entwicklungspfad fort, musste dann aber mehr und mehr das Feld für die überlegene MR-Technologe räumen. Diese Technologie setzte den Entwicklungspfad nicht nur fort, sie beschleunigte ihn sogar.
Abbildung 1.5 zeigt einen anderen Entwicklungspfad einer evolutionären Technologie: Die Innovation in der Laufwerkarchitektur – konkret die Substitution der 14-Zoll-Laufwerke durch die Winchester-Wechselplatten. Ganz ähnlich wie die Substitution der Ferrit- durch die Dünnfilm-Köpfe trägt die Winchester-Technologie zur kontinuierlichen Verbesserung der Speicherdichte entlang des etablierten Entwicklungspfades bei. Und dieses Muster finden wir für die meisten anderen Technologieinnovationen der Branche. Einige waren Weiterentwicklungen, andere indes radikale Neuentwicklungen. Aber alle führten zu dem gleichen Effekt: Sie versetzten die Hersteller in die Lage, die von den Kunden erwartete Rate der technologischen Verbesserungen konstant aufrecht zu erhalten.
In jedem der untersuchten Fälle der evolutionären Technologien waren die führenden Unternehmen sowohl in der Entwicklung als auch in der Vermarktung vorne. Das lässt sich an der Einführung neuer Speicherplatten und der Kopftechnologien veranschaulichen.
Abbildung 1.4: Der Einfluss neuer Kopf-Technologien auf die Weiterentwicklung entlang des Entwicklungspfades für Aufzeichnungsdichte 18
Abbildung 1.5: Der „evolutionäre“ Effekt der Winchester-Architektur auf den Entwicklungspfad der Speicherdichte von 14-Zoll-Laufwerken 19
29In den 1970er Jahren waren sich einige Hersteller durchaus darüber bewusst, dass die Speicherkapazität oxydbeschichteter Platten an ihre Grenzen stößt. Um dennoch die gewohnten Leistungsverbesserungen zu erzielen, begannen sie, sich mit anderen Technologien zu beschäftigen. Sie experimentierten etwa mit Dünnfilmbeschichtungen, in der Hoffnung, auf diese Weise die kundenseitig bereits gewohnte Kapazitätssteigerung zu erreichen. Dünnfilmbeschichtungen waren zu diesem Zeitpunkt bei integrierten Schaltkreisen bereits hoch entwickelt. Geichwohl stellte ihre Anwendung auf magnetischen Medien eine große Herausforderung dar. Expertenschätzungen zufolge nahm die Entwicklung mehr als 8 Jahre in Anspruch und sollte die Pioniere der Dünnfilm-Platten-Technologie – IBM, Control Data, Digital Equipment, Storage Technology und Ampex – jeweils mehr als 50 Millionen Dollar kosten. Zwischen 1984 und 1986 führten zwei Drittel der Marktteilnehmer Laufwerke mit Dünnfilmplatten ein. Die überwältigende Mehrheit der Anbieter waren etablierte Unternehmen. Nur einige wenige Neueinsteiger versuchten sich gleichsam an dieser Technologie, gaben aber innerhalb kürzester Zeit wieder auf.
Auch bei der Einführung von Dünnfilmköpfen stoßen wir auf das gleiche Muster. Die Hersteller der Ferrit-Köpfe sahen bereits 1965 deutliche Grenzen dieser Technologie erreicht. Schließlich glaubten 1981 die meisten, dass die Präzision kaum weiter gesteigert werden kann. In der Forschung und Entwicklung wendete man sich nun der Dünnfilm-Technologie zu. Die Idee war die folgende: Während Ferritköpfe mechanisch aufgebaut wurden und aus Eisen und Spule bestanden, setzt man nun auf ein Aufdampfen auf fotografisch verkleinerten Masken. Diese Technologie ähnelte der Chip-Herstellung und sollte am Ende zu kleineren Köpfen führen. Der Abstand zwischen zwei magnetisierten Partikeln sollte verringert und damit die Bitdichte erhöht werden, da auch das Magnetfeld bei den Miniköpfen entsprechend kleiner war.
Auch das erwies sich als schwierig. Der Durchbruch gelang Burrough im Jahre 1976. Es folgten IBM im Jahre 1979 und noch einige andere etablierte Unternehmen. Zwischen 1982 und 1986 versuchten an die 60 Unternehmen in die Laufwerkbranche einzudringen. Vier davon wollten Dünnfilmköpfe unmittelbar als Wettbewerbsvorteile nutzen – sie alle scheiterten. Alle anderen neueintretenden Unternehmen – auch anerkannt leistungsfähige wie Maxtor und Conner Peripherals – bevorzugten den Weg über konventionelle Ferrit-Köpfe zu gehen, bevor sie auf die neue Technologie umstiegen.
Wie bereits bei den Dünnfilm-Speicherplatten, so zeigt sich auch bei den Dünnfilmköpfen ein technologischer Wandel, den nur etablierte Unternehmen meistern. IBM und seine Konkurrenten investierten jeweils 100 Millionen Dollar und mehr für die Entwicklung der Dünnfilmköpfe. Dieses Muster wiederholte sich schließlich auch bei der MR-Technologie: Die branchengrößten Unternehmen – IBM, Seagate und Quantum – führten das Rennen unbestritten an.
30Die etablierten Unternehmen erweisen sich bei riskanten, komplexen und teuren technologischen Komponenten – wie etwa den Dünnfilmköpfen und -platten – als verlässliche und erfolgreiche Innovatoren. Doch nicht nur hier, sondern bei jeder anderen evolutionären Innovation ihrer Branche geben sie den Ton an. Sogar bei den relativ einfachen Innovationen – etwa bei den architektonischen Innovationen – beispielsweise den 14-Zoll und den 2,5-Zoll Winchester-Platten – waren etablierte Unternehmen die erfolgreichen Pioniere und neueintretende Unternehmen die Nachzügler. Abbildung 1.6 fasst das Muster der Technologieführerschaft der etablierten Unternehmen bei der Einführung neuer Produkte auf Basis evolutionärer Technologien nochmals zusammen. Das Muster weist eine erstaunliche Konsistenz auf. Ganz gleich, ob die Technologie radikal oder inkrementell, teuer oder kostengünstig war, ob es sich um Software oder Hardware, Komponente oder Architektur handelte, das Muster war immer dasselbe.
Abbildung 1.6: Führerschaft etablierter Unternehmen bei evolutionären Technologien 20
31Konfrontiert mit einem technologischen Wandel, der die Bedürfnisse der bestehenden Kunden besser erfüllte, lagen die etablierten Unternehmen bei der Entwicklung und Anwendung der neuen Technologie klar vorne. Ganz offensichtlich scheiterten diese Unternehmen nicht deshalb, weil sie träge wurden. Sie scheiterten auch nicht, weil sie arrogant agierten, das Risiko scheuten oder weil sie mit dem rasanten technologischen Fortschritt nicht mithalten konnten. Die Gründe sind andere – und sie widerlegen die so populäre „mudslide-Hypothese“.
Wenn Unternehmen an disruptiven Technologien scheitern
Die meisten technologischen Änderungen in der Herstellung von Computerlaufwerken waren evolutionärer Natur. Disruptive Innovationen hingegen waren eher selten. Das waren allerdings jene technologischen Veränderungen, die die Branchenführer zu Fall brachten. Tabelle 1.1 zeigt am Beispiel der Verkleinerung der Laufwerke den disruptiven Charakter dieser Innovation. Gemessen in den für Minicomputern ausschlaggebenden Kriterien – also Kapazität, Kosten pro Megabyte Speicher und Zugriffszeit – war das 8-Zoll-Laufwerk dem 5 ¼-Zoll-Laufwerk deutlich überlegen. Das 5 ¼-Zoll-Laufwerk befriedigte nicht die Anforderungen der Hersteller von Minicomputern. Allerdings wies es Eigenschaften auf, die dem zwischen 1980 und 1982 gerade neu entstehenden Segment der Desktop-Computer geradezu perfekt entsprachen: Es war klein, es war leicht, konnte einfach in die Desktop-Geräte verbaut werden und die Stückkosten waren deutlich geringer.
Eigenschaft |
8-Zoll-Laufwerk (Minicomputer) |
5 ¼-Zoll-Laufwerk (Desktop Computer) |
Kapazität (Megabyte) |
60 |
10 |
Volumen (Kubikzoll) |
566 |
150 |
Gewicht (Pfund) |
21 |
6 |
Zugriffszeit (Millisekunden) |
30 |
160 |
Kosten pro Megabyte |
50 Dollar |
200 Dollar |
Stückkosten |
3000 Dollar |
2000 Dollar |
Tabelle 1.1: Ein disruptiver Technologiewandel: Das 5 ¼ Zoll-Laufwerk
Im Allgemeinen sind disruptive Innovationen relativ einfach „gestrickt“. Sie bestehen aus Standardkomponenten, die im Vergleich zu den Vorgängertechnologien nicht selten simpler zusammengebaut waren21. Sie bieten weniger Leistung als die Kunden in bestehenden Märkten verlangen und 32können deshalb in diesen nicht erfolgreich angeboten werden. Allerdings weisen sie Leistungsmerkmale auf, die in neu entstehenden, vom Volumen her noch unbedeutenden Märkten geschätzt werden.
Der Entwicklungspfad in Abbildung 1.7 zeigt, wie eine Serie von einfachen, disruptiven Innovationen die etablierten Hersteller zu Fall brachte.
Abbildung 1.7: Sich überschneidende Entwicklungspfade zwischen nachgefragter und angebotener Kapazität von Computerlaufwerken 22
Bis 1970 dominierten 14-Zoll-Laufwerke mit Wechselplatten. Die 14-Zoll Winchester-Architektur ermöglichte eine Erhöhung der Speicherdichte entlang eines konstanten Entwicklungspfades. Nahezu alle Laufwerke (Wechselplatten und Winchester-Laufwerke) wurden an Hersteller von Mainframe-Computern verkauft. Die gleichen Unternehmen, die den Markt für Wechselplattengeräte anführten, waren auch nach dem Wechsel zur Winchester-Technologie vorne.
Der Entwicklungspfad zeigt, dass die Speicherkapazität der Festplatte eines typischen Mainframe-Computers im mittleren Preisbereich 1974 etwa 130 MB betrug. Diese stieg in den nächsten 15 Jahren um jährlich ca. 15 % an. Das Wachstum beschreibt den Entwicklungspfad der Nachfrage nach 33Speicherkapazität eines typischen Verwenders der neuen Mainframe-Computer. Gleichzeitig stieg die Kapazität eines neu am Markt eingeführten durchschnittlichen 14-Zoll Laufwerks um 22 %. Jenseits der Mainframe-Computer rückten wissenschaftliche Rechner und Supercomputer in greifbare Nähe – beides beträchtliche Märkte.
Zwischen 1978 und 1980 entwickelten mehrere Hersteller (Shugart Associated, Micropolis, Priam und Quantum) 8-Zoll-Laufwerke mit 10, 20, 30 und 40 MB Speicherkapazität. Diese Laufwerke waren für die Hersteller von Mainframe-Computern uninteressant. Sie mussten zu dieser Zeit Kapazitäten von 300 bis 400 MB abbilden. Die Nachfrage nach disruptiven 8-Zoll-Laufwerken kam von anderer Seite – es waren die Hersteller von Minicomputern. Firmen wie Wang, DEC, Data General, Prime und Hewlett Packard produzierten keine Mainframe-Computer. Da 14-Zoll-Laufwerke für Minicomputer zu groß und zu teuer waren, konnten diese Hersteller bis dahin keine Computerlaufwerke für ihre Geräte anbieten. Obwohl zunächst die Kosten pro Megabyte eines 8-Zoll-Laufwerks deutlich über denen eines 14-Zoll-Laufwerks lagen, schätzten die Kunden die Miniaturisierung und waren bereit, dafür einen Aufpreis zu bezahlen.
Sobald sich die 8-Zoll-Laufwerke im Minicomputer-Markt etabliert hatten, stieg die Speicherkapazität eines mittelpreisigen Minicomputers jährlich um 25 %: Ein Entwicklungspfad, der durch die Nutzer der Minicomputer vorgegeben wurde. Zur gleichen Zeit stellten die Hersteller der 8-Zoll-Laufwerke fest, dass sie durch aggressive Weiterentwicklung der Technologie die Speicherkapazität ihrer Produkte um jährlich mehr als 50 % steigern konnten. Das allerdings war nahezu doppelt so viel, wie der Markt verlangte und hatte zur Folge, dass Mitte der 80er-Jahre die 8-Zoll-Laufwerke bereits die Anforderungen an Speicherkapazität erfüllten, die das untere Segment des Mainframe-Computer-Marktes forderte. Steigende Produktionsvolumina senkten die Kosten pro Megabyte eines 8-Zoll-Laufwerks unter die Kosten eines 14-Zoll-Laufwerks. Innerhalb kurzer Zeit verdrängten die 8-Zoll-Laufwerke die 14-Zoll-Laufwerke in den Mainframe-Computern. Das brachte die dort etablierten Unternehmen in immer ärgere Bedrängnis. Zwei Drittel von ihnen führte nie ein 8-Zoll-Laufwerk ein. Jene, die es versuchten, hatten von vorneherein zwei Jahre Verspätung. Am Ende konnte sich keiner der Hersteller von 14-Zoll-Laufwerken im Markt halten23.
Nicht die Technologie als solche brachte die Hersteller von 14-Zoll-Laufwerken zu Fall. 8-Zoll-Laufwerke bestanden aus serienmäßig produzierten Standardkomponenten. Die 8-Zoll-Laufwerke, die schließlich doch von einigen wenigen Herstellern von 14-Zoll-Laufwerken auf den Markt gebracht wurden, waren hinsichtlich der Schlüsselkriterien Kapazität, Speicherdichte, Zugriffszeit und Preis pro Megabyte wettbewerbsfähig. Die 8-Zoll-Laufwerke, die von den etablierten 14-Zoll-Herstellern im Jahre 1981 eingeführt wurden, waren sogar weitgehend identisch mit jenen, die in diesem Jahr von den neuen Wettbewerbern angeboten wurden. Auch waren die 34Verbesserungen in den Schlüsselkriterien, die zwischen 1979 und 1983 erreicht wurden, bei den etablierten und den neuen Unternehmen nahezu die gleichen.
Gefangen durch die eigenen Kunden
Die zentrale Frage lautet: Warum waren die führenden Hersteller von Computerlaufwerken nicht in der Lage, rechtzeitig 8-Zoll-Laufwerke einzuführen? Technologische (Un-)Fertigkeiten gaben dabei nicht den Ausschlag. Das Versagen hatte andere Gründe. Das „Commitment“ des Managements in den neu entstehenden Markt für 8-Zoll-Laufwerke einzusteigen, kam einfach viel zu spät. Interviews mit Verantwortlichen aus Marketing und Technologie belegen, dass die etablierten Hersteller von 14-Zoll-Laufwerken Gefangene ihrer eigenen Kunden waren. Mainframe-Computer brauchten deshalb keine 8-Zoll-Laufwerke, weil der Kunde diese Laufwerke nicht forderte. Das Bild der Marktforschung war allzu deutlich: Kunden wollen Laufwerke mit höherer Kapazität zu niedrigeren Kosten pro Megabyte. Das ist es, was zählt. Die Hersteller von 14-Zoll-Laufwerken hörten in der Folge auf ihre Kunden. Ihre Kunden drängten sie, die 14-Zoll-Laufwerke entlang des Entwicklungspfades einer jährlichen Steigerung der Kapazität um 22 % zu verbessern – und, weil sie geradezu sklavisch ihren Kunden folgten, scheiterten sie letztlich.
Abbildung 1.7 stellt verschiedene Entwicklungspfade der Leistungsverbesserungen dar. Verglichen werden Entwicklungspfade, wie sie von den jeweiligen Kundengruppen erwartetet wurden mit den Leistungsverbesserungen, die die Komponenten und das Design innerhalb jeder Folgearchitektur zuließen. Die durchgehenden Linien – ausgehend von A, B, C, D und E – verdeutlichen die Kapazitäten mittelpreisiger Computer in jeder Kategorie, während die unterbrochenen Linien die durchschnittliche Kapazität aller Laufwerke verdeutlichen, die Jahr für Jahr für jede Architektur neu auf den Markt kamen.
Die Einführung des 5 ¼-Zoll-Laufwerks
1980 brachte Seagate Technology das 5 ¼-Zoll-Laufwerk auf den Markt. Die Kapazitäten von 5 und 10 MB waren für die Hersteller von Minicomputern uninteressant. Sie mussten seinerzeit 40 bis 60 MB Speicherkapazität bieten. Seagate und die anderen Hersteller, die bis 1983 mit 5 ¼- Laufwerken in den Markt eintraten (z. B. Miniscribe, Computer Memories und International Memories), mussten sich neue Anwendungen für ihre Produkte suchen. Bei den Herstellern von Desktop Computern wurden sie fündig. Bis 1990 war der Einbau einer Festplatte zur Datenspeicherung ein absolutes Muss. Zehn Jahre vorher – der Markt für Desktop Computer war gerade erst im 35Entstehen – war nicht absehbar, dass sich irgendwann eine ausreichend große Zahl an Kunden ein Festplattenlaufwerk in einem Desktop leisten konnte. Die ersten Hersteller von 5 ¼-Zoll-Laufwerken entdeckten diesen Markt eher zufällig. Manche behaupten sogar, die Hersteller hätten diesen Markt selbst erfunden.
Als sich allerdings die Verwendung von Laufwerken in Desktop PCs durchsetzte, erhöhte sich die Kapazität der ausgelieferten Laufwerke eines mittelpreisigen Rechners schnell – um nicht weniger als 25 % jährlich. Dabei stieg die Leistungsfähigkeit der Laufwerke doppelt so schnell, wie der Markt dies forderte: Die Kapazität des neuen 5 ¼-Zoll-Laufwerks wuchs zwischen 1980 und 1990 um jährlich 50 %. Wie bei der Substitution der 14-Zoll-Laufwerke durch 8-Zoll-Laufwerke waren es neu eintretende Unternehmen, die die ersten 5 ¼-Zoll-Laufwerke produzierten. Auch hier hinkten etablierte Unternehmen im Schnitt etwa zwei Jahre hinterher. Bis 1985 hatte nur die Hälfte der Hersteller von 8-Zoll-Laufwerken auf die neue Technologie umgestellt. Die andere Hälfte tat es nie.
Das Wachstum der 5 ¼-Zoll-Laufwerke vollzog sich in zwei großen Wellen. Die erste folgte dem Entstehen einer neuen Anwendung für Laufwerke, dem Desktop Computing. Hier spielte die Größe der Laufwerke eine entscheidende Rolle, wohingegen die Laufwerksgröße im etablierten Markt für Laufwerke unbedeutend war. Die zweite Welle ging mit der Substitution der größeren Laufwerke durch das 5 ¼-Zoll-Laufwerk in den etablierten Minicomputer und Mainframe-Computer-Märkten einher. Durch die rasche Kapazitätssteigerung bei den kleinen Laufwerken wurden bald die Kapazitäten erreicht, die bei Minicomputern und Mainframe-Computern gefordert war: Der steile Entwicklungspfad der 5 ¼-Zoll-Laufwerke kreuzte bald den langsameren Entwicklungspfad der Nachfrage bei Minicomputern und Mainframe-Computern. Von den vier führenden Herstellern von 8-Zoll-Laufwerken (Shugart Associates, Mircopolis, Priam und Quantum) schaffte nur Micropolis den Sprung zum Hersteller von 5 ¼-Zoll-Laufwerken. Der Rest blieb auf der Strecke.
Das Muster wiederholt sich: Die Einführung des 3,5-Zoll-Laufwerks
Das erste 3,5-Zoll-Laufwerk wurde 1984 von Rodime, einem schottischen Branchenneuling, entwickelt. Die Umsätze dieser neuen Laufwerksarchitektur sind kaum erwähnenswert. Dies änderte sich als Conner Peripherals, ein Spin-off der 5 ¼-Zoll-Laufwerkshersteller Seagate und Miniscribe seine ersten Produkte auslieferten. Conner hatte ein kleines, leichtes Laufwerk entwickelt, das stabiler war als das herkömmliche 5 ¼-Zoll-Gerät. Funktionen, die vorher mechanisch durchgeführt wurden, wurden nun elektronisch gesteuert. Fast der gesamte Umsatz des ersten Jahres – und das waren 36immerhin 113 Millionen Dollar – erzielte man mit Compaq Computer, die Conners Start-up mit einem Investment von 30 Millionen Dollar unterstützten. Die Laufwerke hatten eine neue Anwendung gefunden: Tragbare Computer und kleinere Desktops. Hier akzeptierten Kunden niedrigere Speicherkapazitäten und höhere Kosten pro Megabyte für weniger Gewicht, höhere Stabilität und niedrigeren Energieverbrauch.
Für Seagate-Ingenieure stand es außer Frage, dass sich das 3,5-Zoll-Laufwerk am Markt durchsetzen wird. Bereits 1985 – ein Jahr nach Rodime und zwei Jahre bevor Conner Peripherals ein solches am Markt einführten – präsentierte man den Kunden einen funktionierenden Prototypen. Die Initiative war von den Technikern ausgegangen. Opposition kam indes vom Marketing und vom Top-Management. Sie argumentierten, dass der Markt größere Kapazitäten und niedrigere Kosten pro Megabyte wolle und dass ein 3,5-Zoll-Laufwerk niemals zu günstigeren Kosten pro Megabyte produziert werden könne.
Gleichwohl testeten die Marketingleute von Seagate das neue Laufwerk. Allerdings nur bei ihren bestehenden Kunden im Markt für Desktops. Wen überrascht es, dass diese nur geringes Interesse am kleineren Laufwerk zeigten? Die nächste Desktop-Generation vor Augen interessierte man sich für Kapazitäten von 40 bis 60, während das 3,5-Zoll-Laufwerk nur 20 MB bieten konnte – und das noch zu höheren Kosten24. Als Reaktion auf die eher bescheidene Resonanz beim Kunden wurden die Umsatzprognosen durch die Verantwortlichen stark zurückgenommen und am Ende das Programm ganz gestrichen. Die Begründung war genauso einleuchtend wie einfach: Der Markt für das 5 ¼-Zoll-Laufwerk war größer und Investitionen in die Weiterentwicklung dieses Laufwerks versprachen weitaus höhere Erträge als Investitionen in das 3,5-Zoll-Laufwerk. Zudem spielten für die bestehenden Kunden Eigenschaften wie höhere Stabilität, reduzierte Größe, weniger Gewicht und niedrigerer Energieverbrauch keine Rolle.
Ein weiterer Grund für die zu späte Einführung einer neuen Technologie lag in der Angst begründet, dass die bestehenden Produkte durch neue kannibalisiert werden könnten. Das aber muss so nicht sein, wie der Fall Seagate-Conner zeigt. Eine neue Technologie wird dann bestehende Produkte nicht kannibalisieren, wenn dadurch neue Anwendungen entstehen. Warten indes etablierte Unternehmen mit der Einführung einer neuen Technologie so lange, bis der Markt dafür tatsächlich reif ist und/oder führen sie die Technologie nur reaktiv ein, um bereits erfolgte Angriffe durch Neueinsteiger zu parieren, ist diese Angst berechtigt und wird zur selbst erfüllenden Prophezeiung.
Die Reaktion von Seagate auf die Einführung der 3,5-Zoll-Laufwerksarchitektur ist geradezu typisch. Bis 1988 hatte nur ein Drittel der Produzenten von 5 ¼-Zoll-Laufwerken auf dem Desktop PC-Markt ein 3,5-Zoll-Laufwerk eingeführt. Ähnlich wie bei vorherigen Technologiesprüngen stellte 37nicht die Technologie als solche das eigentliche Problem dar. Auch beim Wechsel vom 5 ¼-Zoll- auf das 3,5-Zoll-Laufwerk verfügten die etablierten Unternehmen über Lösungen, die denen der Neueinsteiger in nichts nachstanden. Vielmehr wurden die Hersteller von 5 ¼-Zoll-Laufwerken durch ihre bestehenden Kunden in die Irre geführt. Keines der etablierten Unternehmen war sich über das Potenzial von tragbaren Computern und das der neuen Laufwerke, die diese erst ermöglichten, im Klaren.
Prairietek, Conner und das 2,5-Zoll-Diskettenlaufwerk
1989 kündigte Prairietek aus Longmont, Colorado die Einführung eines 2,5-Zoll-Laufwerks an und eroberte damit auf Anhieb 30 Million Dollar des neu entstehenden Marktes. Conner Periphals reagierte. Bereits Anfang 1990 stellte das Unternehmen ein eigenes 2,5-Zoll-Laufwerk vor und nahm bis zum Jahresende 95 % des Marktes ein. Trotz beachtlicher Anfangserfolge musste Prairietek Ende 1991 Konkurs anmelden – zu einem Zeitpunkt, an dem mittlerweile jeder andere Hersteller von 3,5-Zoll-Laufwerken (Quantum, Seagate, Western Digital und Maxtor) sein eigenes 2,5-Zoll-Laufwerk auf den Markt gebracht hatte.
Was genau war geschehen? Hatten die etablierten Unternehmen endlich aus der Geschichte gelernt? Nicht wirklich, wie auch Abbildung 1.7 zeigt. 2,5-Zoll-Laufwerke hatten bedeutend weniger Kapazität als das 3,5-Zoll-Laufwerk. Aber der Markt für diese Geräte – tragbare Computer – legte einmal mehr Wert auf andere Faktoren: Gewicht, Stabilität, niedriger Energieverbrauch und kleinere Baugrößen. Nach diesen Kriterien beurteilt, zeigte das 2,5-Zoll-Laufwerk eine bessere Performance. Bei Licht betrachtet war es keine disruptive, sondern eine evolutionäre Technologie. Die Käufer von Conners 3,5-Zoll-Laufwerk – insbesondere Toshiba, Zenith und Sharp – waren Notebook-Hersteller. Und diese schätzten die kleineren 2,5-Zoll-Laufwerke. Für Conner und seine Konkurrenten im Markt für 3,5-Zoll-Laufwerke war die Einführung der 2,5-Zoll-Generation ein nahtloser Übergang bei den eigenen Kunden.
1992 kam das 1,8-Zoll-Laufwerk mit definitiv disruptivem Charakter – wir kommen darauf noch zurück. An dieser Stelle genügt der Hinweis, dass bis 1995 ein Markt mit einem Volumen von ca. 130 Millionen Dollar nahezu vollständig von neu eingetretenen Unternehmen beherrscht wurde. Dazu passt, dass die ursprüngliche Verwendung dieser Laufwerke abseits von Computern bei tragbaren Herzkontrollgeräten lag.
Abbildung 1.8 greift diese Muster auf und zeigt, wie Neueinsteiger bei disruptiven Innovationen die Marktführerschaft erringen: Zwei Jahre nach Einführung der 1,8-Zoll-Laufwerke waren zwei Drittel der Unternehmen Neueinsteiger; zwei Jahre nach Einführung der ersten 5 ¼-Zoll-Laufwerke, waren 80 % der aktiven Marktteilnehmer Branchenneulinge.
Abbildung 1.8: Zur Führerschaft neu eingetretener Unternehmen bei disruptiven Innovationen. Quelle: Unterschiedliche Ausgaben des Disk/Trend Report.
Zusammenfassung
Die Geschichte der Innovation bei den Computerlaufwerken legt mehrere Muster frei. Das erste besteht darin, dass disruptive Innovationen – technologisch gesehen – vergleichsweise einfach erreicht werden. Ihre Basis sind bekannte Technologien.
Das zweite Muster liegt darin, dass technologische Entwicklungen in der Branche durchwegs darauf abzielen, bestehenden Entwicklungspfaden zu folgen. Man will höhere Leistung und höhere Margen am rechten oberen Ende des Entwicklungspfades erreichen. Viele der Technologien waren radikal, neu und schwierig. Doch es handelt sich durchwegs um evolutionäre 39und nicht um disruptive Innovationen. Die Kunden drängen die etablierten Hersteller zu diesen Verbesserungen. Dabei wird deutlich: Evolutionäre Technologien führen nicht zum Scheitern der etablierten Unternehmen – ganz im Gegenteil.
Das dritte Muster zeigt, dass etablierte Unternehmen trotz ihrer technologischen Kompetenz bei disruptiven Innovationen und ihrer Vermarktung von neu eintretenden Unternehmen überholt werden.
Dieses Buch begann mit einem großen Rätsel: Wie kann es sein, dass Unternehmen, die für ihre Energik, für ihre Innovationskraft und Kundennähe bekannt sind, bedeutende technologische Innovationen einfach ignorieren oder viel zu spät erkennen? Ein Blick in die Welt der Computerlaufwerke schärft unser Verständnis für dieses Phänomen. Richtig ist: Die etablierten Unternehmen sind energisch, innovativ und kundenorientiert, aber nur dann, wenn es um die Entwicklung evolutionärer Technologien geht. Das Problem dieser Unternehmen liegt an anderer Stelle: Mangelnde Weitsicht und fehlende Beweglichkeit, wenn es um „Abwärtsentwicklungen“ auf dem technologischen Entwicklungspfad geht. Disruptive Technologien und deren Vermarktung fordern Kompetenzen, die diese Unternehmen einst hatten – als sie selbst in den Markt eintraten –, die sie mittlerweile aber wieder einbüßten. Etablierte Unternehmen sind Gefangene ihrer eigenen Kunden. Damit ermöglichen sie Neueinsteigern wirkungsvolle Angriffe auf etablierte Unternehmen.
Disruption in der Fotografie – oder: Wie die Digitalkamera die Branche revolutionierte
Die Geschichte der Kamera geht zurück bis auf Aristoteles und ist damit über zweitausend Jahre älter als die der Fotografie selbst. In der Schrift „Problemata Physica“ beschreibt Aristoteles im 4. Jhd. vor Christus das Prinzip der „Camera obscura“: Die Erzeugung eines auf dem Kopf stehenden Bildes, wenn das Licht durch ein kleines Loch in einen dunklen Raum fällt. Dieses an sich einfache Verfahren wurde über die Jahrhunderte hinweg verbessert und vor allem von Künstlern eingesetzt. Sie verwendeten beispielsweise Linsen von Fernrohren und mobile Projektionsräume. Maler konnten dadurch besonders detailgetreue Perspektiven darstellen. Die Fotografie selbst ist wesentlich jünger. Ein erster Versuch gelang Nicéphore Nièpce in den dreißiger Jahren des 19. Jahrhunderts mit der Aufnahme seines elterlichen Anwesens im südfranzösischen Le Gras. Rund acht Stunden Belichtung waren erforderlich. Auch er verwendete eine Camera obscura und als chemische Substanz eine Beschichtung aus lichtempfindlichem Asphalt, der sich unter Lichteinwirkung aushärtete und mit Lavendelöl entwickelt wurde. Die Technik der Plattenkameras entwickelte sich permanent 40weiter bis schließlich George Eastman im Jahre 1888 die Fotografie mit seiner Kodak-Box revolutionierte: „Sie drücken den Knopf, wir erledigen den Rest.“ Der Rollfilm musste nicht mehr vom Fotografen selbst vor- und nachbearbeitet werden. Vielmehr konnte die Kamera samt Filmrolle an Kodak versandt werden. Dort wurde der Film entwickelt als auch die Kamera mit einem Film neu bestückt25.
Oskar Barnack, Hobbyfotograf und Werkmeister der Kinoversuchsabteilung der Ernst-Leitz-Werke zu Wetzlar, war von dem Gedanken getrieben, Menschen lebendig und lebensnah im Bild festhalten zu können und das, ohne schwere Fotoplatten und Stative zu schleppen. Er entwickelte im Jahre 1913 einen ersten Prototypen einer Kleinbildkamera, die sogenannte Ur-Leica, noch heute im Besitz der Leica Camera AG. Die ersten Bilder stammen aus 1913 und 1914. 1925 gelang das Produkt zur Serienreife. Professionelle Fotografen sahen in der Kamera eher ein Spielzeug. Für die fotografierende Öffentlichkeit war es indes eine Sensation. „Bis dahin war es immer so, dass die Welt zur Kamera kam. Mit der Leica kam die Kamera zur Welt“, brachte es Hans-Peter Cohn, Leica Camera AG, auf den Punkt26. Auf Anhieb waren große Fotografen wie Henri Cartier-Bresson oder Robert Capa von der Leica begeistert.
1932 waren weltweit bereits rund 90 000 Kameras in Verwendung, 1961 eine Million. Leica entwickelt sich zu einer Marken-Ikone mit durchaus stabilem Wert. So berichtete der Spiegel im Jahre 1947 über den Tauschmarkt der Nachkriegszeit: „Am meisten von der Tauschzentrale gefragt sind Gold, Brillanten, Fotoapparate und andere optische Geräte. Die Leica-Kamera ist Trumpf. Seitdem die Amerikaner in Deutschland den Foto-Sport entdeckt haben, sind sie „leica-toll“. Sie fotografieren alles, was sie vor die Linse bekommen (...) Die Vorliebe der Amerikaner für Leicas wird kräftig von den Schwarzhändlern ausgenützt. Für eine Leica erhalten sie in Frankfurt 5000 bis 6000 Zigaretten (...) Aber auch die Amerikaner kommen auf ihre Kosten. Die G.I.s bezeichnen die Errichtung des Barter-Centers als eine „damned good idea“. Denn für 5000 Zigaretten, umgerechnet 22 Dollar 50 Cents, können sie eine Leica erstehen. Und für die 600 Dollar kann man die Kamera in den Staaten verkaufen. Für 600 Dollar gibt es 134 000 Zigaretten und dafür wiederum 26 4/5 Leicas.“27
Fotojournalismus, Bildreportage und auch Kriegsberichterstattung wurden wesentlich von der leicht transportierbaren und einfach zu bedienenden Leica beeinflusst. Berühmte Momente, wie das Hissen der russischen Fahne auf dem Berliner Reichstag, Kordas berühmtes Che Guevara Porträt, Adams Aufnahme vom Polizeichef, der mit der Pistole einen Vietcong erschießt, all sie wurden mit der Leica aufgenommen. Leica hatte weltweit unbestritten die Technologieführerschaft inne und stand für Qualität, Beständigkeit, einfache wie geniale Technik ohne Schnickschnack28. Für Henri Cartier-Bresson war seine Leica „wie ein dicker, heißer Kuss“ und für den Präsidenten des Deutschen Verbandes für Fotografie, Georg Holzmann, der „Ferrari der 41Fotografen“. 1995 schreibt der Spiegel: „Die deutsche Edelmarke meldet erstaunliche Erfolge (...) die Handarbeit aus dem hessischen Solms verkauft sich besser denn je. Seit Monaten kommen Friedel Martin und seine Kollegen mit der Produktion nicht nach.“29 Zugleich klagte der Vertriebschef: „Das ist unser großer Kummer. Wir können den Markt nicht befriedigen.“30 Selbst Preiserhöhungen halfen nicht. Beim Umsatz von 235 Millionen Mark erzielte man satte Gewinne: 20 Millionen Mark. Um Wachstumsinvestitionen tätigen zu können, ging Leica 1996 an die Börse.
Zehn Jahre später lesen wir im Spiegel: „Blende zu. Die Traditionsfirma Leica steht vor dem Aus.“31 Was war passiert? Wie konnte ein derart erfolgreiches Unternehmen in eine existenzielle Schieflage kommen? Parallelen zu den Vorgängen der Computerlaufwerke markieren den Abstieg. Eine disruptive Innovation – die Digitalkamera – sorgt für das Scheitern des einstigen Mythos der Fotografie.
Ist die Digitalkamera eine disruptive Innovation?
Um die Antwort vorweg zu nehmen: Aus unserer Sicht: Ja, eindeutig ja! Führen wir uns nochmals die Merkmale einer disruptiven Innovation vor Augen32:
- Disruptive Innovationen weisen im Vergleich zu konventionellen Produkten hinsichtlich der Anforderungen der wichtigsten Kunden zunächst deutliche Leistungsnachteile auf.
- Indes zeigen disruptive Innovationen eindeutige Vorteile bei anderen, neuen Kriterien, die zunächst allerdings nur bei einer kleinen Randgruppe von Kunden von Bedeutung sind. Disruptive Produkte sind meist billiger, einfacher, kleiner und in Summe anwendungsfreundlicher.
- Der Markt und/oder die Produktanwendung sind anfangs in aller Regel nicht klar zu bestimmen.
- Für etablierte Unternehmen sind disruptive Innovationen zunächst uninteressant, da sich ihre wichtigsten Kunden dafür nicht interessieren.
- Die disruptive Innovation erfährt in der Folge dramatische Verbesserung in den Produktmerkmalen, so dass sie alsbald auch die Anforderungen im etablierten Kernmarkt erfüllen kann.
- Als solche wird die disruptive Innovation zur ernsten Bedrohung für die bestehende Technologie und löst sie am Ende ab.
Die Geschichte der Digitalkamera begann in den 1960er Jahren an der Stanford University. Dort gelang es, zumindest für einige Minuten, Bilder auf einer Videodisk zu speichern. Ein wichtiger Meilenstein stellt die Arbeit von Williard Boyle und George E. Smith in den Bell Laboratories dar. Sie entwickeln im Jahre 1969 das Charged Coupled Device (CCD) als eigentlichen Datenspeicher. Hierbei handelt es sich um einen lichtempfindlichen 42Chip, mit dem Bilder gespeichert werden können. Es ist der endgültige technische Durchbruch auf dem Weg zur digitalen Fotografie. Bereits 1975 legte Kodak die erste Digitalkamera vor. Sie wog 4 kg, benötigte 23 Sekunden um ein Bild auf eine Digitalkassette zu speichern und der Fairchild-Chip brachte es auf eine Auflösung von 100 mal 100 Pixeln (0,01 Megapixel). Noch war es schwer vorstellbar, dass dieses klobige Gerät zwanzig Jahre später die Fotografie revolutionieren würde.
Abbildung 1.9: Die erste Digitalkamera der Welt von Kodak, Vintage 1975 33
Worin der eigentliche Nutzen einer Digitalkamera liegt, war zu Beginn völlig unklar. Steve Sasson, Mit-Erfinder der ersten Digitalkamera bei Kodak, erinnert sich zurück: „Nachdem wir ein paar Aufnahmen von den Teilnehmern des Meetings gemacht hatten und sie am Bildschirm des TV-Gerätes präsentierten, kamen die ersten Fragen. Warum sollte irgendjemand sein 43Foto auf einem Fernsehbildschirm sehen wollen? Wie sollen die Bilder gespeichert werden? Kann es so etwas wie ein elektronisches Fotoalbum geben? Wann wäre ein solches für eine breite Kundenschicht verfügbar? (...) Wir hatten keine Ahnung, wie wir diese Fragen beantworten sollten oder wie diese Herausforderungen zu meistern waren.“
Abbildung 1.10: Der Markt für Kameras: Verkaufszahlen analoger und digitaler Kameras 34
Die 1980er Jahre brachten eine erste Anwendergruppe: Professionelle Fotografen im Bereich der Studio-, Mode- und Werbefotografie. Mitte der 1990er zieht die Reportagefotografie nach. Für den Amateuranwender waren diese Geräte noch zu teuer. Die digitalen Kompaktkameras von zu schlechter Qualität. Niedrige Auflösung, Bildrauschen und schlechte Farbdynamik charakterisierten die ersten Modelle. Sie waren weit unter dem Leistungsniveau der analogen Fotografie. Klar wurde jetzt aber schon eines: Die Digitalkamera definiert das Fotografieren vollkommen neu. Der gesamte Prozess war jetzt ein anderer. Kunden können praktisch kostenlos so viele Fotos machen, wie sie wollen. Sie können sie speichern, verändern, versenden oder löschen. Anstatt zu warten bis das Foto entwickelt ist, lassen sich die Fotos sofort betrachten und als E-Mail-Attachment an beliebig viele Personen versenden. Weiterentwicklungen der Digitalkamera verbessern die Bildqualität im Kompaktsegment dramatisch. Aus einer teuren Kuriosität wird durch Fallen der Produktionskosten und vertretbare Preise bald ein massentaugliches Produkt. Dieser Status war spätestens mit dem Sprung ins 21. Jahrhundert erreicht. Digitale Sensoren liegen hinsichtlich der Qualität nah am traditionellen Film. Am 11. Februar 2002 ist es soweit: Dr. Carver Mead von Foveon verkündet, dass sein neuer digitaler Sensor das erste Mal Auflösung und Farbe eines traditionellen 35 mm-Films überholte. Mit anderen 44Worten: Der technologische Entwicklungspfad der Digitalfotografie überholte die Leistungskurve der Analogfotografie. Der Markterfolg zieht unmittelbar nach: 2003 werden weltweit erstmals mehr Digitalkameras als Filmkameras verkauft, 2005 sind es bereits viermal so viele35.
Wie Leica die digitale Revolution der Fotografie verpasste
Nach Dekaden des Erfolges kommt Leica 2005 und damit wenige Jahre nach Anbruch des digitalen Zeitalters in eine existenzbedrohende Schieflage. Innerhalb von zwei Jahren schrumpft der Umsatz von 144 Millionen Euro auf 94 Millionen Euro zusammen. Ein Jahresfehlbetrag von etwa 20 Millionen wird verbucht, das Eigenkapital ist weitgehend aufgebraucht.
Das Bild wird um einige Facetten reicher, wenn wir die Digitaltechnik und die Vorgänge bei Leica nochmals anhand der Prinzipien der disruptiven Innovation, wie wir sie Eingangs dargestellt haben, kurz beleuchten.
Die Digitaltechnik erfüllt – zunächst – die Qualitätsanforderungen des High-End-Segmentes nicht
Leica war der „Ferrari der Fotografen“. Das Unternehmen setzte auf Werte wie Beständigkeit, genauso einfache wie geniale Technik, Qualität, Präzision und Solidität, die sich allesamt als kaufentscheidend erwiesen. Die Qualitätsansprüche, die Leica an sich selbst stellte, waren enorm. Man bediente das High-End-Segment. Die Kameras mit dem roten Punkt aus Solms galten immer als „unkaputtbar“ und hatten den Ruf extremer Zuverlässigkeit. Klassiker eben, für Profis gemacht – und alle, die sich dafür halten und für ein Leica-M-Gehäuse 4 000 Euro zahlen.
Wie elitär der Kundenstamm war, belegt folgende Begebenheit, wie im Spiegel zu lesen war: Ein Kniefall vor dem Sultan von Brunei gehörte zur Zeremonie. Wie jeder andere auch, musste auch Klaus-Dieter Hofmann, seinerzeit Chef bei Leica, sich bei der Geburtstagsfeier des orientalischen Potentaten in landesüblicher Demut üben. Hofmann dürfte dieses nicht schwer gefallen sein ... 350 Apparate des Leica-Klassikers M6 ließ der Herrscher vom Kamerawerk im hessischen Solms anfertigen, auf herrschaftlichen Wunsch zusätzlich mit 24 Karat vergolden und mit feinstem Emu-Leder verzieren.
Insgesamt war die Beziehung der Leica-Kunden – den Leicanianern – zum Unternehmen eine besondere. Der Vertrieb erfolgte nicht über den üblichen Fotohandel, Elektronikfachmärkten oder gar über Online-Händler. Nur ausgewählte Vertragshändler, Shop-in-Shop-Lösungen oder eigene Leica-Geschäfte kamen in Frage. Die Vertragspartner wurden in Seminaren kostenpflichtig in der Leica-Akademie geschult. Leica war den eigenen Werten, der Tradition und vor allem seinen Kunden verpflichtet. Dass gerade dies dem Unternehmen zum Verhängnis wurde, zeigt ein Spiegel-Interview mit 45Hanns-Peter Cohn, Vorstandschef von Leica, im Jahre 2004. Aus seinem Markt- und Kundenverständnis heraus, schätzte er den Trend zur Digitalkamera vollkommen falsch ein: „Die Digitaltechnik setzt auf Masse, auf Tempo und ist damit wie die E-Mail ein Ausdruck unserer Zeit. Mit den Handy-Kameras kommt auch noch die Innovation privater Paparazzi. Aber Fotografieren ist etwas anderes, etwas Besinnliches – das wird es immer geben.“36 Mit anderen Worten: Die digitale Fotografie ist nichts für Leica-Kunden. Leica setzte darauf, dass seine anspruchsvollen Kunden sich nicht für Megapixel interessieren, sondern das fotografische Erlebnis suchten und das bei höchster Qualität, von der Optik über die Mechanik bis zum Bild37. Auf die Frage, ob Leica die Digitaltechnik verschlafen hatte, antwortete der Leica-Chef: „Nein, nicht wirklich. Unsere Kernkompetenz war und ist die Optik. Die digitale Aufzeichnung musste erst ein gewisses Qualitätsniveau erreichen, um unsere hochwertigen Linsen wirklich zu nutzen. Das ist jetzt erreicht. Aber wir zwingen niemanden, auf Digital zu setzen.“
Die Digitaltechnologie als Verlierer im internen Wettstreit um Leica-Ressourcen
Noch ein weiterer Grund hält Leica davon ab, in die Digitaltechnik zu investieren. Die japanischen Konzerne vor Augen, die darum kämpften, jeweils Marktanteile von mindestens 20 % zu erreichen, geht man von einer Marktbereinigung aus. Auch bei den hochwertigen Digitalkameras mit Spiegelreflex-Technik waren die Preise verdorben. Leica wähnt sich richtig positioniert und kommentiert die Entwicklungen mit dem Hinweis: „Die digitale Revolution frisst ihre Kinder.“38
Warum sollte Leica in einen Markt stoßen, an dem (a) die eigenen Kunden kein Interesse zeigen und das (b) mit einer Technologie, mit der ohnehin nichts zu verdienen ist?
Mit seinen knapp 1400 Beschäftigten weltweit und mit jährlichen Verkaufszahlen von wenigen zehntausend Stück ist Leica kein „big player“. Gleichwohl zählt Leica in dem kleinen High-End-Markt zu den einflussreichen Anbietern. Und genau dort sah man für die Digitalkamera keinen substantiellen Markt. So meint Leica-Chef Cohn auf die Frage, ob die herkömmliche Fotografie am Ende sei: „Die Digitaltechnik ist nur ein Intermezzo. In spätestens 20 Jahren werden wir sicher mit anderen Technologien als heute fotografieren. Aber den Film wird es dann immer noch geben.“39 Auf der weltgrößten Fotomesse, der Photokina in Köln, demonstrierte man die Ablehnung gegenüber der Digitaltechnologie und bezog klar Stellung mit Buttons, die sich Leica-Manager ans Revers hefteten: „Ich bin ein Filmdinosaurier“40. Zugleich leidet Leica unter einem chronischen Mangel an Kapital für Investitionen. Die Umsätze gehen kontinuierlich zurück, man schreibt Verluste. Leica braucht profitables Wachstum. Auf der Suche nach 46eben diesem, hatte es bereits 1995 erste digitale Gehversuche der Leica-Entwickler gegeben. Ende 1996 kam die S 1 auf den Markt: 26 Millionen Bildpunkte und ein Preis von 33 000 DM. Obgleich die Kamera auch nach den heutigen Maßstäben Fotos in höchster Qualität ermöglicht, war sie für einen Gebrauch außerhalb eines Fotostudios ungeeignet41. Im wichtigen Kleinbildsegment setzte man aber weiterhin auf analog. Eine Kooperation mit Fuji ab 1998 zum Bau einer digitalen Kompaktkamera schlägt fehl. Die Qualität genügt den Leica-Ansprüchen nicht. Eine Kooperation mit Matsushita/Panasonic folgt. Im Jahre 2004 wird dann die Digilux 2 vorgestellt. Nicht ohne Stolz kommentiert die Leica Fotografie International: „... und heraus kommen Kameras, die als Fotoapparate nicht mehr wirklich zu erkennen sind. Nicht nur dies: Sie kommen mit einem User-Interface daher, das all das über den Haufen wirft, was sich in den letzten 80 Jahren nicht ohne ergonomischen Grund als Standard in der analogen Fotografie entwickelt hat. Für viele, die bisher einen Zugang zur Digitalfotografie nicht gefunden haben, sie aber dennoch als technologischen Lauf der Dinge akzeptieren, wird es deshalb umso erfreulicher sein, dass es Leica mit der neuen, Anfang nächsten Jahres erhältlichen Digilux 2 gelungen ist, eine ganz und gar klassische Kameraauffassung mit neuester Digitaltechnik zu kombinieren.“42 Die Digilux 2 besticht mit hervorragender Optik und Bedienkomfort. Die Elektronik und der überhöhte Preis stoßen indes auf Kritik, so dass zwei Jahre später die Produktion eingestellt wird.
Fassen wir kurz zusammen: Leica sah lange Zeit keinen substantiellen Markt für die Digitaltechnologie. Zumindest nicht bei seinen Kunden. Im festen Glauben, dass die Digitaltechnologie nur eine vorübergehende Erscheinung sei, setzte man weiter auf analog. Den eigenen digitalen Gehversuchen im Kleinbildsegment fehlte die Qualität. Dort, wo man mit der S 1 das gewünschte Qualitätsniveau bereits 1996 erreichte – im Segment der Studiokameras – war zu wenig Marktpotenzial. Zugleich drängten Umsatzrückgänge und Verluste zu profitablem Wachstum. Digitalkameras ließen nur einen bescheidenen Marktanteil bei geringer Marge erwarten. Längst hatten die japanischen Hersteller den Markt für Digitalkameras besetzt. Wohin fließen knappe Mittel in dieser Situation? In eine Technologie, die man als eine „vorübergehende Erscheinung“ betrachtet? In eine Technologie, die die Qualitätsmaßstäbe im eigenen High-End-Markt nicht erfüllt? In eine Technologie, die nur ein unattraktives Marktsegment anspricht und zudem geringe Margen erwarten lässt?
Unscharfes Bild von der Marktentwicklung verführt zum Warten oder: Warten bis es zu spät ist
Erinnern wir uns zurück an die Aussage von Steve Sasson, Mit-Erfinder der ersten Digitalkamera bei Kodak. Noch fehlt vollkommen die Vorstellung darüber, wer Verwendung für ein 4 Kilo schweres Gerät hat, das für das Speichern 47eines 0,01-Megapixel-Fotos 23 Sekunden braucht und was man damit alles anstellen konnte. Auch Jahre später, als die ersten Digitalkameras massentauglich wurden, schätzt man das Marktvolumen vollkommen falsch ein. Im Jahre 2001 wurden weltweit immerhin 15,1 Millionen Digitalkameras ausgeliefert. Die International Data Corporation (IDC), eines der führenden Marktforschungsinstitute im Bereich Informationstechnologie, Telekommunikation und elektronische Konsumgüter, schätzten den Markt auf 40 Millionen im Jahre 2005. Tatsächlich wurden in diesem Jahr mehr als 80 Millionen Digitalkameras verkauft – mehr als doppelt so viele wie prognostiziert. Angesichts solcher Unsicherheiten überrascht es kaum, wenn Unternehmen zögern, früh in eine disruptive Innovation zu investieren. Die Versuchung ist groß, eine „wait and see“-Strategie zu fahren, dabei Konkurrenten den Vortritt zu lassen und – falls der Markt wirklich attraktiv ist – später einzusteigen. Das mag bei entsprechender Finanzstärke und Entwicklungskompetenz im Falle evolutionärer Technologien gut funktionieren, nicht aber bei disruptiven. Hier ist der „First-Mover-Advantage“ entscheidend. Dort, wo etablierte Unternehmen durch eine disruptive Innovation scheitern, zögert man vielfach den Markteintritt hinaus, bis es zu spät ist und andere den Markt besetzen. So ging es auch Leica. Im Jahre 2004 war der Digitalkameramarkt bereits in festen Händen. Trotz zweistelliger Zuwachsraten klagten die meisten japanischen Anbieter bereits über sinkende Gewinne43. Um dem Preiskampf zu entgehen, weicht man auf ein Segment aus: Hochwertige Digitalkameras mit Spiegelreflex-Technik.
Leicas Kernkompetenzen in der analogen Fotografie als Schwächen in der Digitaltechnik
Das Potenzial eines Unternehmens steckt in seinen Prozessen und in seinen Werten. Der Mythos der Marke Leica beruhte vornehmlich in der Entwicklungskompetenz. Qualität war die oberste Maxime, „Leidenschaft und Perfektion für das bessere Bild“ ein zentraler Leica-Wert. Das spiegelt sich auch in internen Prozessen wider. „Dass ein 50 Jahre altes Design, das auf einem mittlerweile historisch gewordenen Fertigungsverständnis basiert, überhaupt noch in so überragender Präzision produziert werden kann, ist eine bemerkenswerte Leistung von Leica. Einzig die Uhrenmanufaktur verfährt ebenfalls noch nach dieser Philosophie.“44 Aus über 900 Einzelteilen bestehend, die oft nicht dem Industriestandard entsprachen, wurde die Leica M3 in Deutschland vollständig gefertigt und von Hand montiert. Leica-Kameras sind nicht im Elektrofachmarkt oder im Onlinehandel erhältlich – sie werden nur über exklusive Vertragshändler, in Shop-in-Shop Lösungen oder über eigene „Flagship-Stores“ verkauft. Der Kundenservice ist einzigartig: Für den Fall, dass ein allzu vorsichtiger Leicanianer sein Sammlerstück im Tresor aufbewahrt mit der Folge, dass Schmiermittel verharzen und austrocknen können, holt Leica die Kamera zu Hause ab.
48Mit der Digitaltechnik schaltet die Branche plötzlich auf ein ähnliches Tempo wie die Computerindustrie. Kurze Produktlebenszyklen, stark fallende Preise und geringe Gewinnmargen passen aber nicht zu den Prozessen und den Werten des Unternehmens. Dazu Ralf Coenen, Leica-Vorstandsvorsitzender 2005: „Die Marktmechanismen, die in diesem Segment derzeit gelten, befremden mich eher. Sie passen weder zu uns, noch zu den meisten unserer Kunden.“45 Die einstigen Stärken von Leica erweisen sich jetzt, bezogen auf die Marktdynamik, im Zuge der Digitaltechnologie als Hindernis.
Die rasante Entwicklung der Digitaltechnik überholt die analoge Fotografie
Was hat Leica falsch gemacht? Lange erfüllte die Digitaltechnologie nicht die hohen Qualitätsanforderungen der Leicanianer. Unter den Kunden sah man kein ausreichendes Umsatzpotenzial für die neue Technologie. Die Marktprognosen sind zudem von großer Unsicherheit gekennzeichnet – nicht nur jene von Leica, auch führende Marktforschungsunternehmen schätzten die Entwicklungen falsch ein. Werte wie Tradition, Langlebigkeit und Exklusivität passten nicht zu den extrem kurzen Lebenszyklen, den niedrigen Margen und dem zusehends einsetzenden Preiswettbewerb im Digitalmarkt. Dies alles führte bei Leica zu einer Position des Wartens. Die rasante Qualitätsverbesserung der Digitaltechnologie erreichte bald den Standard im High-End-Markt. Spätestens 2002 überholte die Digitaltechnik mit einer Auflösung von 10–12 Megapixeln die Qualität der Filmfotografie. Sobald Leica das begriffen hatte, war der Markt schon besetzt. Nach sieben Vorstandswechseln seit 2004 versucht Leica nun verlorenes Terrain aufzuholen46 und ändert dabei auch die eigene Geschäftslogik47.
Leicas Neuausrichtung
Als Andreas Kaufmann, Hobbyfotograf und Spross einer deutsch-österreichischen Unternehmerdynastie, über sein Beteiligungsunternehmen ACM bei Leica einstieg, stand das Unternehmen mit dem Rücken zur Wand. Das Eigenkapital war zu mehr als der Hälfte aufgebraucht und 2005 musste refinanziert werden. Kaufmann pumpte mehrere Millionen in das Unternehmen und kaufte die Aktien über die Börse zurück. Heute hält er 97,5 Prozent48.
Einschneidende Maßnahmen waren nötig49. Mitarbeiter mussten abgebaut werden und ein Strategiewechsel folgte. Konsequente Differenzierung am Markt war die Devise. Seit 2006 ist Leica ganz digital. In jedem Segment, das Leica anbietet, ist das Unternehmen absoluter Premiumanbieter mit höchster Qualität. Flaggschiff ist die Leica M8. 2009 folgt die Sucherkamera 49M9, für die ein Preis von 5 495 EUR verlangt wird. Der Durchbruch gelingt. Die Differenzierung wird unterstützt durch ein in der Branche einzigartiges Shopkonzept. Ein neu gestalteter Store in Solms soll als „wesentliches Element der Leica Markenwelt die Marke „Leica“ für Mitarbeiter und Besucher erlebbar machen und Vorbild für die Präsentation der Marke und die Gestaltung der Leica-Stores weltweit sein“50. Im Segment der Kompaktkameras setzt man auf eine Kooperation mit Panasonic. Seit 2009 schreibt Leica wieder schwarze Zahlen.
Bestätigt die Ausnahme die Regel? Die Digitaltechnologie hätte Leica beinahe das Genick gebrochen. Nur durch eine konsequente Sanierungsstrategie und eine Neuausrichtung gelingt das Comeback. Mit höchster Qualität konzentriert sich das Unternehmen nun auf die absoluten Premiumsegmente in den bedienten Märkten und setzt auf klare Differenzierung – eine Strategie, die für etablierte Unternehmen typisch ist, wenn sie durch disruptive Technologien in Bedrängnis geraten.
Details
- Seiten
- 264
- ISBN (eBook)
- 9783800642816
- Sprache
- Deutsch
- Erscheinungsdatum
- 2011 (November)
- Schlagworte
- Business Innovationsmanagement Investitionen Managementmethoden Marktführung