10/2019: Light & Building Imagevideo (Messe Frankfurt)
Als die Messe Frankfurt mich im frühen Herbst 2019 für einen Filmdreh anfragte, war ich erst einmal perplex. Nach dem ersten Telefonat war dann aber schnell klar, dass die Zusammenarbeit passt. Ich musste keinen Text ablesen, sondern meine ehrliche Perspektive mit dem Hintergrund der Zukunftsforschung auf den großen Bereich Beleuchtung und (smarte) Gebäude werfen. Das Ergebnis kann sich sehen lassen:
... fun fact: ursprünglich sollte ein Statement von mir in einem 2- bis 3-minütigen Film auftauchen.
Quantencomputer: Was, wann, wie und warum?
Sprechen wir über Quantencomputer. Wenn ich das Thema bei meinen Keynotes aufwerfe, ernte ich in der Regel verständnislose, mäßig begeisterte Blicke. "Klingt nach Magie", oder: "Bis das kommt, bin ich Rentner*in!", so die Sprüche danach. Nun sind QC in den Massenmedien angekommen, also schauen wir doch mal, was sie können (werden).
Quantencomputer sind also endlich in den Massenmedien angekommen. Warum ist die Quantenüberlegenheit (quantum supremacy) wichtig für Sie? Weil sie das Spektrum der erlaubten Fragen (und der potentiell möglichen Lösungen) erheblich erweitert! Dieser Beitrag soll das Verständnis für Quantencomputer weitertragen - und er stellt keinen Anspruch an Vollständigkeit oder technische Tiefgründigkeit, sondern richtet sich an Einsteiger. Legen wir los!
Kurzer Rückblick
Quantencomputer basieren auf der Physik der kleinsten Teilchen unseres Universum, den Quanten. Als theoretische Begründer dieser divergierenden Auffassung der "Physik von allem" gelten in erster Linie die in den 1900-30er wirkenden Physiker Max Planck, Werner Heisenberg, Max Born, Pascual Jordan und Erwin Schrödinger (bekannt durch das Gedankenexperiment "Schrödingers's Katze"). Kurios, aber inzwischen durch die Experimentalphysik nachgewiesen: Quanten lassen sich zu keinem Zeitpunkt eindeutig in ihrem aktuellen Aufenthaltsort bestimmen. Sobald Forscher ein Quantenteilchen also beobachten, lässt sich dessen genaue Position nicht mehr eindeutig nennen. Darüber hinaus treibt die Quantenmechanik das Ganze auf die Spitze, da sie die Theorien (Unschärferelation, Teilchenverschränkung, deterministische Zeitentwicklung uvm.) längst messbar macht. Kurz gesagt. Alles, was wir aus unserem Erfahrungshorizont für gegeben angenommen haben, steht plötzlich infrage. Materie ist nicht mehr fest, Teilchen haben zwei Zustände gleichzeitig und vieles mehr.
Es dauerte nicht lang, bis die aufkommende Informatik das Thema aufgriff. Deren Grundlage beruht ja bekannterweise auf der Festkörperphysik und dem Ein- und Ausschalten von Transformatoren, um binäre Zustände darzustellen. Schnelle Computer zeichnen sich dadurch aus, dass sie mit ihren Bits sehr oft zwischen 0 und 1 umschalten können. Durchschnittliche Smartphones können diesen Umschalteffekt heute ungefähr 100.000 mal schneller darstellen als der NASA-Computer der Apollo 11 Mission, der vor 50 Jahren Menschen auf den Mond gebracht hat. Würde man einen Turm aus allen aktiv genutzten iPhones weltweit bauen, käme man immerhin fast bis zur Hälfte zum Mond. Das wäre noch eine sinnvollere Verwendung der Geräte als Katzenvideos und Pornos zu streamen.
An- und Ausschalten ist der Quanteninformatik aber natürlich viel zu wenig. Wenn Quantenteilchen mehrere Zustände gleichzeitig einnehmen, müsste man das doch auch für Rechenmaschinen nutzen können. Und so gebar die Idee der Qubits (statt Bits). Qubits können theoretisch jeden sowohl 0 als auch 1 darstellen, um es einfach herunterzubrechen. Gleichzeitig steigt die Rechenleistung der Quantenprozessoren nicht nur linear mit der Anzahl der Qubits, sondern exponentiell. Heißt: Ein Quantencomputer mit 3 Qubits hat doppelt so viel Rechenleistung wie einer mit 2 Qubits. Einer mit 4 Qubits hat bereits 2*2*2 Rechenleistung. Und um das Spielchen noch komplexer zu machen, sind inzwischen auch Qutrits gelungen: ein Qutrit kann sogar drei Zustände gleichzeitig annehmen.
Warum ist das JETZT wichtig?
Kürzlich verkündete Google - erst durch einen Leak, nun auch offiziell - die Quantenüberlegenheit. Verantwortlich dafür ist Google's Quantenprozessor Sycamore, der 54 Qubits hat (bzw. 53, einer ist leider durchgebrannt). Er schlug kürzlich den schnellsten Computer der Welt in einer sehr spezifischen Aufgabe, der Errechnung tatsächlicher Zufallszahlen, um Längen. Dieser "herkömmliche" Supercomputer heißt IBM Summit und kann 122 Billiarden Mal pro Sekunde 0en und 1en ein- und ausschalten. Er benötigt (rein rechnerisch) für das Lösen der Aufgabe rund 10.000 Jahre, Sycamore 200 Sekunden.
Ja, richtig, IBM bestreitet die Überlegenheit - immerhin will IBM das Quantum Rennen gewinnen. Ja, natürlich kann dieser Quantencomputer (noch) nicht die Menschheit retten. Doch genauso funktioniert Innovation:
"So oft eine neue überraschende Erkenntnis durch die Wissenschaft gewonnen wird, ist das erste Wort der Philister: es sei nicht wahr; das zweite: es sei gegen die Religion; und das dritte: so etwas habe Jedermann schon lange vorher gewußt." (Wilhelm Raabe, 1864)*
Heißt im Klartext - und dann endet dieses lange Intro endlich: Es ist an der Zeit, sich mit der Zukunft zu befassen. Sie wird schneller zur Realität als Sie denken.
Einleitung, zweiter Anlauf
Quantencomputer beschäftigen Zukunftsforscher schon seit einigen Jahrzehnten. Sie gehörten jedoch lange Zeit zu den weit entfernten utopischen Technologien, deren Durchbruch schon mehrmals "kurz bevor" stand. Doch nun nimmt die Entwicklung endlich Fahrt auf - und die Pioniere auf dem Gebiet präsentieren immer mehr realistische Anwendungen. Schauen wir uns doch mal ein paar an, bevor wir die Perspektive Richtung Zukunftsapplikationen wenden.
Vor drei Jahren hat eines der weltweit führenden Unternehmen in der Entwicklung von Quantencomputern, D-Wave Systems Inc., einen medienwirksamen use case präsentiert. In Kooperation mit Volkswagen AG haben die Entwickler den Verkehr der jeweils nächsten 20 Minuten zwischen dem Flughafen Peking und der Innenstadt der Millionenmetropole prognostiziert. Für die Auswertung der Datenpunkte (mehrere Millionen pro Sekunde) benötigte der Quantencomputer nur wenige Sekunden, ein extrem schneller, herkömmlicher Rechner brauchte über 20 Minuten. Die Navigationssysteme der Taxifahrer wurden entsprechend informiert und die Taxis umgeleitet - mit messbaren Folgen für den Verkehr.
Fun Fact: 2017 traf ich Robert "Bo" Ewald, den Präsidenten der Firma, beim 2b AHEAD Zukunftskongress und sprach mit ihm über die Implikationen der Technologie. Einer dieser Momente, wenn sich ein Zukunftsforscher zusammenreißen muss, um nicht zu euphorisch zu werden. Er, ein offensichtlich strahlender Pionier der Entwicklung, prognostizierte: Die Quantenüberlegenheit, also der Moment, wenn ein Quantencomputer auch den schnellsten Computer der Welt deutlich schlagen würde, sei Anfang der 2020er Jahre greifbar. Und nun, im Oktober 2019, wurde sie erreicht (s.o.)! Selbst die Prognosen optimistischer Technologen werden derzeit also offenbar durch die Realität überholt. Wow!
Abseits der Euphorie stellt niemand wirklich infrage, OB Quantencomputer technologisch realisierbar sind - es ist nur eine Frage der Zeit, WANN sie ihr volles Potential entfalten werden. Wenn Sie mich fragen: innerhalb des kommenden Jahrzehnts. Sollten wir uns also heute schon darauf vorbereiten? Na gut, die Frage war suggestiv, also lassen Sie uns über die oben versprochenen, neuen Fragen sprechen, die wir stellen dürfen, wenn Rechenleistung keine Limitierung mehr darstellt.
Grundsätzlich
Die klassische Grundlagenforschung, die natürlich seit Jahrzehnten Computer einsetzt, nutzt trial & error als Hauptprinzip – als Sozialwissenschaftler erlaube ich mir mal so eine stümperhafte, alles andere als despektierlich gemeinte Simplifikation. Man muss also tatsächlich in langen Versuchsreihen probieren, was geht und was nicht. Einige Verbesserungen, neue Entdeckungen und Erfindungen entstehen durch hypothetisches Vorgehen, einige entstehen durch Zufälle. Sobald Quantencomputer ihr Potential für die Forschung entfalten, erwarten Zukunftsforscher Durchbrüche auf diversen Gebieten, auf denen sehr, sehr viele Kombinationsmöglichkeiten zum Beispiel auf molekularer Ebene denkbar sind. Besonders die Algorithmen künstlicher Intelligenz, insbesondere Machine Learning, werden wohl ihr Potential erst richtig ausnutzen, wenn Quantencomputer zur Durchführung der komplexen Rechenoperationen zur Verfügung stehen.
Schauen wir uns die großen, ungelösten Probleme an…
Gesundheit
Millionen Menschen sterben jedes Jahr infolge von genetisch veranlagten Dysfunktionen. Das nennt die moderne Medizin zwar nicht so, sondern hat hochtrabende Bezeichnungen für Symptom-Erkrankungen gefunden. Tatsächlich erklärt die (Epi-)Genetik jedoch einen großen Teil der Volkskrankheiten von Krebs über Diabetes bis zu Herz-Kreislauf-Krankheiten. Bereits heutige Systeme maschinellen Lernens erkennen aufgrund von Zusammenhängen Krankheiten, die der beste menschliche Mediziner nicht sehen würde.
Tauchen wir ein in die Molekularbiologie, wo Millionen Zellen, Milliarden Neuronen, Billionen Erbgutinformationen biologische Wesen zu dem machen, was sie sind. "Ein Wunder!", denkt der menschliche Verstand. "Spannende Mechanik!", denkt Leonardo da Vinci und beschreibt den vitruvianischen Menschen. "Eine lösbare Rechenaufgabe!", denkt der Quantencomputer.
Der "Heureka"-Moment der zeitgenössischen Medizin wird die Entwicklung individueller Arzneimittel sein für Krankheiten, die noch gar nicht ausgebrochen sind. Durch die Rechenleistung der Quanten in Kombination mit fortgeschrittenen Messinstrumenten (darunter Genomsequenzierung, lab-on-a-chip etc.) wird es noch im nächsten Jahrzehnt möglich werden, den aktuellen und kommenden Gesundheitszustand eines Lebewesens 1. präzise zu bestimmen und 2. das passende Mittel zur (präventiven) Heilung jeglicher Dysfunktion (Krankheit) zu entwickeln. Seit 2012 ist bekannt, dass Quantencomputer das Verhalten von Proteinen und Molekülen berechnen und prognostizieren können; die langjährigen Versuchsreihen der Pharmaunternehmen und Zertifizierungszeiten der Behörden werden dann bald der Vergangenheit angehören.
Was bedeutet das praktisch?
Vielleicht kennen Sie das Szenario aus meinen Keynotes: Eines Tages stehen Sie früh auf, laufen ins Badezimmer und ein Smart Mirror (oder Ihr Smartphone, die Küche oder ein Sprachassistent wie Alexa, Siri oder Bixby) begrüßen Sie im neuen Tag mit folgenden Worten: „Guten Morgen, toll sehen Sie heute aus! Allerdings sind Sie zu 17 Prozent krank, was eine signifikante Verschlechterung zur Vergangenheit bedeutet. Ihr individuelles Arzneimittel wird gerade in Ihrer Stammapotheke zubereitet und ist in 42 Minuten bei Ihnen. Möchten Sie die Ursache für Ihren Gesundheitszustand erfahren?“ Möglicherweise mischt übrigens nicht eine Apotheke Ihr Gesundheitsprodukt, sondern eine Drogerie, Ihr „Kühlschrank“ oder jeder beliebige andere Anbieter, dem Sie Ihre Daten anvertraut haben. Es kann jedoch gut sein, dass diese Verheißung (zunächst) nur einer sehr kleinen Menschengruppe vorbehalten bleibt, darüber müssen wir uns jetzt aber nicht unterhalten.
Für Versicherer bedeutet das: Sie werden den Gesundheitszustand ihrer Kunden unheimlich präzise errechnen können. Erst auf dieser Datengrundlage wird es möglich sein, echte Prävention zu betreiben. Das bedeutet in Zukunft nicht mehr Subvention ergonomischer Büromöbel, wenn der Rücken schon schmerzt, sondern Verhinderung von Krankheiten, lange bevor sie ausbrechen. Rechnen Sie gern allein durch, was das für die Aufwendungen kurativer Maßnahmen bedeuten kann.
Energie
Quantencomputer arbeiten auf der Grundlage der kleinsten bekannten Teilchen im Universum, den Quanten. Je komplexer ein Organismus, desto schwieriger ist es, dessen Quantenzustand zu messen. Für Energie, besonders Elektrizität, ist das weniger kompliziert. Elektrizität lässt sich bereits heute beamen, d.h. in (fast) Echtzeit von einem Ort zum andern transferieren. Heutige Netzbetreiber freuen sich weniger über die Entwicklung, dass potentiell Energie von einem Erzeuger zu jedem beliebigen Empfänger übertragen werden kann. Doch das ist die, zugegebenermaßen, ferne Zukunft.
Sehr viel früher erwarte ich einen Durchbruch im Bereich der Energiespeicherung. Energieversorger, Netzbetreiber und Mobilitätsunternehmen weltweit sind auf der Suche nach dem heiligen Gral der effizienten Speicherung von Elektrizität. Herkömmliche Lithium-Ionen-Akkus basieren auf klassischen elektrochemischen Prinzipien, eine Gruppe von Forschern der Universitäten Alberta und Toronto haben kürzlich die technische Machbarkeit von Akkus demonstriert, die auf den Gesetzen der Quantenmechanik basieren – immerhin theoretisch – und während der Speicherung keine Energie verliert (Quelle: https://phys.org/news/2019-10-blueprint-quantum-battery-doesnt.html / Primärquelle: https://dx.doi.org/10.1021/acs.jpcc.9b06373). Kombiniert man diesen Fortschritt mit dem Wunderelement Graphen, könnte auch die Kapazität der Energiespeicher im bevorstehenden Jahrzehnt endlich den rapide steigenden Bedarf in diversen Wirtschaftssektoren erfüllen.
Was bedeutet das praktisch?
Um einen Faktor zu nennen: ein Lithium-Ionen-Fahrzeugakku dürfte sich bis 2030 um die fünffache Potenz verbessern. Ausgehend vom Klassenbesten (Tesla Model S) bedeutet das eine Reichweite von bis zu 16.000 Kilometer Reichweite pro Ladung. Batterie-Akku-Fahrzeuge haben war ein berechtigtes Imageproblem, das liegt aber vor allem an der heutigen Reichweite, die noch nicht mit Verbrennern mithalten kann. Das wird sich sehr bald ändern.
Verkehrsorganisation
Bereits die ersten Quantencomputer-Prototypen von D-Wave haben in einem werbewirksamen Experiment ihre Stärke ausgespielt (s.o.). Ein ähnliches Projekt wurde 2018 in Barcelona von denselben beiden Unternehmen demonstriert. Nun ging es nicht mehr nur darum, den Verkehrsfluss vorherzusagen, sondern auch daraufhin die Verfügbarkeit von Taxis auf den erwarteten Bedarf abzustimmen – mit Erfolg. Darüber hinaus sei das Projekt skalierbar, das heißt in dem Fall: in jeder beliebigen anderen Stadt einsetzbar.
Was bedeutet das für den Verkehr in Zukunft?
Personenverkehr
In Metropolen und Metropolregionen herrscht mindestens zweimal täglich Verkehrschaos. Gleichzeitig gibt es aktuell wenig Grund zur Annahme, dass sich der Trend zur weiteren Urbanisierung schlagartig umkehren sollte. Es wird also noch voller, es kommen noch mehr Carsharing-Angebote, die bald auch autonom unterwegs sind – in Summe also noch verstopftere Straßen. Die gängigsten Navigationssysteme und -Apps errechnen nicht bloß eine Route von A nach B, sondern senden bereits heute Informationen über die Geschwindigkeit der Nutzer ans Rechenzentrum. Deshalb wissen die Maps und Kartendienste der Welt deutlich früher als Radiosender oder Polizei von Staus und stockendem Verkehr. Natürlich nutzen Pendler, die seit Jahren dieselbe Strecke fahren, kein Navi. Vielleicht wäre es dennoch eine gute Idee, denn die heutige Route ist mit hoher Wahrscheinlichkeit auch alternativ fahrbar, wenn mein Navi nicht nur den Echtzeit-, sondern auch den Zukunfts-Verkehr kennt und bessere Routen vorschlägt.
Warenverkehr
Warenlogistik orientiert sich an einer Art Kaskadeneffekt. Ein Beispiel: Ein voll beladenes Containerschiff läuft in den Hamburger Hafen ein. Jeder Container wird früher oder später auf einen Lkw oder einen Güterzug geladen und zum nächsten Logistik-Verteiler-Zentrum gebracht. Dort werden die Inhalte des Containers aufgeteilt auf neue Fahrzeuge und früher oder später ist man beim einzelnen Bestandteil angekommen, der in einer Maschine verarbeitet oder vom DHL-Boten zum Endkunden gebracht wird. Allein der Folgeverkehr eines Containerschiffs an Land ist der Wahnsinn, all die gefahrenen Kilometer, Arbeitsstunden, Emissionen. Bisher hatten wir aber auch schlicht keine bessere Lösung. Die Zukunft gehört perfekt effizienter Routenplanung und end-to-end-Lieferungen mit autonomen, emissionsarmen Fahr- und Flugzeugen.
Internet
Manchmal habe ich das Gefühl, dass die Menschheit noch gar nicht reif genug ist für das Internet (s.o.). Viel zu mächtig erscheint die Grundlagentechnologie, jeden Ort der Welt plötzlich miteinander verbinden zu können – und unsere herkömmlichen Systeme (Sicherheit, Bildung, Kommunikationsgepflogenheiten) sind schlicht zu langsam dafür. Wie dem auch sei, viele Orte sind immer noch schlecht angebunden an vertretbar schnelles Internet, von Glasfaser und 5G ganz zu schweigen.
Quantencomputer bringen gleich zwei potentielle Anwendungsfälle mit.
- Erstens ist einer der Gründe, warum mobiles Internet teilweise großen Schwankungen unterliegt, dass die Position der Kommunikationssatelliten nicht immer perfekt für die internetfähigen Geräte ist. Das Unternehmen Booz Allen Hamilton arbeitet gerade an einer Lösung der „Routenplanung“ von Satelliten, um die Anzahl der schwarzen Löcher zu minimieren. Allein die Optimierung der "Routenplanung" der Satelliten erhöht die Abdeckung um ein Vielfaches, um stets dort Internet verfügbar zu machen, wo es benötigt werden wird.
- Zweitens können wir uns den schwerfälligen Ausbau der Infrastruktur auf der Erde auch gleich sparen, denn das Quanteninternet / Quantennetzwerk steckt in den Startlöchern. Glasfaser-Internet sendet die Kommunikationssignale mit nahezu Lichtgeschwindigkeit. Das ist schon ganz schön schnell, dennoch muss die Information eine gewisse Strecke zurücklegen und verliert dabei Zeit. Je weiter ein Empfängergerät, beispielsweise Ihr Smartphone, von einem Sender entfernt ist, zum Beispiel einem Rechenzentrum, das diesen Artikel beherbergt, desto länger dauert’s – klingt trivial, ist es auch. Durch den Effekt der Quantenverschränkung kann die Eigenschaft physikalischer Gesetze Reisedauer = Geschwindigkeit x Entfernung ausgehebelt werden und eine Simultanübertragung gewährleistet werden.
Praktisch heißt das: ob ich eine Information in einer direkten Verbindung zwischen zwei Geräten 10 Zentimeter oder 10 Mal um die Erde senden möchte, ändert nichts an der Dauer, Quantum sei Dank! Und dass das Internet bzw. dessen Verfügbarkeit schon in den letzten 30 Jahren zu einer Neudefinition der Menschheit geführt hat, muss ich wohl nicht ausführen.
Digitale Sicherheit
Klassische Verschlüsselungslogiken sind extrem fehleranfällig – nicht, weil Passwörter leicht geknackt oder gehackt werden können, sondern weil Menschen faul und ein Sicherheitsrisiko für Datensysteme sind. Ganz ehrlich, wann haben Sie das letzte Mal das Passwort Ihres privaten E-Mail-Kontos, Ihres Heim-WLAN oder die Kombination für Ihr Smartphone geändert? Und dann noch die Mär mit biometrischen Verschlüsselungsverfahren. Jedes symmetrische Verschlüsselungssystem ist in dem Moment entschlüsselbar, in dem die Information auch auf einem noch so gut geschützten Server mit Internetverbindung hinterlegt wird.
Während dann aber komplexe Verschlüsselungsverfahren gegenüber heutigen Supercomputern „recht sicher“ sind, könnten Quantencomputer problemlos unendlich viele Kombinationsmöglichkeiten simulieren und selbst die komplexeste, symmetrische Verschlüsselung knacken. Neuartige Verfahren werden bereits heute eingesetzt, die erstens asymmetrisch funktionieren – das heißt, es gibt immer einen öffentlichen und einen privaten „Schlüssel“ pro Benutzer. Kryptowährungen wie Bitcoin basieren auf diesem Prinzip: jeder Nutzer hat einen öffentlichen Schlüssel, quasi eine Art Kontonummer, bei einer Transaktion wird jedoch ein privater Schlüssel für Sender und Empfänger erzeugt, die nur diese beiden Parteien erhalten. Zweitens wird wohl einer der ersten kommerziellen Einsatzbereiche von Quantencomputern die Quantenkryptographie sein. Kurz gesagt: aus heutiger Sicht gibt es keine praktizierte Verschlüsselungstechnologie, die unmöglich zu hacken ist. Quantenkryptographie verspricht – wie gesagt, aus heutiger Sicht – die Generierung so unvorstellbar komplexer Verschlüsselungsverfahren, dass diese durch kein absehbares System gehackt werden können.
Finanzwesen
Die größten Börsen und Banken der Welt geben Unsummen für den Betrieb gigantischer Rechenzentren aus, die auf Basis herkömmlicher Computer permanent Finanzmarktmodelle, Portfoliooptimierung und Risikoabschätzungen für Investoren, Kunden, Regierungen etc. zu kalkulieren. Komplexe Modelle erfordern unheimlich viel Rechenleistung; Quantencomputer könnten bestimmte Arten von Berechnungen mit deutlich weniger Energiebedarf und folglich weniger Kosten durchführen. Ja, das bedeutet leider auch, dass viele Bankangestellte ihren Job verlieren werden - besonders, wenn der Zugriff auf Quantencomputer schlagartig umgesetzt wird, wovon auszugehen ist.
Die mittelfristige Zukunft gehört dem komplett automatisierten Handel. Selbst wenn Sie selbst keine Ahnung von Spekulation haben, werden Sie einen virtuellen Bot ins Rennen schicken, der für Sie immer zum richtigen Zeitpunkt das Portfolio aktualisiert, kauft, verkauft, etc. Bitte bringen Sie ihm beizeiten Werte und anständiges Verhalten bei.
Foresight allgemein
Die Zukunft vorherzusagen ist unmöglich. Wirklich? Um ehrlich zu sein, wäre es als Zukunftsforscher ganz schön dämlich, diese Aussage einfach so stehen zu lassen. Natürlich können wir gewisse Dinge prognostizieren, wenn wir nur ausreichend gute Modelle und vor allem ein Verständnis für (unheimlich komplexe, chaotische, entropische, sich wechselseitig beeinflussende) Systeme entwickeln, Muster erkennen, Entwicklungen bewerten und zu einem zutreffenden Maß extrapolieren. Viele Branchen sind dennoch auf die Simulation komplexer Daten angewiesen, allen voran die Finanz- und Energiebranche, Maschinenbau und sämtliche Ingenieursbereiche.
Bereits heutige Verfahren wie die Monte-Carlo-Simulation wenden statistische Verfahren an, um schwer oder unmöglich berechenbare Probleme, wie etwa Zerfallsprozesse im Bereich der Kernfusion oder die Berechnung aller Nachkommastellen von Pi, mit Behelfslösungen doch nutzen zu können. Diese Formen der unmöglichen Berechnungen wird es dank Computern nicht mehr geben; ich als Zukunftsforscher fände es natürlich schade, wenn ein Quantencomputer nicht bloß Pi, sondern auch die Entwicklung einer Branche mit sehr hoher Wahrscheinlichkeit unter den gegebenen Variablen vorhersagen könnte. Dennoch bin ich überzeugt, dass es nur eine Frage der Datengrundlage ist, die groben Rahmenbedingungen der Zukunft zu errechnen. Es wäre auch ziemlich arrogant anzunehmen, dass die Gehirne von Zukunftsforschern schneller oder besser kombinieren können als ein Quantencomputerchip mit genügend Qubits und exponentieller Rechenleistung…
Umwelt
Ich bin fatalistisch davon überzeugt, dass weder Politik noch Gesellschaft in naher Zukunft ernsthaft einen Wandel im umweltschädlichen Verhalten herbeiführen können. Wir wissen ja längst, dass das Verbrennen fossiler Ressourcen und die massenhafte Tierhaltung schlecht fürs Klima sind, doch haben wir uns an die Annehmlichkeiten im Lebensstil so sehr gewöhnt, dass eine andere Lösung als die Änderung der eigenen Gewohnheiten und die scheinbare Senkung des Lebensstandards herhalten muss.
Stattdessen wächst eben der Anteil der „Technik-Jünger“, die für unsere Klimakrise auf die technologische Lösung hoffen. Meiner Ansicht nach sind alle Technologien längst entwickelt worden, um die Emissionen zu verringern und das bestehende Ungleichgewicht im Treibhauseffekt teilweise zu korrigieren. Dabei muss es auch nicht immer Hightech, sondern kann auch das Pflanzen von Bäumen sein, um CO2 zu binden. Oder man denkt größer und extrahiert CO2 aus der Atmosphäre, spaltet es in aufwendigen chemischen Prozessen in Kohlen- und Sauerstoff und verwertet mindestens den Kohlenstoff weiter. Bedarf haben wir genug. Beispielsweise für e-fuels, also synthetische Kraftstoffe, die in herkömmlichen Verbrennungsmotoren funktionieren. Diese Lösungen haben wir mit herkömmlichen Forschungsprozessen entwickelt; sobald Quantencomputer zum Standard in Laboren und Forschungszentren werden, sind chemische Reaktionen plötzlich simulierbar, völlig neuartige Kombinationsmöglichkeiten denkbar. Wir würden noch besser verstehen, welche Zusammenhänge konkret das Klima beeinflussen – und welche wir wo unterbinden sollten.
Menschheit (anstelle eines Fazit)
Und spätestens an diesem Punkt der Liste komme ich zu dem Schluss, dass die beste Technologie nichts nützt, wenn die sozialen Systeme nicht mitspielen. Das aktuelle Design ebendieser ist nur leider nicht für (bald) 10 Milliarden Menschen und komplexe Herausforderungen wie den Klimawandel, Epidemien oder die gerechte Verteilung von Lebensmitteln und Ressourcen ausgelegt.
Wir benötigen also beides, um die Menschheit zu retten: Den mutigen Einsatz wirklich innovativer Technologien und beherzte Entscheider*innen. Dazu dann noch eine gehörige Prise Exnovation.
Ich bleibe dabei: je mehr (digitale) Technologie die Menschheit entwickelt, desto wichtiger wird die menschliche Interaktion. Quantencomputer werden nicht alle Probleme der Menschheit über Nacht lösen - aber vielleicht können sie dabei helfen, die heute noch scheinbar unlösbaren großen Themen handhabbar zu machen.
Ausgewählte allgemeine / Übersichts-Quellen (unsortiert!):
https://www.dwavesys.com/quantum-computing/applications
https://dwavefederal.com/app/uploads/2017/10/Qubits-Day-2-Morning-5-VW.pdf
https://www.thedrive.com/tech/8789/volkswagen-uses-quantum-computing-to-fight-beijing-traffic
https://www.dwavesys.com/sites/default/files/Qubits%20Europe%202018TrafficflowOptimisation.pdf
https://medium.com/@jackkrupansky/what-applications-are-suitable-for-a-quantum-computer-5584ef62c38a
https://quantumcomputingreport.com/our-take/the-best-applications-for-quantum-computing/
https://www.nature.com/articles/d41586-019-02936-3
https://www.quantamagazine.org/stephanie-wehner-is-designing-a-quantum-internet-20190925/
https://gizmodo.com/you-wont-see-quantum-internet-coming-1836888027
Beitragsgrafik von: https://commons.wikimedia.org/wiki/File:C%2B%2B_evolution_text.svg
* Zitiert nach: Eckhardt Meyer-Krentler: Arbeitstechniken Literaturwissenschaft. München: W. Fink 3. Auflage 1993 (UTB 1582), S. 75. Dieser gibt als Quelle an: Karl Hoppe: Wilhelm Raabe. Göttingen 1968, S. 89, gefunden hier, inspiriert von einer Keynote von Prof. Dr. Gunter Dueck, in dem er das Zitat Schopenhauer zuschrieb - scheinbar nicht als einziger.
Sapiens 2.0 - Kurzer Ritt in die Zukunft der Menschheit
Exponentieller Technologiefortschritt, globalisierte Ökonomie, Werte- und Demografie-Wandel... was bedeutet das für Homo Sapiens in naher Zukunft? Ein globalgalaktischer Versuch, die Zukunft unserer Spezies zu denken.
Automatisierung vernichtet keine Jobs. Arbeitgeber tun das.
Es geistern immer wieder Statistiken und Prognosen über die Vernichtung von Jobs bzw. Arbeitsplätzen infolge der aktuellen Automatisierungswelle und künstlicher Intelligenz durch die Medien. Glauben Sie bitte keiner von denen. Alles Quatsch. Lust auf eine kleine Prise Tiefgang? Lesen Sie meine kurze Meinung als Zukunftsforscher zu dem Thema...
New Work: Neue Arbeit im Zeitalter der Digitalisierung
Was steckt eigentlich hinter dem Konzept von „New Work"? Was bedeutet Neue Arbeit für Sie als Personaler*in, Unternehmer*in oder Angestellte*r? Ein schneller Ritt durch die schöne, neue Arbeitswelt.
Begriffsbestimmung
Wie es sich für einen pseudo-wissenschaftlichen Beitrag gehört, möchte ich zunächst den Begriff definieren. Denn ich möchte wetten, dass Ihre Idee von New Work eine andere ist als meine und vermutlich auch als die Ihrer Angestellten oder Kolleg*innen.
Immerhin: Der Suchbegriff „New Work“ liefert bei Amazon über 100.000 Resultate, bei buch7.de findet man 39 deutschsprachige Bücher und 3522 Englische. Anschnallen: Wir betreten #Neuland!
Ursprung: New Work nach Bergmann
Das Konzept von New Work hat seine Wurzeln in den USA und wurde vom in Sachsen geborenen US-Österreicher Frithjof Bergmann bereits in den 1980er Jahren entwickelt. Bergmann betrachtete die Entwicklungen der kapitalistischen und kommunistischen Ökonomien kritisch. Als eine heftige Rezession die Automobilstadt Flint in Michigan traf, gründete er dort das erste Zentrum für Neue Arbeit. Dessen Ziel war es, Menschen auf den erwarteten Zusammenbruch der herkömmlichen Wirtschaftswelt vorzubereiten. Erst 2004 veröffentlichte Bergmann seine Ideen im Buch „Neue Arbeit, neue Kultur".
Bergmanns drei zentrale Thesen fußen auf der zunehmenden Automatisierung und Globalisierung. Er projizierte diese beiden Megatrends in die Zukunft und kam zu dem Ergebnis, dass die klassische Lohnarbeit kein tragfähiges Konzept für die Wirtschaft sei.
- Im Ergebnis erschien es Bergmann naheliegend, die Erwerbsarbeitszeit deutlich zu reduzieren, weil schließlich nicht genug Arbeit für alle Menschen in einem geographischen Gebiet verfügbar wäre.
- Diese Menschen würden ihre Güter für den alltäglichen Gebrauch in Hightech-Eigenproduktion selbst herstellen und in Netzwerken jedem frei zur Verfügung stellen.
- Eine starke normative Komponente kritisierte den Überfluss der Konsumgesellschaft, weshalb ein großer Teil der Güter und Waren des täglichen Lebens – so Bergmanns Argumentation – ohnehin überflüssig seien. Der Ansatz war damals natürlich revolutionär und wurde als anarchisch verschrien. Letztlich klingt das aber auch sehr schön, wenn nicht gar utopisch, denn die freigewordene Zeit sollen die Menschen in der schönen, neuen Arbeitswelt mit dem füllen, was sie am liebsten tun und am besten können. Viel mehr Menschen würden sich künstlerisch oder sportlich oder musisch oder floristisch oder, oder, oder… betätigen. Freiwillig.
Deutsche Adaption: Neue Arbeit nach Markus Väth
Obwohl die ersten Anzeichen für einen Wandel der Arbeitswelt spätestens seit der Jahrtausendwende immer offensichtlicher zutage traten, dauerte es hierzulande bis 2016, bis ein vergleichbares Standardwerk für die neue Arbeitswelt erschien. Der Psychologe und Informatiker Markus Väth nannte sein erweitertes und aktualisiertes Konzept „Arbeit – die schönste Nebensache der Welt". Väth bestimmte darin fünf Dimensionen der Neuen Arbeit:
- Psychologische Dimension: Ähnlich wie Bergmann erfüllt für Väth die Arbeit für den Menschen einen Zweck, nicht umgekehrt. Die Entfaltung des Individuums soll im Zentrum der Arbeitswelt stehen.
- Soziale Dimension: Im Beruf entstehen zwangsläufig mehr oder weniger intendierte zwischenmenschliche Beziehungen. In der neuen Arbeitswelt findet immer mehr Teamarbeit statt, moderne Führungskonzepte wiederum verteilen die Entscheidungsgewalt quasi-demokratisch auf mehrere Schultern der Angestellten.
- Technologische Dimension: Nach der großen Welle der Automatisierung im 20. Jahrhundert geht es nun an die Digitalisierung. Ziel dieser Veränderung ist natürlich die Effizienzsteigerung der Unternehmen bzw. Organisationen, welche zwangsläufig zu Veränderungen in der Personalbedarfsplanung führen (maximal objektiv formuliert).
- Organisatorische Dimension: In Zeiten des Taylorismus herrschten die starr hierarchischen Organisationsformen mit klarer Linienführung und top down-Entscheidungslogik vor. Diese Art der Organisation weicht einer immer agileren, netzwerkartigen Aufbauorganisation, die auch Platz für (teil-)autonome Teams und „unkonventionelle“ bottom up-Entscheidungswege lässt.
- Politische Dimension: Diese Dimension bezieht schließlich die externe Politik mit ein, die die Rahmenbedingungen für Gesundheit, soziale Gerechtigkeit, Lohnniveau und Arbeitsschutz schneller den aktuellen Gegebenheiten anpassen muss. Diese Anforderung adressiert natürlich die politische Exekutive, namentlich die Bundesregierung und die Bundesministerien (insbesondere die Ministerien für Wirtschaft, Arbeit und Soziales, Justiz und Finanzen).
Markus Väth bloggt unter anderem zu New Work und hat in einem unterhaltsamen Artikel Ende Mai 2019 der deutschen Politik bescheinigt, dass auch New Work #neuland für sie ist.
Neue Definition New Work
In einer mir vorliegenden Bachelorarbeit (siehe Quellen) hat der Autor basierend auf einer qualitativen Expertenbefragung im Jahr 2019 eine – wie ich finde – gute neue Definition für Neue Arbeit entwickelt:
„New Work bezeichnet eine neue Form der Arbeit, welche die Selbstverwirklichung des Individuums im Arbeitsprozess in den Mittelpunkt stellt [!] und deren Ursprungsbezeichnung auf den Philosophen Frithjof Bergmann zurückgeht. Damit ist New Work ein Gegenbeispiel zur klassischen, linearen, hierarchischen Organisations- und Arbeitsform, in welcher der Mensch als Produktionsmittel wahrgenommen wird. New Work ist dabei mehr als nur Arbeitsweise, sondern hat Auswirkungen auf die Organisationsform. Dabei ist New Work aber keine einheitliche Denkschule, sondern kann in Bezug auf Arbeitsfelder, Miteinander und Arbeitsergebnisse – dabei sowohl auf deren Sinnhaftigkeit als auch auf deren gesellschaftlichen Mehrwert – individuell auf Unternehmen und Arbeitnehmer ausgerichtet sein.“
Exkurs: Industrielle Revolution(en)
Wir sind uns alle einig, dass der technologische Fortschritt einen Einfluss auf unser Verständnis von Arbeit hat. Immerhin tragen die meisten Arbeitnehmer*innen in Deutschland mit ihrem Smartphone auch 2019 noch einen schnelleren Computer in ihrer Hosentasche herum und nutzen barrierefreiere Angebote als das in ihrem Arbeits-PC möglich oder erlaubt wäre. In der Arbeitswelt wirft die Digitalisierung oder auch vierte industrielle Revolution ihre Schatten voraus. Ein kurzer Überblick über die industriellen Revolutionen:
- 1. industrielle Revolution: Der Übergang von der Agrar- zur Industriegesellschaft und Beginn der Urbanisierung hat vor allem Landarbeiter verdrängt, verabschiedet den Feudalismus als vorherrschendes Gesellschaftssystem. Beginn ab ca. 1780, Epizentrum: britische Baumwollindustrie.
- 2. industrielle Revolution: Die zunehmende Mechanisierung und Elektrifizierung bringt viele Fließbandarbeiter um ihre Jobs und festigt das kapitalistische Wirtschaftssystem. Beginn ab ca. 1870, prominentestes Beispiel ist die massenhafte Automobilfertigung von Henry Ford (USA) in den 1910er Jahren.
- 3. industrielle Revolution: Die mikroelektronische Revolution ersetzt einfache Hilfsarbeiten und setzt die ökonomische Globalisierung in Gang. Beginn in den 1970er Jahren mit dem Siegeszug der kommerziellen Computer und der ersten Industrieroboter – Sie ahnen, wo der Ursprung liegt. Richtig: Im Silicon Valley (auch USA).
- 4. industrielle Revolution: Neue Grundlagentechnologien sind in dieser Revolution nicht hinzugekommen, doch die Vernetzung durch das globale und vor allem zunehmend mobile Internet entfaltet seit den 2010er Jahren ihr Potential. Beginn: 2007 mit Einführung des iPhone und 2010 mit der Einführung des 3G-Standards für mobile Internetverbindungen, ausgehend von den USA, aber bald (fast) global verfügbar. Die Welt wächst zusammen. Aber: Nicht zuletzt aufgrund des von der deutschen Regierung geprägten Begriffs „Industrie 4.0“ wird die tatsächliche Existenz des Revolutionscharakters kontrovers diskutiert; manch eine*r spricht höchstens von einer zweiten Phase der 3. industriellen Revolution.
- Kurzer Ausblick: Spätestens mit dem bevorstehenden Durchbruch bei Quantencomputern sowie der künstlichen Intelligenz werden Digitalisierung und Globalisierung eine neue Stufe erreichen. Homo sapiens steht damit anthropologisch betrachtet auf einer neuen Grundlage (vgl. Yuval Noah Harari). Auch im Büroalltag wird es bald völlig normal sein, dass einige Kolleg*innen nur aus Programmcode bestehen; sie sind lernende Algorithmen, die im kommenden Jahrzehnt zunehmend Entscheidungen treffen werden. Das fängt bei einfachen Dingen wie Terminvereinbarungen an (vgl. Amy AI), macht aber auch vor heutigen Expertenaufgaben nicht Halt. Die Software von NDALynn oder Lawgeex prüft Verschwiegenheitsvereinbarungen (NDAs) schon heute präziser und viel schneller als Fachanwälte, die ihr Leben lang nichts anderes gemacht haben. Je mehr Entscheidungsgewalt auf die künstlichen Kollegen (Roboter bzw. Algorithmen) übertragen wird, je mehr diese in der Lage sind sich und ihre Interessen zu artikulieren, desto dringlicher wird auch der Bedarf nach rechtlichen Rahmenbedingungen und betrieblicher Mitbestimmung. In der Schweiz wurde im Dezember 2018 ein Roboter in die traditionsreiche Gewerkschaft „Verband Angestellte Schweiz“ aufgenommen, nachdem ein Robo-Kollege in Großbritannien entlassen wurde. Denn selbstverständlich machen die künstlichen Kollegen auch Fehler. Und als Korrektiv dafür muss aktuell noch das vorherrschende Rechtssystem herhalten; Unternehmen haften für ihre Kinder, äh, KIs. Dabei wird es immer komplizierter festzustellen, auf welcher Grundlage eine KI Entscheidungen trifft oder sich auf diese oder jene Weise verhalten hat. Bis zum Jahr 2030 werden die Kinderkrankheiten aber längst der Vergangenheit angehören. Die Auswirkungen auf menschliche Beschäftigte sind einerseits noch unklar, andererseits liegen sie vor allem in der Verantwortung der Arbeitgeber und der Politik.
Es gehört zweifelsohne zu den Charakteristika solcher Revolutionen, dass bestehende durch neue Handlungsmuster auf allen gesellschaftlichen Ebenen ersetzt werden. Ebenso gehört es zu den bitteren Wahrheiten, dass im kapitalistischen System das Leitmotiv „Gewinnmaximierung“ nicht immer zugunsten der Beschäftigten entscheidet. So gab es in allen industriellen Revolutionen vor allem Massenentlassungen („Rationalisierungen“) und zumindest in Europa historische Massendemonstrationen (bspw. den Weberaufstand 1844, Widerstände gegen die Eisenbahn im 19. Jahrhundert, Taxifahreraufstände 2019, bald Automobil-Zulieferer-Aufstand…). Genauso können wir es aktuell beobachten. Und es werden noch viele Meldungen über Massenentlassungen folgen, nicht zuletzt weil Arbeitgeber und Arbeitnehmerorganisationen sich aus nachvollziehbaren, aber unvernünftigen Gründen gegen „disruptive“ Technologien sperren.
Wir halten folgende Formel fest: Technologiesprung + Kapitalismus = industrielle Revolution.
Zurück zum Leitthema, oder eher: Leidthema?
Willkommen zurück im Jahr 2019.
Industrielle Revolution hin oder her, das dürfen die Historiker der nächsten Generation beurteilen. Die Arbeitswelt unterliegt einem Wandel, dieses Mal mischen aber noch mehr Faktoren mit. Neben Technologiesprüngen und dem Kapitalismus spielen für die Debatte um New Work zwei weitere wichtige Faktoren eine wichtige Rolle: demografischer Wandel und Wertewandel.
Demografischer Wandel
Der Begriff an sich ist eigentlich bescheuert. Demografie befindet sich immer im Wandel, jede Sekunde sogar. Im Volksmund wissen wir in den westlichen Industriestaaten aber alle, was damit gemeint ist: die bevorstehende Überalterung der Gesellschaft(en).
Woher kommt das? Die sehr geburtenstarken Nachkriegsgenerationen, auch Babyboomer genannt, stehen altersmäßig kurz vor dem Renten- bzw. Pensionsalter. (Was das für Unternehmensnachfolgen bedeuten wird, habe ich mal als Co-Autor einer wissenschaftlichen Zukunftsstudie untersucht.) Die Generation danach wird nicht ohne Grund auch „Pillenknick-Generation“ genannt: Nach der Markteinführung der Anti-Baby-Pille kamen signifikant weniger Menschen zur Welt, auch andere Verhütungsmittel und der offenere Diskurs über Schwangerschaftsverhütung sowie HIV-Prävention spielen in die Statistik. Das Phänomen hat bis heute Bestand.
Nicht zuletzt erlebten die westlichen Staaten in den 1950er Jahren einen wirtschaftlichen Aufschwung (goldene 50er) und paradoxerweise führt Wohlstand zu weniger Geburten, das gilt sogar in Entwicklungsländern wie Indien oder Bangladesch (an die Soziologen: natürlich ist das kein monokausaler Zusammenhang, ich weiß).
Jedenfalls sterben schon seit 1972 in Deutschland mehr Menschen als geboren werden, gleichzeitig werden die Alten älter. Nicht ohne Grund wurde die Sicherheit der Rente schon in den 1990er Jahren infragegestellt.
Die demografische Entwicklung führt damit geradewegs in eine Welt des Arbeits- und Fachkräftemangels sowie des Altersüberschusses. Kombinieren wir diese Einflussfaktoren, erkennen wir für das Thema New Work zwei zentrale Konsequenzen der Demografie:
- Der Wert menschlicher Arbeit nimmt zu. Es war noch nie so leicht für qualifizierte Fachkräfte, einen Job zu finden (persönliche Mobilität vorausgesetzt). Was für Informatiker und einige Ingenieursberufe seit einem guten Jahrzehnt gilt – regelmäßige Abwerbeversuche anderer Arbeitgeber zu immer besseren Konditionen – gilt für auch immer mehr Sozial- oder Geisteswissenschaftler*innen. Und natürlich für Mediziner*innen. Sie suchen sich ihren nächsten Arbeitgeber an dem Tag aus, wenn sie eine neue Stelle antreten. Fordern ein Sabbitical, mehr Urlaubstage, bessere Sozialleistungen und so weiter. Viele Unternehmen in westlichen Industriestaaten wiederum sind in einer Zeit des Fachkräfteüberflusses gewachsen. Sie wissen oft nicht, wie sie mit anderen Mitteln als ihrer Marke und einem sicheren Einkommen um Fachkräfte werben sollen, wenn überhaupt. Employer Branding kann man deshalb inzwischen studieren. Dazu gehört inzwischen mehr als kostenloses Wasser und Obst am Arbeitsplatz. Haben Sie schon mal über Wohnzuschüsse für die Eltern Ihrer Angestellten nachgedacht? Oder Subventionen für temporäre Expat-Office-Aufenthalte auf Bali? Oder demokratische Wahlen der Geschäftsführung?
- Wirtschaftlich agierende Organisationen, in der Regel Unternehmen, müssen Arbeitsprozesse automatisieren. Dieser Befund ist heutzutage einer der zentralen Treiber für technologische Innovation, denn wenn ein Unternehmen keine Arbeitskräfte mehr durch die besten Employer Branding-Strategien findet, muss es neue Wege finden, den Profit zu maximieren. Nach einer Prognos-Studie fehlen 2030 drei Millionen Fachkräfte. Fachkräfte! Nicht „nur“ Arbeitskräfte. Damit gemeint sind lediglich die Spezialist*innen bzw. Expert*innen! Und heute stehen die Züge der Deutschen Bahn schon regelmäßig still, weil das Personal für die Stellwerke oder Loks fehlt. Dabei weiß ich aus sicherer Quelle, dass gerade der DB-Konzern recht früh damit angefangen hat, Gegenmaßnahmen zu ergreifen…
Wertewandel: Generation X, Generation Y, Generationsbrei…
Danke, Prof. Dr. Martin Schröder!
Im Oktober 2018 stieß ich auf seinen Beitrag in der Kölner Zeitschrift für Soziologie und Sozialpsychologie (drauf gestoßen hat mich Spiegel Online). Endlich gibt es empirische Ergebnisse, die die gängigen Annahmen über „Generation X“, „Generation Y“, „Generation Z“ etc. widerlegen. Natürlich gibt es einen sich wandelnden Zeitgeist, natürlich wird ein Wertewandel durch Generationenwechsel beschleunigt. Und natürlich ist die Jugend verroht und respektlos, das wusste schon Sokrates. Aber es ist falsch zu behaupten, dass eine Geburtenkohorte in sich gefestigt über diese oder jene (insgesamt homogene) Wertvorstellungen verfügt oder Entscheidungen immer auf dieselbe Weise trifft. Nun endlich auch wissenschaftlich belegt.
Der gesellschaftliche Wertewandel vollzieht sich also dynamisch und relativ unabhängig vom Geburtsjahr, sondern orientiert an der aktuellen gesellschaftlichen, politischen, ökonomischen Gesamtsituation. Meiner Generation werden beispielsweise eine kürzere Aufmerksamkeitsspanne und postmaterielle Ideale zugeschrieben – das erklärt noch lange keine Inflation von Achtsamkeitstrainings und die Absatzzahlen von Tablets bei über 45-Jährigen.
Was wir aber sehr wohl festhalten können ist ein steigender Drang zur Subjektivierung, auch Individualismus genannt. Parallel vollzieht sich ein Bruch mit dem Determinismus, sprich der Weltanschauung, dass ein oder mehrere göttliche(r) Schöpfer das Schicksal jedes Lebewesens bestimmt/bestimmen. Immer mehr Menschen nehmen ihre Lebensläufe selbst in die Hand, gehen – besonders in Sozialstaaten – höhere Risiken ein, sehen Arbeit nicht mehr als das zentrale Element ihres Lebens. Immerhin will man ja was erleben! Schließlich erfreuen wir uns einer steigenden Gleichberechtigung der Geschlechter, Kulturen, Religionen und weiteren Kategorien. (Über die weiteren, spannenden Auswüchse des Wertewandels schreibe ich vielleicht mal an anderer Stelle etwas, aber das war’s im Wesentlichen für das Thema New Work.)
Konkrete Folgen für den Arbeitsmarkt:
- Immer weniger Menschen hegen den Wunsch, ihr Erwerbsleben bei nur einem Arbeitgeber zu verbringen.
- Immer mehr sehen lebenslanges Lernen mit teils obskuren Richtungswechseln als Erfüllung.
- Immer mehr Menschen sind beruflich Selbstständige (Statistik, mehr Startups. auch mehr Gründungen durch Ältere) oder fristen als Freiberufler ihr flexibles Dasein.
- Immer mehr Frauen rücken in Führungspositionen oder gründen Unternehmen – dasselbe gilt für homo-, trans- und intersexuelle Menschen sowie Menschen mit Migrationshintergrund. Langsam, aber immerhin.
Mini-Fazit Demografie und Wertewandel
Die Arbeitswelt unterliegt erheblichen exogenen und endogenen Treibern der Veränderung. Wer noch nicht angefangen hat, sich mit New Work zu beschäftigen, sollte genau jetzt starten. Aber Sie lesen diese Zeilen vermutlich aus dem Grund, weil Sie schon im Thema stecken… das ewige Paradoxon setzt sich fort. Wenn Sie jemanden kennen, der mit New Work noch nichts verbindet – nutzen Sie bitte die Teilen-Funktion dieses Beitrags für Xing, Linkedin, Mail oder ein Format Ihrer Wahl. Danke! Und jetzt: weiter im Text.
Zwischenfazit: Warum New Work? Warum jetzt?
Erwerbsarbeit, ein historisch relativ junges Konstrukt, unterliegt großen Umschwüngen. Dieser stetige Wandel wurde bislang vor allem durch technologische und politische Umwälzungen angestoßen. Die stärksten derzeit wirkenden Einflüsse bzw. Trends lauten:
- Die Digitalisierung entfaltet so langsam ihr volles Potential. Gemeint ist nicht bloß die Elektrifizierung und Automatisierung vormals mechanischer (Arbeits-)Prozesse. Die Vernetzung der wachsenden Weltgemeinschaft (Globalisierung 2.0) und des globalen Arbeitsmarkts hat erst vor wenigen Jahren eingesetzt.
- Der demografische Wandel zwingt Arbeitgeber in die Situation, automatisieren zu müssen. Arbeitnehmer profitieren von der Überalterung der Gesellschaft, sodass immer mehr Qualifikationen oder Professionen unter Hochdruck gesucht werden – und Beschäftigte sich immer mehr ganz mündig und selbstbestimmt ihre Erwerbsbiographie stricken.
- Der Wertewandel in liberalen, demokratischen Staaten ermöglicht die aktive Teilhabe vormals unterdrückter Bevölkerungsgruppen. Gleichzeitig werden die Bedingungen für die berufliche Selbstverwirklichung immer günstiger.Schließlich zeigt die relative Reife der New Work-Diskussion, dass wir weit davon entfernt sind, eine einheitliche Definition für Neue Arbeit zu entwickeln. Es sind allenfalls Stoßrichtungen der Transformation; das Ergebnis wird bei jeder Organisation anders aussehen.
Was bedeutet New Work für Organisation und Management?
Selbstverständlich stehen wir noch am Beginn der Transformation. Oder stecken mittendrin. Das hängt von Ihrem Standpunkt und der Rhetorik ab. Wichtig ist, dass New Work per Definition kein abschließbarer Prozess sein kann – kein Change-Prozess mit einem konkreten Ziel.
Mindset shifts for organization transformation (new work)Aaron Sachs und Anupam Kundu haben eine schöne bildliche Darstellung entwickelt, die die fundamentalen Richtungswechsel darstellt. Ich versuche mich auch in meinen Keynotes immer mal gern an einer Erläuterung. Nun auch hier:
- Unternehmenszweck: Natürlich müssen Unternehmen Gewinn (profit) erwirtschaften. In Wirklichkeit müssen sie sich aber viel stärker an einem Sinn (purpose) orientieren – das macht übrigens auch die Personalarbeit leichter. Im nächsten Schritt wird die strikte Formulierung von Prozessen weniger benötigt, da jede*r einzelne Mitarbeiter*in den Sinn so sehr verinnerlicht hat, dass das Ziel mit eigenen Mitteln erreicht werden kann. Oft auch unkonventionell, eben individuell auf die Bedürfnisse und Stärken der Persönlichkeit zugeschnitten.
- Aufbauorganisation: Verabschieden Sie sich von starren Hierarchien und machen Platz für Netzwerke. Agile Projektteams, in denen auch mal die Geschäftsführung als einfache Teamplayer einer Projektleiterin unterstellt sind – kein Novum mehr in Unternehmen an der Spitze der New Work-Bewegung. Eine Kienbaum-/StepStone-Studie hat 2017 nachgewiesen, dass mit steigender Durchlässigkeit der Hierarchieebenen der Unternehmenserfolg messbar steigt (von funktional über Matrix über gar keine Abteilungen zu divisional und schließlich agil).
- Personalführung: Gemäß dem tayloristischen System müssen Führungskräfte ihre Angestellten eng führen und kontrollieren, weil sie ja schließlich selbst nicht in der Lage sind, eigenständig zu handeln. Überprüfen Sie gern mal Ihr Prozesswerk, das haargenau diese und jene Schritte für die einfachsten Tätigkeiten festlegt – dadurch wird Menschen das eigenständige Denken abgewöhnt. Viel wichtiger ist in der Neuen Arbeitswelt die Befähigung (empowering) der Beschäftigten: durch eine offene, faire Feedback-Kultur, intrinsische Anreize, eine gesunde Fehlerkultur und Zugeständnisse bei Entscheidungswegen.
- Produktentwicklung: Die deutsche Innovationskultur zeichnet sich durch einen perfektionistischen Tüftlerdrang aus. Die Metapher ist der schwäbische Tüftler, der in seiner Garage eine Idee jahrelang bis zum perfekten, marktfähigen Produkt entwickelt – zwischendurch ein Patent anmeldet und ein Marktforschungsinstitut mit einer repräsentativen Studie seiner Zielgruppe beauftragt. Bei immer kürzer werdenden Innovationszyklen auf immer diffuseren Märkten kann diese Taktik nicht mehr funktionieren. An der Stelle müssen sich Erfinder*innen und Entwickler*innen eine Scheibe aus dem Silicon Valley abschneiden und mehr experimentieren. Und zwar in der Realität. Ein Prototyp bzw. Pretotyp (oder auch MVP, minimum viable product) ist egal für welche Idee (ausgenommen vielleicht Hochsicherheitslösungen) schnell entwickelt, wird dann an eine begrenzte Testgruppe herangeführt, um Feedback zu erhalten, dieses anschließend umzusetzen und mit einer überarbeiteten Fassung erneut an die Öffentlichkeit zu gehen. Selbst die ersten Fahrzeuge von Tesla verfolgten dieses Ziel; in den Fahrzeugen war so viel unfunktionale Sensorik verbaut, die nur dem Zweck diente, Daten über das Nutzungsverhalten zu sammeln und mit einer massiven Support-Offensive die oft noch unzufriedenen, oft unbewussten Test-Fahrer bei Laune zu halten.
- Daten: Das leidige Thema Datenschutz und Betriebsgeheimnisse. Die „alte Welt“ funktioniert nach strikten Wettbewerbsregeln, in denen Unternehmen ihre interne Entwicklung hermetisch abschirmten. Wieder bemühe ich die steigende Innovationsgeschwindigkeit als Gegenargument: in einer globalisierten Welt können Sie sich sicher sein, dass ein*e Entwickler*in irgendwo auf dem Globus exakt dieselbe Idee schon mal gedacht hat wir Ihr Entwicklerteam. Ideen wachsen nur durch Diskurs und Experimente. Besonders in heterogenen Gruppen gedeihen diese umso besser – eine Erklärung für die wachsende Anzahl teils brancheninterner Allianzen, wie zwischen BMW und Daimler oder Kooperationen zwischen TÜV NORD und TÜV SÜD, die ich leiten durfte. Darüber hinaus findet immer mehr Ideen- und Innovationsaustausch auf oft noch informellen Treffen statt, während andernorts Innovativität noch an der Anzahl der angemeldeten Patente gemessen wird. Wenn die Anmeldung eines Patents ca. zwei Jahre dauert, der Konkurrent dieselbe Lösung aber zwischendurch auf den Markt bringt, nützt dem besten Erfinder das Postkartenformat im Hausflur genau gar nichts.
Schlussstrich und Ausblick: Digitalisierung führt zu New Work
Der Druck auf den Arbeitsmarkt ist groß. Digitalisierung, Demografie, Arbeitnehmerbewusstsein, Globalisierung… Im Ergebnis erwarten Optimisten, dass die Neue Arbeit keine Umstellung für den einzelnen Menschen sein wird, sondern viel enger auf die Bedürfnisse abgestellt ist. Flexible Arbeitszeiten und -orte (wie Homeoffice), BYOD (bring your own device), interessen- und stärkenbasierte Einsatzzwecke und vieles mehr. In ein paar Jahrzehnten werden sich Historiker über unsere Epoche der tayloristischen Erwerbsarbeit und Aufbauorganisation mit einer ähnlichen Distanz und Unverständlichkeit äußern wie wir heute über Sklaventum oder Feudalismus urteilen.
Es gibt viel zu tun. Packen wir es an! … und wenn Sie Unterstützung bei der Umsetzung oder Inspiration für Ihre Mitarbeiter (oder Vorgesetzten) wünschen: kontaktieren Sie mich.
Ausgewählte Quellen
Dittrich, Bob (2019): New Work. Eine qualitative Expertenbefragung (Bachelorarbeit, unveröffentlicht).
Eilers, Frank (laufend): Arbeitsphilosophen Podcast: https://www.einfach-eilers.com/arbeitsphilosophen.
Mason, Paul (2015): Postkapitalismus.
Schröder, Martin (2018): Der Generationenmythos. Online.
Photo by James Pond on Unsplash
Die Zukunft der Unternehmen
In einem anderthalbjährigen Forschungsprojekt habe ich mich in einem kleinen Team mit der Zukunft der Berliner Unternehmen auseinandergesetzt.
Das Projekt war angegliedert an das zweijährige Forschungsvorhaben des Instituts für Entrepreneurship, Mittelstand und Familienunternehmen (EMF) der Hochschule für Wirtschaft und Recht in Berlin: Innovative Lern- und Kommunikationskonzepte zur Unternehmensnachfolge in Berlin. Eines der Produkte dieses Projekts ist die Website www.nachfolge-in-deutschland.de – dort wird auch der Abschlussbericht kostenlos als pdf veröffentlicht werden, er ist aber auch käuflich erwerbbar. Und ein richtiges Buch ist ja auch viel schöner als ein digitales…
Zukunftsstudie
Unsere Zukunftsstudie befasste sich weniger mit der Kommunikation als mit der Zukunft der Unternehmensnachfolge. Dazu haben wir in einem mehrstufigen Verfahren aus Expertendelphi, Workshops, quantitativer Befragung und schließlich einem Szenarioprozess die Zukunft Berlins beleuchtet.
Ein Ergebnis lautet: die Unternehmenslandschaft unterliegt teils enormen Veränderungsprozessen. Insbesondere der Bereich der Unternehmensnachfolge wird stark vom Wertewandel beeinflusst. Heute ist es alles andere als vorherbestimmt, dass die Kinder von Unternehmern später einmal die Firma übernehmen. Deshalb werden familienexterne Übernahmen in Zukunft weiter zunehmen.
Der demographische Wandel wirkt sich in Berlin anders aus als im Rest Deutschlands. Berlin bleibt auch in Zukunft die Metropole und zieht viele Fachkräfte an. Daher wird der Arbeitsmarkt auch in höher qualifizierten Berufen tendenziell angespannt bleiben.
Wenn Sie Ihre persönliche Kopie des 184-seitigen Berichts erhalten oder in Form eines Vortrags oder Beitrags tiefer eintauchen möchten, schreiben Sie mir einfach eine Mail.
Edition EMF – Band 6
Unternehmensnachfolge in Berlin 2030. Wertewandel und der Einfluss gesellschaftlicher Entwicklungen auf Unternehmensnachfolgen im Jahr 2030 – Ist das klassische Familienunternehmen ein Auslaufmodell?
Projektleitung:
Prof. Dr. Birgit Felden
Zukunftsforscher:
Kai Gondlach, M.A.
Mira Schirrmeister, M.A.
Mischa Stähli, M.A.
Wissenschaftliche Mitarbeit:
Michael Graffius, M.A.
Laura Marwede, M.A.
ISBN 978-3-940989-15-4, 19,90 EUR
Keynote über die Zukunft der Unternehmen anfragen
Selbstverständlich gehört das Thema der "Zukunft der Unternehmen" (inklusive Nachfolge) auch zu meinem Repertoire als Keynote Speaker. Wenn Sie Interesse an einem Vortrag oder auch Beitrag für Ihr Magazin haben, schreiben Sie gern eine Nachricht über folgendes Formular: