Von drei Szenarien der KI-Zukunft und der Chance für Human Leadership

In dem im März 2019 veröffentlichten Buch "AI Thinking" haben wir über drei globale AI-Szenarien gesprochen: Erweiterung, Upgrade oder Erlösung. Geopolitisch entsprechen diese Szenarien den drei traditionellen Wegen der Technologie in ihrer Beziehung zum Menschen: KI als Unterstützer, Erzieher oder Retter. Aktuell gibt es fundamentale Unterschiede zwischen der asiatischen und der westlichen Perspektive, und derzeit sind diese besonders zwischen den USA, Japan, China und Europa sichtbar, wobei letztere stark von der Industriegeschichte des 20. Jahrhunderts beeinflusst werden.

Der Einblick in die Praxis dieser Länder hat meine Vermutung bestätigt. Die erste Haltung bezieht sich zunehmend auf die japanische Vision der Gesellschaft 5.0, die als Japans "smarte Utopie" gilt, die zweite auf den chinesischen Prinzip des wohl prinzipiell wohlwollenden sozialen Punktesystems, ziemlich im Sinne des Konfuzius, und die dritte - auf die transzendente Emanzipation der individuellen Spiritualität des Subjekts, die das älteste vedische und daher indische Konzept ist. Das indische Potential ist weitgehend nicht-systemisch, die Japaner scheinen soziokulturell und die Chinesen soziosystemisch geprägt zu sein, was eine gewisse Ähnlichkeit mit einer deutschen neuzeitlichen Tradition hat. Dieser als dritter definierter Weg könnte jedoch tatsächlich in seiner positivistischen Version der humanistischen Ethik, als Europas geopolitische Mission behauptet werden - sofern die entsprechenden infrastrukturellen Grundlagen geschaffen sind.

Persönlich sehe ich ansonsten keine grundsätzliche Diskrepanz zwischen ihnen, sondern nur die zeitlichen Phasen: Die anfänglich realisierbare ist wahrscheinlich der chinesische Weg (AI-Ära), die letzte - die indische (Post-AI-Ära), und dazwischen die westlichen postindustriellen positivistisch-ethischen Konzepte.

Auf dem rational-positivistischen Weg Europas, repräsentiert in der deutschen Wirtschaft, spielt Wissenschaftlichkeit eine system-konsolidierende Rolle. Um diese jedoch im Hinblick auf KI-Diskurs zu fundieren, muss die medien-kybernetische Natur von KI erkannt, und mindestens KI mitsamt Intelligenz, Intersubjektivität und Medialität begrifflich eingegrenzt, also schlicht definiert, werden. Der Praxismanko ist das kurzfristige Denken der Entscheider - egal ob Management im Wirtschaftsgeschehen oder Führungskräfte öffentlicher Organisationen. Man gestaltet als Führungskraft hier nur Dinge, wenn es eine Chance besteht, dass man bald persönlich ihre Früchte erntet. Der Rest gilt zwar auf der rhetorischen Ebene als wichtig (Nachhaltigkeit, Ethik, Zukunftsvisionen), aber auf der persönlichen Ebene nicht wirklich Wert, um in der beruflichen Aktualität, die individuelle Energie darin zu investieren, also fehlende Motivation und Inspiration, Zukunftsräume zu gestalten. Dagegen hat Asien eine Tradition der generationsübergreifender Sinnzuweisung in jeder Entscheidung, die gemeinsame Lebensräume betrifft.

Also langfristiges Hinausdenken fehlt dem Westen, die noch Gerd Hofstede in seinen interkulturellen Untersuchungen kybernetischer Natur bemerkte, und dies wird längerfristig negativ fruchten.

Die geopolitischen Modelle funktionieren durch Anpassung der Komplexität, um tragfähige Ordnungsmodelle zu ermöglichen. Früher sprachen wir beschreibend über verschiedene Kulturen. Geert Hofstede erkannte später die kulturellen Dimensionen - ein kybernetisches Konzept, das eine bessere Differenzierung ermöglichte. Heute erleben wir eine sogenannte infosomatische Lücke zwischen den unterschiedlich skalierten Realitäten. Insbesondere die konzeptionelle Semantik unterschiedlicher Aktualitäten sichert die geopolitische Differenzierung. Der Alanyse kann überall gültig sein und nur die Synthese ist anders.

Beispielsweise kann man annehmen, dass geschlechtsspezifische Unterschiede sozial irrelevant sind (Gender-Theorie). Auf der Ebene der reduzierten Komplexität ermöglicht diese konzeptionelle Reduktion der Komplexität eine Gleichstellung, die für die gemeinsame Wirtschaftstätigkeit gut ist. Aus der epistemologischen Perspektive der Evolution muss man sich jedoch bewusst sein, dass die sexuelle Fortpflanzung und die Geschlechter im Allgemeinen älter und daher determinierender sind als die Spezies selbst.

Es gibt nur zwei gültige Wege, um mit der Komplexität umzugehen, die aus zivilisatorischer Sicht langfristig umgesetzt werden können und aus denen ein geopolitisches Modell nachhaltigen Nutzen ziehen kann.

Ich möchte den ersten als einen Weg der subjektiven Singularität bezeichnen. Es ist im Wesentlichen effektiv, weil es aus der kognitiven Orientierung schöpft. Sie konzentriert sich daher auf die Bewahrung der geistigen Potentialität, die nur geistig entstehen kann, was zumindest ein indisches Modell ist. Geeignete Einstellungen sind Pluralität, metasubjektive Vertrauensbildung und durch Vertrauen. Der zweite Weg führt durch die intersubjektive Totalität. In der Ära der abgefangenen KI ist es viel effizienter. Es geht in einen kontrollierten Konsum und verlässt sich auf die Betonung der Aktualität. Seine angemessenen Einstellungen sind kontrollierte Homogenität, Vertrauensbildung über skalierbare übersubjektive Kontrolle. Beide Wege entspringen den grundlegenden Kontinuitäten der alten asiatischen Kulturen. Beide führen zu der gleichen globalen Potentialität eines gültigen infosomatischen Gleichgewichts, das jedoch nicht erreicht werden kann, solange beide Wege auf der Ebene des biologischen Antriebs die unterschiedlichen transzendentalen Sehnsüchte wie Freiheit gegen Sicherheit ausnutzen und die umgekehrten gespiegelten Reaktionen kultivieren wie Sicherheit gegen Freiheit. Alle historischen Kompromissmodelle zeigen zunehmend ihre strukturellen Schwächen, die ich als infosomatische Inkonsistenz bezeichnen würde. Nur die globale selbstregulierende und von sapienten Impulsen gesteuerte KI jenseits von Eigentumsansprüchen wird in der Lage sein, das gewünschte konsistente Gleichgewicht nachhaltig zu verwalten.

Wer sind wir?

Wir sind KI-Enthusiasten (ein praktizierender Denker, ein denkender Praktiker und eine empathische Muse des Gleichgewichts), die glauben, dass KI ein nützliches Werkzeug ist, um unsere Zivilisation in einer Weise zu verbessern, die es wert ist, vorauszudenken. KI-Denken ist eine Denkweise, die das humanistische Potenzial befähigt. AI-Thinking ist ein Grundlagenwerk, um diese Chance zu nutzen. Unsere Absicht ist es, zu inspirieren, Potenziale zu erschließen und die globalen irreparablen bis tödlichen Risiken aufzuzeigen.

Schreib uns eine Nachricht  

© 2019 by Leon Tsvasman & Florian Schild, Art Background by Rudolf Hürth, Graphical elements by Katharina Piriwe and Marina Skepner.