Wissen und Wirken
Aus Wiki1
Der Wirkungsbereich eines Lebewesens ist in der Regel kleiner, als der Bereich den das Lebewesen mit Hilfe seiner Sinnessorgane und seiner neuronalen Fähigkeiten erfassen kann. Der Wissensraum ist größer als der physikalische Wirkungsraum.
Beim Menschen driften dagegen die physischen und die kognitiven Fähigkeiten immer weiter zugunsten des Physischen auseinander. Mit Hilfe von komplexen Maschinensystemen können wir immer mehr Wirkung entfalten, sind aber immer weniger in der Lage, deren Konsequenzen in der notwendigen Genauigkeit und räumlich-zeitlichen Reichweite zu erfassen.
Es entsteht ein "Knowledge-Gap" - eine Wissenslücke zwischen notwendigem Wissen, um die Konsequenzen des eigenen Handelns erkennen zu können und dem tatsächlich vorhandenen Wissen
Günther Anders spricht hier vom "promethischen Gefälle".
Beispiele:
- atomares Abschreckungssystem
- die industrielle Vernichtung von Millionen Menschen im 3. Reich
- Klimawandel
- globale Ökonomie
- moderne Kriege
- globale Entwicklungen
- ein kleines Virus
Besonders deutlich manifestiert sich dies in unserer Entscheidungselite aus Politik, Wirtschaft, Wissenschaft und Kultur. Keiner dieser High-Potentials verfügt auch nur annähernd über das notwendige Wissen und die notwendigen Fähigkeiten, seine Entscheidungen in all ihren Facetten bewerten und begründen zu können. Dem entsprechend ist es lächerlich zu behaupten, diese Männer (und wenigen Frauen) trügen für irgend etwas Verantwortung - fehlt ihnen doch jeglicher Überblick über ihren Verantwortungsbereich. Deshalb reden sie - und lassen andere machen!
Bezogen auf ihre Wirkungsmacht sind sie unsagbar dumm - vergleichbar einer einzelnen Ameise, die Nichts über die komplexe Lebensgemeinschaft weiß, deren Teil sie ist. Trotzdem tun wir so, als wären all die wunderbaren Entwicklungen, der technische Fortschritt und die paradiesischen Lebensbedingungen in den Industrieländern das Ergebnis von gezieltem Handeln und rationalen Entscheidungen einzelner hochqualifizierter Supermänner und -frauen.
Das Schlechte in der Welt ist dagegen das Ergebnis von Chaos, Zufall, Schicksal und den "Anderen".
Das alles Schlechte nur eine andere Wirkung der gleichen Ursache sein könnte, wird ausgeblendet. Wir sind die Guten!
Was denken kluge Menschen
Eine Frage an Claude
Erörtere die folgenden Gedanken und ordne sie wissenschafts- und technologiephilosophisch ein: durch den technisch und wissenschaftlichen Fortschritt verfügt die Menschheit über mächtige Werkzeuge und Hilfsmittel mit enormer physischer Reichweite. Die Nutzung dieser Werkzeuge liegt jedoch überwiegend in den Händen kleiner Gruppen oder einzelnen Individuen, deren kognitive Fähigkeiten bei weitem nicht den zeitlich/räumlichen Möglichkeitsraum dieser Werkzeuge erfassen. So kommt es zu einem Knowledge-Gap zwischen physischer Wirkungsmacht und der Fähigkeit die Konsequenzen der Wirkungen zu erfassen und zu berücksichtigen.
Die Antwort der Wissensmaschine
Macht ohne Maß: Der epistemische Riss zwischen technischer Potenz und kognitiver Reichweite
Der Grundgedanke
Der beschriebene Gedanke lässt sich präzise als asymmetrisches Verhältnis zwischen instrumenteller Reichweite und epistemischer Kapazität formulieren: Menschliche Akteure besitzen Werkzeuge, deren Wirkungsraum – räumlich, zeitlich, systemisch – die kognitive Fassungskraft derjenigen, die sie bedienen, strukturell übersteigt. Es handelt sich nicht um ein zufälliges Defizit, das durch bessere Ausbildung behebbar wäre, sondern um eine fundamentale Asymmetrie.
Wissenschafts- und technikphilosophische Einordnung
1. Hans Jonas und das Prinzip Verantwortung
Jonas' Ethik der Technologie (1979) ist die direkteste Entsprechung. Er diagnostiziert exakt diese Lücke: Die moderne Technik hat eine neue Dimension des menschlichen Handelns eröffnet – irreversibel, global, generationenübergreifend – während die moralische und kognitive Urteilskraft im Nahbereich verhaftet bleibt. Seine „Heuristik der Furcht" ist ein Versuch, diesen Gap durch eine Ethik der Vorsicht zu überbrücken: Da wir die Konsequenzen nicht erfassen können, muss das Nicht-Wissen selbst handlungsleitend werden.
Jonas' Kernproblem bleibt aber ungelöst: Wie soll Vorsicht institutionalisiert werden, wenn die Entscheidungsmacht bei denen liegt, die am wenigsten Anlass haben, inne zu halten?
2. Günther Anders: Die Antiquiertheit des Menschen
Anders formuliert den Gedanken radikaler als anthropologische Scham: Der Mensch ist beschämt von dem, was er produziert hat – nicht weil er versagt hat, sondern weil seine Produkte ihn überbieten. Er nennt dies das Prometheische Gefälle: Die Kapazität zu produzieren überholt die Kapazität zu verantworten. Werkzeuge werden zu „Supersubjekten", deren Logik die Handlungen ihrer Nutzer lenkt, anstatt umgekehrt. Der Operator einer Atomwaffe oder eines algorithmischen Handelssystems versteht nicht, was er tut – strukturell, nicht individuell.
3. Don Ihde und die Postphänomenologie der Technik
Ihde analysiert, wie Werkzeuge die Wahrnehmung des Nutzers formen und zugleich bestimmte Aspekte der Realität ausblenden. Jedes Instrument vergrößert bestimmte Wirklichkeitsausschnitte und macht andere unsichtbar. Die räumlich-zeitliche Wirkung einer Handlung wird durch das Medium Technologie aus dem unmittelbaren Erleben herausgefiltert. Der Drohnenoperator in Nevada, der eine Infrastruktur in einem anderen Kontinent zerstört, illustriert dieses Phänomen: Die physische Reichweite ist enorm, die phänomenale Erfahrung der Konsequenzen nahezu null.
4. Langdon Winner: Haben Artefakte eine Politik?
Winner stellt die wichtige Frage, ob technische Systeme nicht schon in ihrer Struktur Machtasymmetrien einschreiben. Der Knowledge-Gap ist demnach kein Unfall, sondern oft ein Feature: Komplexe Systeme – Finanzderivate, Waffensysteme, Plattformalgorithmen – werden so gebaut, dass ihre Funktionsweise für Außenstehende (und selbst für viele Insider) undurchschaubar bleibt. Dies konsolidiert Kontrolle bei kleinen Gruppen.
5. Bounded Rationality und Komplexität (Simon, Kahneman)
Aus kognitionswissenschaftlicher Perspektive ist die Lücke strukturell: Herbert Simons Konzept der bounded rationality zeigt, dass menschliche Entscheidungsträger nicht über die Rechenkapazität verfügen, komplexe Kausalnetze vollständig zu erfassen. Sie operieren mit vereinfachenden Heuristiken. Wenn die Werkzeuge, die sie bedienen, jedoch nichtlineare, globale Rückkopplungssysteme erzeugen – Klimatechnik, KI-Systeme, Finanzmärkte –, dann ist die Heuristik systematisch unterdimensioniert. Kahnemans System-1-Denken (intuitiv, schnell) regiert Entscheidungen, deren Konsequenzen System-2-Denken (langsam, analytisch) in einem Ausmaß erfordern würden, das kein Individuum leisten kann.
Strukturelle Dimensionen des Knowledge-Gap
Der beschriebene Gap ist nicht eindimensional. Er zerfällt in mindestens vier Teilasymmetrien:
| Dimension | Werkzeugkapazität | Kognitive/institutionelle Kapazität |
|---|---|---|
| Zeitlich | Wirkungen über Generationen (Strahlung, CO₂, genetische Eingriffe) | Planung auf Quartalsbasis oder Wahlzyklen |
| Räumlich | Global, systemisch vernetzt | Lokal, national gefärbt |
| Kausal | Nichtlinear, rückgekoppelt | Linear, mechanistisch modelliert |
| Epistemisch | Emergente Systemeigenschaften | Expertenwissen in Silos isoliert |
Das Konzentrationsproblem
Der Gedanke enthält eine zweite, politisch brisante Dimension: die Konzentration der Verfügungsgewalt. Der Gap wäre weniger gefährlich, wenn er symmetrisch verteilt wäre – wenn also viele Menschen mit begrenzter Fähigkeit viele kleine Entscheidungen träfen. Das Gegenteil ist der Fall: wenige Akteure (Konzernführungen, Staatsapparate, militärische Kommandostrukturen) treffen Entscheidungen mit globalem Wirkungsradius.
Dies erzeugt eine doppelte Pathologie:
- Epistemisch: Die Entscheidenden können die Konsequenzen nicht erfassen
- Demokratisch: Die Betroffenen können nicht mitwirken
Jürgen Habermas' Konzept der Kolonisierung der Lebenswelt durch Systemrationalität greift hier: Technische und ökonomische Systeme folgen ihrer eigenen Rationalität und entziehen sich dem kommunikativen Diskurs der Betroffenen.
Technologische Gegenstrategien und ihre Grenzen
Die naheliegende Antwort lautet: bessere Werkzeuge zur Folgenabschätzung – Simulation, KI, systemische Modellierung. Doch diese Strategie ist selbst Teil des Problems. Sie setzt voraus, dass:
- Modelle die Realität hinreichend abbilden (sie tun es nicht vollständig)
- Die Ergebnisse von Entscheidungsträgern verstanden werden (fraglich)
- Kein neuer Gap zwischen Modell-Komplexität und menschlicher Urteilsfähigkeit entsteht (der entsteht zwingend)
Es ist ein rekursives Dilemma: Der Versuch, den Knowledge-Gap mit Technologie zu schließen, erzeugt neue technische Ebenen, die ihrerseits neue Gaps produzieren.
Fazit: Ein konstitutives Merkmal moderner Technik
Der beschriebene Knowledge-Gap ist kein behebbarer Mangel, sondern ein konstitutives Merkmal der modernen technologischen Kondition. Er entsteht notwendig dort, wo Werkzeuge nicht mehr Verlängerungen des Körpers sind (Hammer, Hebel), sondern autonome Systemdynamiken entfalten, die räumlich, zeitlich und kausal über jede individuelle Fassungskraft hinausgehen.
Die philosophische Konsequenz ist unbequem: Verantwortungsethik, die auf dem Modell des überschaubaren Handlungsraums basiert (Aristoteles' phronesis, Kants kategorischer Imperativ), greift strukturell zu kurz. Was gebraucht würde, ist eine Ethik und Institutionenarchitektur, die Verantwortung kollektiviert, zeitlich dehnt und explizit mit dem Nicht-Wissen als zentraler Handlungsbedingung rechnet – Jonas' Ansatz bleibt hier der radikalste, aber auch der am wenigsten operationalisierte Versuch.
