Stuart Russell: Human Compatible – Ein paar Anmerkungen zu einem „Bestseller“ (2019)

Über das Kontrollproblem der Künstlichen Intelligenz (KI) und andere Dauerbrenner

 

2019 erschien der vielgelobte Bestseller von Stuart Russell «Human Compatible. Artificial Intelligence and the Problem of Control” (es existiert bereits ein wikipedia Artikel darüber). Russell ist ein britischer Dozent für Informatik in Berkeley (CA) und seit Jahren einer der führenden Experten auf dem Gebiet der Künstlichen Intelligenz (KI). Von ihm stammt auch eines der Grundlagenwerke[1] zum Fach bereits in der dritten Auflage.

Um es vorwegzunehmen, das Werk hatte ein sehr gutes Medienecho. Es ist sehr breit angelegt als umfassendes Kompendium über den Status, die Konsequenzen und Risiken von Künstlicher Intelligenz heute und morgen. Ich denke, es stellt die richtigen Fragen offen und glaubwürdig, auch solche die bisher in der KI Forschung tabuisiert wurden. Die Lektüre lohnt sich auf jeden Fall. Es werden praktisch alle erdenklichen Fragestellungen von AI in einem aktuellen Kontext erörtert aus der Perspektive eines Naturwissenschaftlers.

Die Times schrieb zum Beispiel:  „This is not quite the popular book that AI urgently needs. Its technical parts are too difficult, its philosophical ones too easy. But it is fascinating, and significant.»[2]

Mein Eindruck geht auch in diese Richtung und ich möchte hier mit ein paar kritischen Punkten anknüpfen: Trotz den allgemein verdienstvollen Beiträgen zu einer Ethik im Umgang mit KI (“beneficial” AI controls) gibt es ein paar Statements die stutzig machen.

Es handelt ich in der Regel um die üblichen «issues» aus der Zunft der «Techies» oder KI-Forscher.

  1. Der “knowledge” Begriff ist unpräzise und nimmt gewisse Erkenntnisse der Forschung nicht auf

Es wird immer noch danach gefragt wie denn «Wissen» in Computern gespeichert werden könne (p.50), obwohl wir spätestens seit anfangs der Nuller Jahre wissen, dass das Paradigma von Nonaka/Takeuchi[3] implizites Wissen einfach explizit zu machen nicht funktioniert hat und zahlreiche Wissensmanagement Projekte hat scheitern lassen Der Philosoph Michael Polanyi hat schon früher (1958) klar dargelegt, weshalb ein rein explizites Wissen undenkbar ist. (vgl. Zitat)

 

 

 

 

 

 

 

 

Polanyi (1958), Knowing and Being (s. auch: https://en.wikipedia.org/wiki/Tacit_knowledge)

 

Bei explizitem Wissen handelt es sich aus wissenschaftlicher Sicht um reine Information in codierter und verarbeitbarer Form. Wie diese verstanden wird und was damit gemacht wird, bleibt den Akteuren in einem bestimmten Kontext überlassen (turning information into actionable knowledge or insight).

Russell erkennt durchaus die Problematiken des Wissensmanagements in diversen Dimensionen[4] und verweist auf gewisse anstehende Durchbrüche, zB auf dem Gebiet der Spracherkennung, Informationsextraktion und automatischen Übersetzung. Allerdings finden dann gerade die neueren Erkenntnisse auf dem Gebiete der semantischen Technologien (zB die Bedeutung von «knowledge graphs» oder Ontologien)[5] überhaupt keine Erwähnung, was doch etwas erstaunt. Stattdessen kommt der lapidare Satz: «One way to summarize the difficulties is to say that reading requires knowledge and knowledge (largely) comes from reading.“(p.81)

Ich denke, dass ein Sozialwissenschaftler einen solchen Satz nie wagen würde, weil er etwas Selbstverständliches voraussetzt. Leider gehört es aber auch zu den Paradoxien des Zeitgeists, dass immer mehr Texte produziert werden aber immer weniger gelesen und verstanden wird (Stichwort: Formalisierung der Einzelwissenschaften). Dienste mit smart Tools können dies zwar teilweise übernehmen, aber da stehen immer bestimmte Zwecke dahinter wo der Mensch dann den Unterschied auf der Handlungsebene macht.

Nun, es ist auch zweifelhaft, ob das NELL-Projekt der Carnegie Mellon University (Never-ending language-learning) gegenwärtig das anspruchsvollste «language-bootstrapping» Projekt weltweit ist, wie Russell schreibt (p.81)? Aus meiner Sicht sind zB in Bezug auf die dynamische Wissensrepräsentation von Inhalt und Kontext die Bibliothekswissenschaften mindestens so weit wie manche analytische Kapazitäten in der Privatwirtschaft[6], eben dank semantischer Technologien (linked open data, Einbindung von Ontologien, Taxonomien, Spezialvokabularen und -terminologien, text mining etc.).

 

2. Der politisch-philosophische Teil ist der schwächste

Wie es der Journalist der Times bereits angetönt hat ist der Teil mit den durchaus berechtigten Überlegungen zu politischen und philosophischen Aspekten der AI Forschung am schwächsten, weil er meist objektiv nachvollziehbare Vorschläge macht, aber sich dann in Dilemmata und Spekulationen verstrickt, die möglicherweise, aber sehr vage mit AI gelöst werden können. Viele Widersprüche erwachsen wohl auch aus den Tatsachen der Schule der britischen «Utilitaristen» (J.Bentham, J.S, Mill) die sich die AI Community offenbar zur Weltanschauung gemacht hat. Wie wir jedoch spätestens seit Wittgenstein wissen, ist den Weltproblemen allerdings nur beschränkt mit instrumenteller Vernunft und reinen Nutzenkalkülen beizukommen.

Was sind individuell und kollektiv/sozial «vernünftige» oder «nutzenstiftende» Bedürfnisse und Ziele von «beneficial machines» oder andernorts auch «altruistic machines», wenn er als fundamentale These voraussetzt «Machines are beneficial to the extent that their actions can be expected to achieve our objectives»(p.11) . Was ist eine nachweisbar nutzenstiftende AI (chapter 7: «provably beneficial AI»? Das Forscherherz macht zwar ein paar gut gemeinte Anmerkungen um gewisse Missverständnisse in Bezug auf Vorgaben von «menschlichen Werten» von vornherein zu vermeiden oder auszuschliessen (Not what I mean, p.177), kommt aber dennoch unweigerlich ins Fahrwasser von moralischen Dilemmatas und Komplexitätsfallen, wenn er versucht Bedürfnisse logisch und technisch zu trennen von «Werten» («desirability of anything from pizza to paradise»(p.178); erstere Entscheide (choices) könnten prinzipiell klar durch Maschinen urteilsmässig gesteuert werden. Er merkt dann aber rasch wieder, dass dies zu schwierig und potentiell katastrophal werden könnte und beschränkt sich auf die Feststellung, dass Maschinen einfach besser lernen sollten für Individuen prinzipielle Vorhersagen zu machen (section «The third principle: Learning to predict human preferences»), obwohl man ja wisse, dass solche Vorhersagen «highly uncertain and incomplete» sind.  Solche Ambivalenzen ziehen sich durch mehrere Abschnitte; andererseits argumentiert er sehr hellsichtig  gegen bestimmte Tabuisierungen innerhalb der AI Community  (Whataboutery, p.156, «… if the risks are not successfully mitigated, there will be no benefits.») oder im Abschnitt «Humble machines» sinniert er über Maschinen, die eigentlich auch Demut einbauen sollten und «Unsicherheit» (Ungewissheit) als Ziel definieren sollten. Wie konnte es sein – klagt er offensichtlich, dass die AI Community und andere verwandte Disziplinen (Controls & Operations)  jahrelang bloss über Nutzenmaximierung, Kostenminimierung, Zielerreichung etc. forschte, ohne den blinden Fleck der «Unsicherheit betrieblicher Entscheidfindung» zu erkennen und entsprechend zu bearbeiten (p.176)?

Man muss schliesslich Russell zugute halten, dass er gewisse spekulative Aspekte in seiner Argumentation absolut anerkennt und selbstkritisch zu bedenken gibt, d.h. er beweist die Fähigkeit, die noch keine Maschine besitzt, die Fähigkeit sich selbst zu widersprechen (s. unten Fazit); er wägt ab zwischen Gründen für Optimismus und Gründen die zur Vorsicht gemahnen. Im chapter 9: «Complications: Us»,  räumt er auch ein, inwiefern der Mensch selbst und sein Verhalten ein analoges Hindernis für Fortschritte in der AI darstellt; in einer Art KI-kompatiblen Soziologie und Psychologie (Dummheit, Neid und andere Untugenden) erörtert Russell sämtliche Aspekte menschlichen Verhaltens, die dysfunktional zu KI-Zielen sein können; dies geht bis zur Frage ob menschliche Wesen überhaupt wissen was sie wollen.

Betreffend „uncertainty“ und “predictability” bleibt er sehr realistisch: “Very little of our knowledge is absolutely certain“ , incl. content and context shortcomings (p.68) for AI progress in the near future. … faster machines just give you the wrong answer more quickly.

“Happiness should be an engineering discipline”(p.123)

Sympathisch bleibt seine Einschätzung zum sozio-ökonomischen Problem der Beschäftigung. Diese Aspekte sollten nicht allein den Ökonomen überlassen werden (wie wahr), dazu sei das Thema zu wichtig (p.113). «The art of life itself» sollte bildungsmässig gefördert werden (p.122): er befürwortet prinzipiell das bedingungslose Grundeinkommen (universal basic income, UBI), sieht aber nach Keynes den psychologischen Unterschied zwischen «those who strive and those who just enjoy», also zwischen den «Angestrengten» die den Wert von Arbeit erkennen und sich selbst verwirklichen können (truly human) und den heiteren und sorglosen Seelen (delightful), die bloss «profitieren». Die Wahrheit liege wohl irgendwo dazwischen. Sog. Lebensarchitekten könnten Individuen unterstützen bei der Bildung von «persönlicher Resilienz» und «Entwicklung von natürlicher Neugierde». So weit so gut. Davon sind wir noch sehr weit entfernt.

Mein Einwände hier behandeln ggf Nebenaspekte was die Verdienste des Werks auf dem Gebiet der Kontrollprobleme (zB Regulierung von AI oder Grenzen der Superintelligenz) keineswegs schmälert. Russell geht sehr verantwortungsbewusst mit den entsprechenden Problemen und Herausforderungen um („his message is not one of gloom and doom but of explaining the nature of the dangers and difficulties, before setting out a plan for how we can rise to these challenges“. Toby Ord.)

Mein Fazit zum gegenwärtigen Zustand der KI folgt eher den Aussagen eines kritischen Beobachters von KI: Reinhard Sprenger («der Grossmeister des Managements»)[7]. Er zieht übrigens den Begriff «Maschinelle Intelligenz» (MI) dem Begriff der Künstlichen Intelligenz vor, was ich sehr befürworte.

Die KI habe ein fundamentales Problem: sie mache keine Fehler[8].

Sprenger: die Fehleranfälligkeit sei ein Vorteil der menschlichen Intelligenz; damit hätte die Spezies Jahrmillionen überlebt. «Unser Denken und Handeln folgt keinem Algorithmus, sondern passt sich an, ist lernfähig, vorausschauend, macht dabei immer wieder kleine Fehler, die wir korrigieren. (…) Maschinelle Intelligenz kann also intelligent sein im Sinne extrem schneller Datenverarbeitung. Aber sie wird nie intelligent im menschlichen Sinne sein.[9] Es war zu keiner Zeit sonderlich intelligent, ein Wettrennen mit Maschinen zu laufen, das man nicht gewinnen kann. Maschinen sind immer schneller. Wir verlieren da alle Spiele – und sind dadurch die Gewinner. In welchen Spielen? Da wo es um Gefühl und Intuition geht, um praktische Tugenden wie Weisheit und Klugheit. Menschliche Intelligenz qualifiziert für das Kreative, das Komplexe, …(…) Eine schier endlose Reihung: Autonomie, Kontextsensibilität, Analogiebildung, Gewissen, (…) – alles nicht programmierbar. Vor allem aber der Widerspruch! Die Fähigkeit sich selbst zu widersprechen, sie wird wohl immer dem Menschen vorbehalten bleiben. Das ist sein höchster Adel.»

 

[1] Stuart Russell, Peter Norvig (2010): Artificial Intelligence: A Modern Approach. 3. Auflage

[2] https://www.thetimes.co.uk/magazine/culture/human-compatible-by-stuart-russell-review-an-ai-experts-chilling-warning-k2p0j3hw6

[3] Nonaka, I.; Takeuchi, H. (1995), The knowledge creating company: how Japanese companies create the dynamics of innovation

[4] «Intelligence without knowledge is like an engine without fuel”. (p.79)

[5] S. zB.: The fusion of cognitive systems and semantic technologies have made substantial progress (IDC)

[6] Der CEO eines führenden Anbieters von semantischer Technologie sagt es so: “Nine out of 10 of the “quite huge” companies already use knowledge graphs for different purposes, but in many cases, it’s about knowledge management, it’s about data integration.”

ttps://www.kmworld.com/Articles/Editorial/Features/The-state-of-knowledge-graph-adoption-and-AI-(Video)-129262.aspx)

[7] https://de.wikipedia.org/wiki/Reinhard_K._Sprenger

[8] Vgl. R. Sprenger: Viele fürchten wegen künstlicher Intelligenz überflüssig zu werden. Dabei hat KI ein fundamentales Problem: Sie macht keine Fehler, in: NZZ 26.1.2019; vgl. auch sein Werk «Radikal Digital. Weil der Mensch den Unterschied macht (2018): hier lässt er keine Zweifel an der Tatsache, dass alles digitalisiert wird, was digitalisiert werden kann. Darin liege auch wirtschaftliches Potential. Aber dies werde nicht so schnell gehen wie die meisten vermuten, die Veränderungen seien langfristig zu betrachten, Alarmismus sei fehl am Platz. Dabei gebe es eine alte Erkenntnis im Umgang mit dem Neuen: Wirtschaftshistorisch wurden die kurzfristigen Auswirkungen technologischer Umbrüche immer überschätzt, die langfristigen unterschätzt.

[9] Einige Forscher arbeiten zwar inzwischen auch schon an diesem Problem: wie entwickelt eine Maschine natürliche Neugier, ähnlich wie Kinder lernen (recursive self-improvement & reinforcement learning), zB Jürgen Schmidhuber vom Institut für KI in Lugano: http://people.idsia.ch/~juergen/interest.html

 

0 Kommentare

Einen Kommentar abschicken

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Ähnliche Beiträge

Der Angriff auf die GeBüV – Teil 2: Der Schutz von Buchhaltungsdaten im Schweizer Recht

Der Angriff auf die GeBüV – Teil 2: Der Schutz von Buchhaltungsdaten im Schweizer Recht

Die Initianten der GebüV-Motion hatten völlig verkannt, dass die geltenden Vorschriften zur Gewährleistung der Datenintegrität notwendig sind. Ausserdem basieren sie auf langjähriger Praxis der Revision und leidvollen Erfahrungen im Umgang mit Wirtschaftsbetrügern. In...

mehr lesen