Die Kluft zwischen den heutigen Systemen und den Science-Fiction-Systemen, die die populäre Vorstellungswelt beherrschen, ist immer noch riesig, obwohl viele Leute, sowohl Laien als auch Experten, es schaffen, sie zu unterschätzen. Betrachten wir IBMs Watson, der vorläufig als würdiger Orientierungspunkt für unsere Vorstellungskraft dienen kann.
Es ist das Ergebnis eines sehr umfangreichen R&D-Prozesses, der sich über viele Menschenjahrhunderte intelligenter Planung erstreckt, und es verbraucht Tausende Male mehr Energie als ein menschliches Gehirn. Sein Sieg in Jeopardy! war ein echter Triumph, der durch die formelhaften Beschränkungen der Jeopardy!-Regeln ermöglicht wurde, aber um konkurrenzfähig zu sein, mussten sogar diese Regeln überarbeitet werden (einer dieser Kompromisse: man gibt ein wenig Vielseitigkeit und Menschlichkeit auf und erhält dafür eine publikumswirksame Show).
Watson ist keine gute Gesellschaft, trotz der irreführenden Werbung von IBM, die eine allgemeine Konversationsfähigkeit suggeriert, und Watson in einen plausiblen multidimensionalen Agenten zu verwandeln, wäre so, als würde man einen Taschenrechner in Watson verwandeln. Watson könnte eine nützliche Kernfähigkeit für einen solchen Agenten sein, aber eher wie ein Kleinhirn oder eine Amygdala als ein Verstand – bestenfalls ein spezielles Subsystem, das eine wichtige unterstützende Rolle spielen könnte, aber nicht im Entferntesten der Aufgabe gewachsen ist, Ziele und Pläne zu formulieren und auf seinen Konversationserfahrungen aufbauend zu denken.
Warum sollten wir aus Watson einen denkenden, kreativen Agenten machen? Vielleicht hat uns Turings brillante Idee eines operationellen Tests – der berühmte Turing-Test – in eine Falle gelockt: das Bestreben, zumindest die Illusion eines realen Menschen hinter dem Bildschirm zu schaffen und das „unheimliche Tal“ zu überbrücken.“
Die Gefahr besteht darin, dass seit Turings Herausforderung – die ja eine Herausforderung war, die Richter zu täuschen – die Entwickler von künstlichen Intelligenzen versucht haben, das Tal mit niedlichen humanoiden Effekten zu überspielen, mit Disneyfizierungseffekten, die die Uneingeweihten verzaubern und entwaffnen sollen. Joseph Weizenbaums ELIZA, ein sehr früher Chatbot, war das erste Beispiel für solche oberflächlichen Illusionen, und es war seine Bestürzung über die Leichtigkeit, mit der sein lächerlich einfaches und oberflächliches Programm Menschen vorgaukeln konnte, dass sie ein ernsthaftes Gespräch von Herz zu Herz führten, die ihn auf seine Mission schickte.
Er hatte Recht, besorgt zu sein. Wenn wir eines aus den beschränkten Turing-Test-Wettbewerben für den jährlichen Loebner-Preis gelernt haben, dann ist es, dass selbst sehr intelligente Menschen, die nicht auf die Möglichkeiten und Abkürzungen der Computerprogrammierung eingestellt sind, leicht auf einfache Tricks hereinfallen.
Die Haltung der Menschen in der KI gegenüber diesen Methoden der Verschleierung an der „Benutzerschnittstelle“ reichte von Verachtung bis hin zum Jubel, wobei allgemein anerkannt wird, dass die Tricks nicht tiefgründig sind, aber wirkungsvoll sein können. Eine Änderung der Einstellung, die sehr zu begrüßen wäre, wäre die ehrliche Anerkennung, dass humanoide Verschönerungen falsche Werbung sind – etwas, das man verurteilen und nicht beklatschen sollte.
Wie könnte das erreicht werden? Sobald wir erkennen, dass Menschen beginnen, Entscheidungen über Leben und Tod weitgehend auf der Grundlage von „Ratschlägen“ von KI-Systemen zu treffen, deren innere Abläufe in der Praxis unergründlich sind, sehen wir einen guten Grund, warum diejenigen, die Menschen in irgendeiner Weise dazu ermutigen, mehr Vertrauen in diese Systeme zu setzen, als sie rechtfertigen, moralisch und rechtlich zur Verantwortung gezogen werden sollten.
KI-Systeme sind sehr mächtige Werkzeuge – so mächtig, dass selbst Experten guten Grund haben, ihrem eigenen Urteilsvermögen nicht mehr zu trauen als den „Urteilen“, die ihre Werkzeuge liefern. Aber wenn die Nutzer dieser Werkzeuge finanziell oder anderweitig davon profitieren wollen, dass sie durch die Terra Incognita getrieben werden, müssen sie sicherstellen, dass sie wissen, wie sie dies verantwortungsvoll, mit maximaler Kontrolle und Rechtfertigung tun können.
Wie bei Apothekern, Kranführern und anderen Fachleuten, deren Fehler und Fehleinschätzungen schwerwiegende Folgen haben können, könnte auch bei den Betreibern dieser Systeme eine Lizenzierung und Haftungsübernahme dazu führen, dass die Entwickler von KI-Systemen auf Druck von Versicherungsgesellschaften und anderen Versicherern verpflichtet werden, außerordentliche Anstrengungen zu unternehmen, um Schwachstellen und Lücken in ihren Produkten zu suchen und aufzudecken, und diejenigen, die zu deren Bedienung berechtigt sind, zu schulen, damit sie darauf achten.
Man kann sich eine Art umgekehrten Turing-Test vorstellen, bei dem der Richter auf dem Prüfstand steht; solange er oder sie die Schwächen, die überschrittenen Grenzen, die Lücken in einem System nicht erkennen kann, wird keine Betriebserlaubnis erteilt. Das mentale Training, das erforderlich ist, um die Zulassung als Richter zu erlangen, wird anspruchsvoll sein. Der Drang, einem Objekt menschenähnliche Denkfähigkeiten zuzuschreiben, unsere normale Taktik, wenn wir einem scheinbar intelligenten Wesen begegnen, ist fast übermächtig.
In der Tat ist die Fähigkeit, der Verlockung zu widerstehen, eine scheinbare Person als Person zu behandeln, ein hässliches Talent, das nach Rassismus oder Speziesismus stinkt. Viele Menschen würden die Kultivierung eines solch rücksichtslos skeptischen Ansatzes als moralisch verwerflich empfinden, und wir können davon ausgehen, dass selbst die erfahrensten Systembenutzer gelegentlich der Versuchung erliegen würden, sich mit ihren Werkzeugen „anzufreunden“, und sei es nur, um ihr Unbehagen bei der Ausführung ihrer Aufgaben zu lindern.
Auch wenn die KI-Entwickler noch so sorgfältig darauf achten, dass ihre Produkte keine „menschlichen“ Züge tragen, ist mit einer Flut von Abkürzungen, Umgehungen und tolerierten Verzerrungen des tatsächlichen „Verständnisses“ sowohl der Systeme als auch ihrer Benutzer zu rechnen. Die komisch langen Listen bekannter Nebenwirkungen neuer Medikamente, für die im Fernsehen geworben wird, werden von den obligatorischen Enthüllungen über die Art von Fragen, die von bestimmten Systemen nicht verantwortungsvoll beantwortet werden können, in den Schatten gestellt werden, wobei Hersteller, die Fehler in ihren Produkten „übersehen“, hart bestraft werden. (Es ist weithin bekannt, dass ein beträchtlicher Teil der wachsenden wirtschaftlichen Ungleichheit in der heutigen Welt auf den von digitalen Unternehmern angehäuften Reichtum zurückzuführen ist; wir sollten Gesetze erlassen, die ihre tiefen Taschen zum Wohle der Allgemeinheit auf ein Treuhandkonto legen)