Die Stunde der Trickster

Eduard Kaeser's picture

Die Stunde der Trickster

Von Eduard Kaeser, 09.07.2014

Kürzlich bestand ein Chatbot - also ein Dialogprogramm - namens „Eugene Goostman“ den berüchtigten Turing-Test.

„Er“ oder „es“ täuschte einem Drittel seiner Gesprächspartner vor, ein Mensch zu sein, nämlich ein ukrainischer Teenager mit der Vorliebe für Eminem und dürftigen Englischkenntnissen. Eugene steht in einer langen Reihe von Versuchen, Computer mit Intelligenz und sogar Persönlichkeit zu konstruieren. Dabei ist das eigentliche Problem gar nicht so sehr eines der Konstruktion, sondern vielmehr der Anerkennung von künstlichen System als „unseresgleichen“. Ein Faszinosum geht aus von ihnen: die Aura eines von uns geschaffenen Wesens, das Leben und Geist nachahmt; die Idee, jemand könnte darin „zu Hause“ sein. Wenn ja, was? Wer? -

Turing und die simulierte Frau

Um die Frage zu beantworten, ob eine menschenähnliche Intelligenz in einer Maschine residieren kann, ersann Alan Turing 1951 ein sogenanntes „Imitationsspiel“. Vorlage war ein bekanntes Gesellschaftsspiel, in dem ein Teilnehmer das Geschlecht zweier verborgener Gesprächspartner über einfache Fragen erraten muss. Da es sich um Menschen handelt, besteht der Reiz des Spiels darin, einander auszutricksen, den Fragesteller auf die falsche Fährte zu führen. Turing ersetzte einen menschlichen Partner durch einen künstlichen. Eine nicht unbedeutende Marginalie ist, dass es Turing im ursprünglichen Spiel darum ging, eine Frau zu simulieren. Sein Setting bestand aus einem Fragesteller, einer Frau und einem Computer, der eine Frau simuliert. Er schlug vor, eine Maschine darauf zu prüfen, ob sie in der Lage wäre, weibliche Sensibilität und Intelligenz vorzutäuschen. Das Szenario hat etwas Pikantes, wenn man sich daran erinnert, dass es von einem Logiker erdacht wurde, der seine Homosexualität – seine Weiblichkeit? – im England seiner Zeit verbergen, also eigentlich Männlichkeit simulieren musste. Er ging darob zugrunde.

Das unendliche Spiel

Über dieses – tragische – biographische Detail hinaus stellt uns der Turing-Test vor eine fundamentale Frage. Wir Menschen können fast alles simulieren: Liebe, Empathie, Angst, Krankheit, die Identität einer Frau oder eines ukrainischen Teenagers; warum also sollte dies nicht auch eine Maschine können? Der Turing-Test ist ein Spiel um Sein und Schein, ein unendlliches Spiel. Die Logik dahinter: Wenn die Maschine gemäss bestimmter Kriterien den Anschein erweckt, sie sei intelligent, dann ist sie intelligent. Nun ist das ein klassischer Fehlschluss, den gewisse Roboterbauer allerdings geradezu in ihr Herz geschlossen haben. Etwa David Levy, der im Besonderen für die Ausweitung der Sexzone auf künstliche Partner plädiert: „Wenn ein Roboter wie ein Tamagochi nach Aufmerksamkeit ‚schreit’, dann drückt er seine eigene Form von Emotion aus wie ein Baby, das nach seiner Mutter schreit.“

Die Sozialisierung der Maschine

Einmal abgesehen von der brüchigen Analogie bewegen wir uns hier nicht mehr auf dem Terrain der Computeringenieure, Softwaredesigner oder Kognitionswissenschafter. Es geht nicht um Bau und Funktionsweise von menschenähnlichen Artefakten, sondern quasi um ihre Sozialisierung. Man vergegenwärtige sich nur, dass uns Turings Problem allenthalben in Games und sozialen Netzwerken begegnet. Wir stossen hier Klick um Klick auf künstliche oder hybride Identitäten, auf weibliche Avatare oder Chatbots, die vorgeben, eine Frau zu sein. Und viele Robotiker drehen den Spiess um und fragen: Ist denn Intelligenz ein menschliches Monopol? Findet sie sich nicht auch im Tier-, ja, im Pflanzenreich, in unzähligen artspezifischen Varianten? Warum nicht auch im wachsenden neuen Reich künstlicher Spezies? Müssten wir dann Computern nicht auch eine gewisse persönliche Schutzwürdigkeit zugestehen?

Können Roboter leiden?

Der Philosoph Jeremy Bentham hatte im 19. Jahrhundert ein berühmt gewordenes Kriterium für die Schutzwürdigkeit von Tieren formuliert, das auch für Roboter relevant werden könnte: „Die Frage ist nicht: Können sie denken? Auch nicht: Können sie sprechen? Sondern: Können sie leiden?“ Nehmen wir einmal an, Neuro- und Computerwissenschafter – zum Beispiel die Leute vom Blue Brain Project - hätten nach dem aktuellsten Wissensstand der Neurobiolologie einen „schmerzfähigen“ Androiden gebaut, dessen Ausdrucks- und Vehaltensrepertoire Schmerzen simulieren. Hat er Schmerzen? Leidet er, wenn ich bestimmte Module entferne?  Wir sollten uns hier – zumindest für den Augenblick – von der Vorstellung lösen, ein denkendes und leidendes Wesen habe wie wir gebaut zu sein. Wir spielen vielmehr mit der Idee eines leidenden Wesens, dessen „Nervensystem“ aus Elektronik und Software besteht und nicht aus Neuronen und Hormonen. Die Science Fiction variiert diese Vorstellung schon längst in dramatischen Entlarvungs-Szenarien. Der Roboter Ash in „Alien“, wird am Ende in seine Bestandteile zerschlagen, aus ihm sickert hochkonzetrierte Säure als „Blut“, und er haucht seine „Seele“ in elektrischen Funkenentladungen und Rauchentwicklung aus.

Eine „gleichgültige“ Homo-Robo-Mischgesellschaft

Um zu ermessen, was hier auf dem Spiel steht, ist eine Unterscheidung nötig. Wenn wir den simulierenden Androiden entlarvt haben, dann ist die Illusion, die zerstört wird, eine andere als beim Menschen. Beim Menschen sagen wir „Was für ein Simulant“; beim Androiden dagegen „Was für ein trickreicher Mechanismus“. Mit andern Worten: Der Android hat nicht Schmerzen vorgetäuscht, sondern ein Personsein. Man stelle sich nun vor, wir quittierten die zwei Aussagen mit dem Zusatz: „Aber das ist im Grunde einerlei.“ Genau dies wäre das Szenario einer „gleichgültigen“ Gesellschaft, in welcher der Unterschied zwischen Schmerzen haben und Schmerzen simulieren immer hinfälliger wird. Das Gewicht, das gewisse Programmdesigner der Täuschung beimessen, gibt zur Vermutung Anlass: Bewegen wir uns auf eine solche Gesellschaft des Bluffs zu?

Unsere Anfälligkeit für Vortäuschungen von Intelligenz

Die einzig verlässliche Lektion von Software-Agenten wie Eugene Goostman ist unsere Anfälligkeit für Vortäuschungen von Intelligenz. Als Haupttrick solcher Programme erweist sich das Konfabulieren, also Ausflüchte und Irreführungen. Das kann sogar zu humorvollen Effekten führen. Hier ein kleines Beispiel.

Fragesteller: Du erinnerst mich an Sarah Palin.

Eugene: Täusche ich mich, aber ist Sarah nicht ein Roboter, wie viele andere „Leute“ auch? Wir sollten die Pläne für solche schwatzenden Abfallkübel endlich entsorgen.[1]

Naive Fragensteller mögen den Witz dem Programm zuschreiben und genau mit dieser Neigung – dem anthropomorphen Fehlschluss - rechnen die Programmdesigner. Wie der Kognitionswissenschafter Gary Marcus schreibt, sind die Gewinner-Programme des Turing-Tests „fast von Natur aus hinterlistig“. Und ziemlich gnadenlos hat ein anderer Kognitionswissenschafter, Hector Levesque, den Turing-Test kommentiert: „Um ihn zu bestehen, muss ein Programm entweder ausweichend sein (sich vor der Frage drücken) oder eine Art von falscher Identität fabrizieren (darauf vorbereitet sein, überzeugend zu lügen) (..) Die Chatbots beruhen massiv auf Wortspielen, Witzen, Zitaten, emotionalen Ausbrüchen, Appellen an die Einhaltung der Vorgehensordnung usw. Also auf allem, so scheint es, ausser klaren und direkten Antworten!“ Gewiss, es gibt Fortschritte im Design von Gesprächsprogrammen. Eugene wirkt intelligenter als Weizenbaums Therapieprogramm Eliza aus den 1960er Jahren. Es gibt erweiterte, verfeinerte Fragestellungen. Aber damit sind die entscheidenden Fragen noch gar nicht erst gestellt.

Wenn die Roboter eingebürgert sind...

Sie kommen dann auf uns zu, wenn man Roboter oder Software-Agenten nach bestandenem Test „eingebürgert“ haben wird. Wie stellen wir uns zu ihnen? Wie zu gewöhnlichen Personen? Zu Personoiden? Turing ging es um eine flexible, intelligente Alltagskompetenz, wie sie Menschen in unzähligen Situationen ihres täglichen Lebens demonstrieren, vom Schuhebinden über das Einschalten der Kaffeemaschine bis zum Lösen von quadratischen Gleichungen. Die wesentliche Frage ist genau die, ob sich eine solche Kompetenz überhaupt algorithmisch übersetzen und damit in eine Maschine einbauen lässt, wie „lernfähig“ sie auch sein mag. In der Zeit seit Turing haben Programme ja erstaunliche „Intelligenz“ demonstriert, vor allem in Spielen wie Schach oder Jeopardy. Aber diese Stärken beruhen auf ihrem spezifischen Aufgabenbereich. Selbst unter Menschen ist bekanntlich umstritten, was als Intelliegnz gelten soll. Jedenfalls beurteilen wir sie normalerweise nicht anhand derart eingeschränkter behavioristischer Kriterien wie sie der Turing-Test festlegt. Wir achten auf anderes als bloss auf ihr „Chat-Verhalten“ – auf Ironie, Gespür für Ambivalenzen und Finessen, implizites Wissen - ; vielleicht sollte man im Twitter-Zeitalter sagen: zumindest jetzt noch. Denn hier manifestiert sich ein Phänomen, das viel ernster genommen werden müsste: Die schleichende Anpassung unseres sozialen und kommunikativen Verhaltens an die Geräte, die teilweise schon zu Zusatzorganen geworden sind.

Die heimliche Tücke des Artefaktes

Was schwerer wiegt, ist also eine Politik der Simulation, mit der all die schönen neuen Gadgets unseren Alltag infiltrieren. Ihr Design zielt geradezu darauf ab, uns in einen Schlummer einzulullen, in dem uns der Unterschied zwischen menschlichem und maschinellem Verhalten tendenziell „einerlei“ wird. Das ist das Heimtückische an der ganzen Entwicklung. Wir alle sind Eugene Goostmans - bis zu einem gewissen Grad. Wir wissen nur nicht, bis zu welchem. Das nutzen die Robotiker aus: Hab dich doch nicht so, „im Prinzip“ bist du auch nur ein Programm! Wir tun gut daran, vor dieser Logik der Trickster auf der Hut zu sein.

[1]    Einen Strauss von Müsterchen finden man hier: http://www.theguardian.com/technology/2014/jun/09/eugene-person-human-computer-robot-chat-turing-test/print

Interessanter Artikel!

Man kann die Frage auch andersrum angehen: woher kann ich wissen, ob dieser Mensch, der da vor mir steht und mit mir spricht - tatsächlich ein fühlendes, leidendes Wesen ist - und nicht ein perfekt gebauter und wie ein Mensch reagierender, aber seelenloser, empfindungsloser Bot, den Marsmännchen-Wissenschaftler hier ausgesetzt haben?

Ein ähnliches Problem gibt es bei psychopathischen Verbrechern: wenn die in Therapie geschickt werden während ihres Gefängnisaufenthalts, kann es geschehen, dass sie das erwartete "normale" Verhalten lernen und extrem genau simulieren, Zeichen von Empathie etc - doch sobald sie auf freiem Fuss sind, töten sie wieder.

Fazit: mit heutigen wissenschaftlichen Methoden lässt sich nicht entscheiden, ob eine Entität ein fühlendes Wesen ist, oder nicht. Weder beim Bot, noch beim Menschen.

Folgerung daraus: Es wird wohl früher oder später darauf hinaus laufen, dass Entitäten, die sich wie empathische, leidende Wesen benehmen, auch als solche behandelt werden - und auch entsprechende Rechte bekommen werden. Der aktuelle Turing-Bot scheint ja ein massiver Unsympath zu sein, aber das wird nicht immer so bleiben.

Viele Wissenschaftler, nach Eigenschaften wie Leben und Bewusstsein gefragt, sagen, es sei eine Folge der Komplexität der Materie. Ich befürchte, ebendiese Menschen werden die Komplexität der Materie nicht anerkenne, auch wenn diese irgendwann soweit sein sollte, Bots zu bauen, die echtes Bewusstsein und echte Leidensfähigkeit entwickelt haben werden.

Sie treffen den Nagel auf den Kopf. - Das Problem wird zunehmend die Ununterscheidbarkeit sein. Schon jetzt sprechen die Künstlichen Intelligenzler vom "Human-Chauvinismus" gegen den Robotern. Das Problem ist also im Grunde kein computer-ingenieurales, sondern ein soziales, ja, politisches. Wir werden uns, angesichts des wachsenden Reichs der künstlichen Spezies, mit einer Neudefinition unserer selbst zu beschäftigen haben - mit einer anthropologischen Riesenaufgabe. Wichtig, dass wir sie überhaupt als eine solche erkennen. Und zwar jetzt und subito.

Sie treffen den Nagel auf den Kopf. - Das Problem der Robotiker und Künstlichen Intelligenzler ist nicht eigentlich ein technisches, sondern ein soziales und anthropologisches. Schon heute wird ja der Vorwurf des "Human-Chauvinismus" gegenüber künstlichen Systemen vernehmbar. Und stillschweigend verkehrt sich der Anthropomorphismus in einen Robomorphismus, in die Angleichung menschlichen an maschinelles Verhalten. Man achte nur auf den grassierenden Sprachgebrauch. Im Grunde eine Riesenaufgabe: Uns selber angesichts des wachsenden Reichs der künstlichen Spezies neu zu definieren - überhaupt: dies als Aufgabe zu erkennen.

Beim Simulieren von menschlichen Fähigkeiten durch ein Computerprogramm geht es oft darum, Fähigkeiten zu entzaubern, auf die der Mensch zu unrecht stolz ist. Zum Beispiel das Verfertigen von Poesie, die schlecht artikulierte Prosa ist.

Simulieren von Leid. Da fällt mir unwiderstehlich der Fussballsport ein.

Leidensfähigkeit wie Lernfähigkeit sind falsche Spuren. Erstere haben wir mit den meisten "höheren" Tieren gemeinsam, Lernfähigkeit mit denselben UND Automaten.

Homo Sapiens Sapiens haben aber einen Sprach-Chip nach Chomsky, der ein Alleinstellungsmerkmal ist. Dazu gehören ein Sinn für Objektpersistenz, lebende vs. tote Objekte etc. Führen Sie ein Programm in einen physisch-räumlichen Kontext, der nicht vorbereitet ist. Das überleben allenfalls solche, welche sich aus dem Internet nachfüttern können. Testen sie Sprachabhängiges wie etwa Passivkonstruktionen aus Akkusativ und Dativobjekt (das ist Semantik-sensitiv). Da liegt das Ding schnell flach.

Trickster? Turing test? Where are we? Anybody having a command of simple german?

SRF Archiv

Newsletter kostenlos abonnieren