Können wir künstlicher Intelligenz vertrauen?

Künstliche Intelligenz ist entweder das Beste, was der Menschheit passieren kann, oder das Schlimmste. Davon ist Max Tegmark, seines Zeichens Physiker am MIT, überzeugt. Sein Buch „Leben 3.0“ ist ein Weckruf für uns alle, sich mit dem Thema zu befassen. Wir haben Antworten auf die wichtigsten Fragen zu seinem Buch – inklusive der, ob Max Tegmark nicht einfach ein Spinner ist, der eigentlich nichts von KI versteht.

 

 

Welchen neuen Beitrag leistet „Leben 3.0“ zur Debatte über künstliche Intelligenz?

Es wird viel darüber geredet, dass künstliche Intelligenz den Arbeitsmarkt zerstört und neue Waffen möglich macht, aber nur sehr wenige Wissenschaftler widmen sich ernsthaft dem “Elefanten im Raum”: Was passiert, wenn Maschinen uns in jeder Hinsicht überlegen sind? Statt dieser Frage auszuweichen, stelle ich sie mit all ihren faszinierenden Aspekten in den Mittelpunkt und bereite die Leser auf die wichtigste Debatte unserer Zeit vor. Wird die übermenschliche allgemeine künstliche Intelligenz (AGI) zu unseren Lebzeiten verwirklicht werden? Kann und sollte sie kontrolliert werden, und wenn ja, von wem? Kann die Menschheit im Zeitalter künstlicher Intelligenz überleben, und wenn ja, wie können wir Sinn und Erfüllung finden, wenn superintelligente Maschinen sich um all unsere Bedürfnisse kümmern und alles, was wir selbst beitragen können, überflüssig machen? Wird die AGI über ein Bewusstsein verfügen? Kann sie uns dabei helfen, den uralten Traum von einem Leben im Weltall zu verwirklichen? Welche Art von Zukunft sollten wir anstreben? Ich schreibe aus meiner Perspektive als Physiker, der am Massachusetts Institute of Technology (MIT) KI-Forschung betreibt, was es mir erlaubt, künstliche Intelligenz in ihren Grundprinzipien zu erklären, ohne mich in computertechnischen Fachausdrücken zu verlieren.

Warum ist künstliche Intelligenz für unsere Zukunft so wichtig?

Wir haben uns Intelligenz traditionell als etwas Mysteriöses vorgestellt, das nur in biologischen Organismen vorkommt, insbesondere bei Menschen. Aus meiner Sicht als Physiker stellt sich Intelligenz aber einfach nur als eine bestimmte Art der Informationsverarbeitung dar, die von sich umherbewegenden Elementarteilchen durchgeführt wird, und es gibt kein physikalisches Gesetz, das dagegen spricht, Maschinen bauen zu können, die in jeder Hinsicht intelligenter sind als wir. Das legt nahe, dass der gegenwärtige Stand erst die Spitze des Intelligenzeisbergs ist und dass es potenziell möglich ist, die gesamte Intelligenz, die in der Natur verborgen liegt, freizusetzen und sie zu nutzen, um der Menschheit zum Gedeihen zu verhelfen.

Was war der Anstoß für eure Initiative, die Technologieführer innerhalb von zwei Jahren zu zwei Konferenzen über künstliche Intelligenz einzuladen und Millionen Dollar für Forschungsstipendien im Bereich der KI-Sicherheit auszuloben?

Wir haben das getan, um die bis dahin polarisierte und unergiebige Debatte über die gesellschaftlichen Auswirkungen der künstlichen Intelligenz auf eine breite und gemeinschaftliche Grundlage zu stellen. Ich freue mich, dass sich einiges verbessert hat, aber wie ich in „Leben 3.0“ darlege, gibt es viele schwierige Fragen, auf die wir erst noch Antworten finden müssen, wenn wir die Vorteile der künstlichen Intelligenz genießen und gleichzeitig Katastrophen vermeiden wollen. Wie verwandeln wir beispielsweise die fehleranfälligen und hackbaren Computer von heute in stabile KI-Systeme, denen wir wirklich vertrauen können?

In welchem Zusammenhang stand Eure Initiative? Gab es zu der Zeit bereits andere Diskussionen über dieses Thema? Und hat die Debatte sich verändert seit Eurer ersten Konferenz in Puerto Rico?

Wir haben das damals gemacht um das damalige Gespräch über die gesellschaftliche Bedeutung der AI zu verändern – um es von einer polarisierten und dysfunktionalen Diskussion wegzubewegen hin zu einer gemeinschaftlichen Debatte, die  im Mainstream stattfindet. Ich freue mich darüber, wie die Dinge sich zum Besseren entwickelt haben, aber wie ich im Buch beschreibe, gibt es zahlreiche schwierige offene Fragen, auf die wir noch Antworten finden müssen, wenn wir die Vorteile künstlicher Intelligenz nutzen und Katastrophen vermeiden wollen. Wie zum Beispiel können wir unsere heutigen, virenanfälligen Computer in robuste Systeme für künstliche Intelligenz verwandeln, denen wir wirklich vertrauen können?

Könnten wir wirklich aussterben oder von künstlicher Intelligenz ausgelöscht werden? Welches der vielen Weltuntergangsszenarien, die du in deinem Buch schilderst, scheint am wahrscheinlichsten?

Ich bin davon überzeugt, dass künstliche Intelligenz entweder das Beste ist, was der Menschheit passieren kann, oder das Schlimmste. Obwohl ich viele Szenarien beschreibe, die man mögen oder ablehnen kann, besteht die entscheidende Herausforderung sicher nicht darin, zu klären, welches Szenario uns am ehesten bevorsteht, sondern herauszufinden, was wir erreichen wollen und welche konkreten Schritte wir heute unternehmen können, um die Chancen zu maximieren, dass die Menschheit in Zukunft eher gedeihen als ins Straucheln geraten wird.

Bist du optimistisch oder pessimistisch, was unsere Fähigkeit betrifft, sicherzustellen, dass wir die künstliche Intelligenz weiterhin zu unserem Vorteil einsetzen?

Ich bin optimistisch, dass wir mit künstlicher Intelligenz eine ansprechende Zukunft erschaffen können – aber das wird nicht von selbst geschehen, also müssen wir einen Plan haben und daran arbeiten! Wenn wir es richtig anstellen, wird die künstliche Intelligenz das Beste, was der Menschheit je passiert ist. Alles, was ich an der Zivilisation schätze, ist das Ergebnis von Intelligenz. Wenn wir unsere menschliche Intelligenz mittels künstlicher Intelligenz verstärken und so die größten Probleme unserer Zeit lösen, könnte die Menschheit also gedeihen wie nie zuvor. Aber die Forschung, die nötig ist, um die KI nützlich zu halten, könnte ebenfalls Jahrzehnte in Anspruch nehmen, weshalb wir uns sofort an die Arbeit machen sollten, um sicherzustellen, dass wir die richtigen Antworten parat haben, wenn es an der Zeit ist. Zum Beispiel müssen wir herausfinden, wie wir Maschinen dazu bringen können, unsere Ziele zu erlernen, zu übernehmen und zu gewährleisten. Und wessen Ziele sollten das sein? Welche Art von Zukunft wollen wir erschaffen? Diese Debatte ist zu wichtig, um sie allein den KI-Forschern zu überlassen!

Glaubst du, dass die Ängste und Fragen, die Hollywood in Bezug auf Roboter und künstliche Intelligenz thematisiert, die wahren Gefahren widerspiegeln?

„Terminator“ veranlasst die Menschen dazu, sich Sorgen über die falschen Dinge zu machen. Die tatsächliche Bedrohung, die von hoch entwickelter KI ausgeht, ist nicht Feindseligkeit, sondern Kompetenz: intelligente Maschinen, die Ziele umsetzen, welche nicht mit unseren übereinstimmen. Die Roboter in „Westworld“, „Blade Runner“ und „Terminator“ sind überraschend dumm. „Her“ gibt einen besseren Vorgeschmack auf eine wahrhaft übermenschliche Intelligenz, komischerweise hat das in dem Film aber kaum einen Einfluss auf den Arbeitsmarkt.„Transcendence“ gibt einen besseren Eindruck der gesellschaftlichen Auswirkungen, wobei echte Superintelligenz sich von Menschen ebenso wenig überlisten ließe wie ein Mensch von einer Schnecke.

Und der neue „Blade Runner 2049“? Nähert er sich auf realistischere Weise der künstlichen Intelligenz und ihren Risiken?

Ich habe den Film gerade mit meiner Frau gesehen und finde, er bewirkt, dass die Leute sich um die falschen Dinge Sorgen machen. Die wahre Bedrohung die aus der fortgeschrittenen Künstlichen Intelligenz erwächst, ist nicht ihre mögliche Bösartigkeit, sondern Kompetenz: Intelligente Maschinen, die Ziele verfolgen und erreichen, die nicht die mit unseren Zielen übereinstimmen. Ich finde auch, dass die Roboter in Blade Runner überraschend dumm sind, nicht viel schlauer als Menschen. Wie die meisten Visionen der Zukunft, die aus Hollywood kommen, beschreibt Blade Runner eine dystopische Zukunft. Wenn wir uns zur Abwechslung auch mal eine inspirierende Zukunft vorstellen könnten, wäre es sehr viel wahrscheinlicher, dass wir auch eine solche bekommen. Es ist wirklich schade, dass Hollywood dazu neigt, sich nur auf die Schattenseiten der AI zu konzentrieren, denn es gibt auch riesige Chancen.

Wie wichtig ist es Deiner Meinung nach, neue Metaphern und Bilder dafür zu finden, was die künstliche Intelligenz für uns Menschen bedeutet?

Ich glaube es ist sehr wichtig, weil wir Menschen in Bildern und Geschichten denken. Das ist auch der Grund, warum wir diese Woche dieses Video veröffentlicht haben – rechtzeitig zur UNO-Debatte über autonome Waffensysteme, ein Thema, das in Kapitel 3 des Buches behandelt wird.

An welcher Art von Forschung arbeitest du gerade, und warum hast du dich primär darauf konzentriert?

Meine aktuelle MIT-Forschung konzentriert sich auf das, was ich als „Intelligible Intelligence“ bezeichne: künstliche Intelligenz, der man vertrauen kann, weil sich ihre Denkweise nachvollziehen lässt. Heutige Deep-Learning-Systeme sind in der Regel uneinsehbare Black Boxes. Bevor ich ihnen die Steuerung meines Autos, Flugzeugs oder Stromnetzes überlasse, möchte ich also gewährleistet haben, dass sie stets wie vorgesehen funktionieren und nie gehackt werden. Bevor ich mich auf einen medizinischen oder finanziellen Ratschlag von einem Computer verlasse, hätte ich gerne, dass er mir seine Schlussfolgerungen in einer Sprache erklären kann, die ich verstehe. Ich habe Spaß daran, an einer von der Physik inspirierten Herangehensweise für diese Herausforderungen zu arbeiten. Ich freue mich darauf, Methoden zu entwickeln, um sicherzustellen, dass die Technologie der Zukunft nicht nur leistungsfähig, sondern auch nützlich ist.

Ist Superintelligenz nicht bloße Science Fiction?

Nein – viele führende KI-Wissenschaftler sind davon überzeugt, dass Superintelligenz zu unseren Lebzeiten möglich ist, und sie wird auch in den Asilomar AI Principles erwähnt, die von mehr als tausend KI-Forschern aus der ganzen Welt unterzeichnet wurden, darunter führende Persönlichkeiten dieses Bereichs aus Industrie und Wissenschaft. Das Ganze wird allerdings nicht wie in den Kinofilmen werden! Mein Buch betrachtet und analysiert das faszinierende Spektrum der Argumente zu dem, was wann passieren kann und soll.

Ist Max Tegmark nicht einfach nur ein Spinner, der nichts von KI versteht?

Die Arbeit, die ich mit meiner MIT-Forschungsgruppe mache, konzentriert sich, ebenso wie sieben meiner letzten technischen Publikationen, auf künstliche Intelligenz und verwandte Themen. So wurde kürzlich das Paper, das ich mit Yann LeCun und anderen über die effiziente Anwendung von einheitlichen, rekurrenten neuronalen Netzwerken verfasst habe, von der International Conference on Machine Learning (ICML) angenommen. Meine KI-Forschung stützt sich in der Regel auf physikbasierte Techniken, die einige meiner über 200 Veröffentlichungen zur Grundlage haben. Abgesehen von diesem nerdigen technischen Hintergrund habe ich das Glück gehabt, durch meine Arbeit mit dem Future of Life Institute und durch KI-Führungskräfte, die an unseren Konferenzen, Diskussionen und Forschungen teilnehmen, eine ganze Menge über die technischen und gesellschaftlichen Auswirkungen künstlicher Intelligenz zu lernen. Es ist natürlich nicht an mir, zu beurteilen, ob ich ein Spinner bin, aber ich fand diesen analytischen Versuch einer Antwort auf diese Frage wahnsinnig komisch.

 


Das Buch 

Künstliche Intelligenz wird die Zukunft des Lebens in unserem Universum verändern. Wird sie uns ins Verderben stürzen oder zur Weiterentwicklung des Homo Sapiens beitragen? Wie wird sie unsere Arbeitswelt, die Demokratie und die Gesellschaft als Ganzes beeinflussen, wie die Kriegsführung von morgen prägen und unser Verständnis von Gerechtigkeit verändern? Werden wir intelligente Maschinen kontrollieren – oder werden sie uns kontrollieren? Was bleibt vom Menschen, wenn er Maschinen entwickelt, die die Macht übernehmen und sich der Menschheit entledigen könnten? Niemand hat diese Fragen tiefer durchdrungen als Max Tegmark, einer der engagiertesten Forscher auf dem Gebiet der Künstlichen Intelligenz.

„Leben 3.0“ auf den Seiten der Ullstein Buchverlage 

 

Max Tegmark

Max Tegmark

Max Tegmark wurde 1967 in Schweden geboren. Er studierte am Royal Institute of Technology in Stockholm sowie an der University of California, Berkeley, und ist Professor für Physik am Massachusetts Institute of Technology. Tegmark ist Mitglied der American Physical Society und der wissenschaftliche Leiter des Foundational Questions Institute.

Foto: © Meia Chita-Tegmark

Print Friendly, PDF & Email