Böse neue intelligente Welt – führt künstliche Intelligenz zu mehr Krieg und der Erosion der Menschenrechte?

Maschinelles Lernen hat mit lernen gar nichts zu tun. Man sollte von diesem Begriff überhaupt ganz abkommen und es das nennen, was es ist: Statistische Parameteroptimierung. Das meinte Noel Sharkey, einer der Teilnehmer der Podiumsdiskussion zu künstlicher Intelligenz beim Heidelberg Laureate Forum.

Nicht nur der Begriff wurde bei der Podiumsdiskussion entzaubert. Deutlich waren kritische Stimmen zum Thema zu vernehmen. Dirk Helbig, Professor für Computational Social Science an der ETH Zürich präsentierte eine ganze Liste an Werten und Normen, von der Menschheit in Jahrhunderten mühsam errungen, die nun zur Disposition stünden.

Folie aus dem Vortag von Dirk Helbig

Helbig steht mit seiner Kritik nicht alleine. Bill Gates, Stephen Hawking und Elon Musk warnen vor der künstlichen Intelligenz. Es ist vor allem ein Thema, das den technisch interessierten und sicher nicht visionsfreien Herren Sorgen macht: Die militärischen Anwendungen, die durch autonome Roboter und Drohnen möglich werden.

Dass das nicht nur Stoff für Hollywoodfilme bietet sondern bereits real vorkommt zeigt sich zum Beispiel in den Wäldern rund um Boston, in denen die Firma Boston Dynamics ihre Roboter testet. Dort unternimmt etwa der Humanoide “Atlas” autonome Spaziergänge. Boston Dynamics ist inzwischen eine hundertprozentige Tochter von Google. Die Firma erhielt Fördergelder vom amerikanischen Verteidigungsministerium.

künstlich Intelligente Roboter gegen menschliche Soldaten also.  Joel Sharkey stellte in der Hot Topic Session die rhetorische Frage, was denn wäre, wenn nicht nur die USA an Militärtechnik mit künstlicher Intelligenz arbeiten würde, sondern auch China und andere Nationen. Und wenn es nicht nur einzelne Roboter wären, die auf Menschen losgingen, sondern ganze Roboter schwärme und Armeen aufeinander. Böse neue Welt.

Direkte gesellschaftliche Auswirkungen, ganz ohne militärisches Säbelrasseln, haben Roboter, die Aufgaben übernehmen, die aktuell von Menschen durchgeführt werden, und dadurch Arbeitsplätze gefährden. Ein Roboter, der 400 Burger pro Stunde zubereitet, ersetzt nicht nur einen Angestellten eines Schnellrestaurants.

Ob Roboter als Barkeeper zum Einsatz kommen oder Arbeiter bei der Herstellung von Autos und anderer Industriegüter nicht nur unterstützen, sondern komplett ersetzen: Wenn die aktuelle Entwicklung so weiter geht, stehen uns womöglich drastische Umwälzungen auf dem Arbeitsmarkt bevor. Ist es apokalyptisch, Aufstände der betroffenen Arbeiter zu prophezeien?

Von den Organisatoren der Podiumsdiksussion wurde vor dem Hintergrund dieser Herausforderungen erkannt, dass es einer neuen Gesetzgebung bedarf, die den Umgang zwischen Mensch und Maschine reguliert. Thomas Dreier, Leiter des Zentrums für Angewandte Rechtswissenschaft am KIT und ebenfalls Teil der Podiumsdiskussion, stellte dann auch gleich zum Anfang seines Vortrags klar, dass was legal für Menschen gilt, auf künstliche Intelligenz übertagen werden muss. Also ein System, basiert auf normativen Werten um Menschenwürde und Menschenrechte. Nur das wie, das blieb weitgehend offen.

Christoph Drösser, Wissenschaftsredakteur bei der Zeit und Moderator der Podiumsdisussion zitierte dann Isaak Asimov mit seinen Robotergesetzen:

  1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Das sollte ob der oben beschriebenen Gefahren rechtlich der kleinste gemeinsame Nenner sein. Wie man das international umsetzen möchte, das wäre ein Thema für eine weitere Podiumsdiskussion. Oder für den Europäischen Gerichtshof für Menschenrechte.

Dieser Artikel ist der zweite Teil einer zweiteiligen Serie über die Hot Topic Session zu künstlicher Intelligenz beim vierten Heidelberg Laureate Forum. (Teil 1 hier). Die Diskussion wurde von Christoph Drösser moderiert. Auf dem Podium saßen: Vint Cerf, Thomas Dreier, Dirk Helbig, Jim Hendler, Raj Reddy, Holger Schwenk und Noel Sharkey.

Der Beitrag Böse neue intelligente Welt – führt künstliche Intelligenz zu mehr Krieg und der Erosion der Menschenrechte? erschien zuerst auf Heidelberg Laureate Forum.