Es ist soweit: die selbstreplizierende Künstliche Intelligenz ist da

30. März 2018 08:10 Uhr  |  Dr. Ulrich Kampffmeyer  |  Permalink


Oscar Chang und Hod Lipson von der Columbia University in New York  beschreiben in Ihrem Artikel mit dem unscheinbaren Titel „Neural Network Quine“  ein sich selbst replizierendes neuronales Netzwerk System (http://bit.ly/SelfReplication). Warum ist dies so revolutionär? Es ist die wohl erst Künstliche Intelligence (AI Artificial Intelligence), die sich selbst fortpflanzen und evolutionär weiter entwickeln kann. Oscar Chang erläuterte dem Magazin „The Register“ seine Einschätzung und Beweggründe: „The primary motivation here is that AI agents are powered by deep learning, and a self-replication mechanism allows for Darwinian natural selection to occur, so a population of AI agents can improve themselves simply through natural selection – just like in nature – if there was a self-replication mechanism for neural networks.“ 

Neural Network Quine - http://bit.ly/SelbstReplikation

Der Ansatz von Chang und Lipson geht über bisherige neurale Netzwerke hinaus. Sie setzen als Grundlage auf bekannte Ansätze der Mustererkennung, Agenten und „Predictive Analytics“. Das neuronale Netzwerk vergleicht Daten verschiedener Ebenen auf ihre Ähnlichkeit und Unterschiedlichkeit und entwickelt hieraus Muster. Diese Muster werden in vernetzten Systemen gegen andere Datenbestände abgeglichen. Ein einfaches Beispiel ist das Durchsuchen eines großen Netzwerkes auf Bilder von Katzen oder das Nachempfinden eines künstlerischen Stils bei der Bildbearbeitung. Soweit so gut – dies machen schon viele Softwarelösungen. Entscheidend ist nun der Effekt des Selbstlernens mittels unterschiedlicher methodischer Ansätze, der zur Optimierung und Weiterentwicklung der Mustererkennung führt.  Mit dem Quine-System haben Chang und Lipson Agenten entwickelt, die nicht nur Lernen sondern auch selbst einschätzen und steuern können, wie sie sich weiterentwickeln können. Diese „Selbsteinschätzung“ ist nicht mehr programmiert oder antrainiert. Durch Weiterentwicklung immer neuer Versionen der Agenten entstehen evolutionäre, selektive Trends wie man sie aus dem Darwinismus kennt. Durch diese eigenständige, vorhersagbare Weiterentwicklung kann sich das Gesamtsystem zukünftig selbst organisieren und dabei auch Verhalten entwickeln, das eine Beschränkung der Größe und Funktionalität oder gar das Löschen verhindert. Durch verteilte Speicherung und Selbstreplikation von Einzelkomponenten kann sich das System gegebenenfalls wie ein Axolotl wieder herstellen. Wahrscheinlich muss man dann wie bei HAL in Odyssey 2001 die Speicherbänke ziehen. Das ist aber alles noch Zukunft, jedoch eine sehr nahe Zukunft.

War bisher schon die Diskussion um Deep Learning von düsteren Zukunftsvisionen umwölkt, so regt sich jetzt ernsthafter Widerstand. Deep Learning, selbstlernende Systeme, sind kaum noch für den Menschen verstehbar und kontrollierbar. Besonders wenn KI-Software selbst KI-Software entwickelt. Algorithmen kennen keine menschliche Ethik und Moral. Es gibt daher auch keine anwendbaren Kriterien, was nun die maschinelle Intelligenz in Bezug auf die menschliche, emotionsgeladene Intelligenz vergleichbar macht. Vernetzte komplexe Systeme, wie IoT, Cloud, Mobile usw. sind nur noch mit Künstlicher Intelligenz handhabbar – und bewegen sich damit aus der Kontrolle des Menschen hinaus. Deshalb wird nach Kontrolle auf nationaler und weltweiter Basis gerufen, nach verbindlicher, hardcodierter Ethik für Künstliche Intelligenz (und damit auch für Roboter, sic!). Auch Elon Musk warnte hiervor und hält die Künstliche Intelligenz für gefährlicher als Atomwaffen. Doch wo die Grenzen ziehen, wie solche global verteilten Systeme kontrollieren, wenn die Komplexität so gewaltig wird, dass sie sich unserem Verständnis entzieht, wie der jüngst verstorbene Steven Hawking bemerkte. Brauchen wir KI die die KI die KI programmiert kontrolliert und wieder – quis custodiet ipsos custodes – KI die diese KI zur Kontrolle von KI … überwacht? Und wie manipulierbar, wie angreifbar in einem Cyber-Krieg sind diese Systeme? Wir haben uns schon heute in eine 100% Abhängigkeit von der Richtigkeit und Verfügbarkeit von Information begeben. Wenn wir nun die Steuerung und Nutzung dieser Information auch noch an selbstlernende, selbstreplizierende Künstliche Intelligenz abgeben, könnten sich die schlimmsten Befürchtungen aus dystopischen Science-Fiction-Filmen bewahrheiten.

Deep Learning, selbstlernende KI-Systeme war ein erster Schritt zu sich selbst autonom entwickelnder Künstliche Intelligenz. Das ist heute bereits State-of-the-Art.
Mit sich selbst evolutionär optimierenden und replizierenden KI-Systemen folgt der nächste Schritt. Diese Form von Künstlicher Intelligenz lässt sich durch Menschen kaum verstehen, steuern und kontrollieren. Spätestens hier überholt die Künstliche Intelligenz die Fähigkeiten einzelner Menschen.
Der nächste folgende Schritt wäre dann „Bewußtsein“ von Softwaresystemen. Und der Mensch … ?

Dr. Ulrich Kampffmeyer

Curriculum auf Wikipedia https://de.wikipedia.org/wiki/Ulrich_Kampffmeyer

3 Kommentare zu “Es ist soweit: die selbstreplizierende Künstliche Intelligenz ist da

  • KI: HAL aus Odyssey 2001 feiert 50jähriges Jubiläum
    1. April 2018 um 9:03
    Permalink

    Künstliche Intelligenz – selbstlernend, selbstoptimierend, selbstfortpflanzend, selbstbewußt werdend … Nicht umsonst wies ich in meinem Ursprungsbeitrag (http://bit.ly/SelbstReplikation) auf HAL als mögliche Zukunft der KI Künstlichen Intelligenz hin. Heute feiert der Film Odyssey 2001 von Kubrick 50jähriges Jubiläum. Viele der Ideen aus dem Film, von Kubrick und Clarke, haben sich bis heute nicht bewahrheitet, jedoch erscheint uns HAL (aka IBM Watson?) heute schon ziemlich nah (heise.de – 50 Jahre „2001 Odyssee im Weltraum“ – oder: Wie ich lernte, den Computer zu lieben http://bit.ly/odyssey-2001). Den Film, ein Meisterwerk seiner Zeit und immer noch von Relevanz für heute, kann man sich ruhig mehrfach ansehen.

    Antwort
  • Künstliche Intelligenz messbar machen?
    14. Dezember 2021 um 15:19
    Permalink

    Ein Problem der KI war immer, wann ist sie denn wirklich „intelligent“? Schon bei den menschlichen Maßstäben hat man so seine Probleme was denn Intelligenz sei. Und nun sollen Algorithmen „intelligent“ werden. Es ist klar, dass an Maschinen andere Maßstäbe angelegt werden müssen, als an die menschlichen Fähigkeiten. Interessant ist daher ein Ansatz von Google, Künstliche Intelligenz messbar zu machen.

    In einem Interview hat François Chollet, Senior Staff Software Engineer bei Google und KI-Forscher, nicht nur über seinen gewonnen Award berichtet, sondern auch die Hintergründe der von ihm mitentwickelten Messmethode mittels ARC erläutert.

    Vier Fragen und Antworten aus dem Interview in der Netzwoche (https://www.netzwoche.ch/news/2021-11-25/wie-man-kuenstliche-intelligenz-messen-kann-und-warum-das-wichtig-ist):

    Sie haben eine Methode zur Messung von KI entwickelt. Warum?

    Künstliche Intelligenz hat in letzter Zeit grosse Fortschritte gemacht bei Problemen wie dem Erkennen von Bildinhalten, dem Meistern von Spielen wie „Go“ und so weiter. Allerdings sind diese Fähigkeiten jeweils eher aufgabenspezifisch als allgemein: Man kann eine KI, die darauf trainiert ist, Go auf einem 9×9-Brett zu spielen, nicht auf einem 19×19-Brett spielen lassen. Man kann auch nicht ein selbstfahrendes Auto, das für Phoenix, Arizona programmiert ist, in Zürich fahren lassen. Unseren KI-Modellen fehlt es an Allgemeinheit und Generalisierbarkeit. Sie sind nur zu dem fähig, was ich „lokale Verallgemeinerung“ nenne: Sie können mit Situationen umgehen, die extrem nahe an dem liegen, wofür sie trainiert wurden. Obwohl wir bei der sehr engen, aufgabenspezifischen KI grosse Fortschritte gemacht haben, sind wir bei der allgemeinen KI noch nicht weitergekommen.

    Warum ist das so?

    Ich denke, das liegt einfach daran, dass wir uns bei der Bewertung von KI-Fortschritten bisher auf die aufgabenspezifischen Fähigkeiten konzentriert haben. Ein Effekt, den man bei der Entwicklung von Systemen ständig beobachten kann, ist die Abkürzungsregel: Wenn man sich auf die Optimierung einer Erfolgskennzahl konzentriert, wird man sein Ziel zwar erreichen, aber auf Kosten all dessen, was im System nicht davon abgedeckt wurde. Am Ende nimmt man jede verfügbare Abkürzung, um das Ziel zu erreichen. Die Abkürzungsregel ist in der KI allgegenwärtig. Wenn Sie sich zum Ziel setzen, Schach auf menschlichem Niveau zu spielen, werden Sie das auch erreichen. Aber nur das: Ihr System wird keine der kognitiven Fähigkeiten aufweisen, die Menschen beim Schachspiel einsetzen, und daher wird es sich nicht auf andere Aufgaben verallgemeinern lassen. Bislang war der wichtigste Erfolgsmassstab im Bereich der KI das Erreichen spezifischer Fähigkeiten, das Lösen spezifischer Aufgaben. Folglich besteht die Geschichte der KI aus einer Reihe von Erfolgen, bei denen wir herausgefunden haben, wie wir diese Aufgaben lösen können, ohne eine allgemeine Intelligenz zu besitzen. Deshalb war ich der Meinung, dass ein neues Mass für den Fortschritt in der KI erforderlich ist, ein Mass, das sich auf die Fähigkeit zu Generalisieren und nicht auf die aufgabenspezifischen Fähigkeiten konzentriert. Nur wenn wir genau messen, wie wir vorankommen, können wir Fortschritte in die richtige Richtung machen.

    Also eine neue Art von IQ. Einfach erklärt: Wie funktioniert Ihre Messmethode?

    Ich habe eine Art Spiel namens ARC entwickelt, das sowohl von KIs als auch von Menschen gespielt werden kann. Es erinnert in der Tat ein wenig an einen IQ-Test. Ohne ins Detail zu gehen, besteht die Grundidee darin, dass man für das Spiel nicht üben kann. Sie werden jedes Mal mit neuen Aufgaben getestet, die Sie noch nie zuvor gesehen haben. Sie müssen also im Handumdrehen herausfinden, wie die einzelnen Aufgaben funktionieren. ARC misst also, wie gut man sich an Neues anpassen und unerwartete Situationen verstehen kann – so definiere ich allgemeine Intelligenz. Anstatt sich auf die Fähigkeiten innerhalb einer vordefinierten, statischen Aufgabe wie Schach, Go oder Starcraft zu konzentrieren, legt diese Definition den Schwerpunkt auf die Fähigkeit, effizient zu lernen, neue Aufgaben zu bewältigen oder sich an eine veränderte Umgebung anzupassen.

    Wie löst ARC das Problem des menschlichen Vorwissens?

    Natürlich geht man ein neues Spiel nie ganz von vorne und ohne Vorkenntnisse an. Was Sie bereits über die Welt wissen, hat einen erheblichen Einfluss auf Ihre Fähigkeit, ARC zu spielen. Darum kontrolliert das Spiel streng, welche Art von Vorwissen es voraussetzt. ARC verlangt nur Wissen aus Kernwissen-Systemen, die das Wissen über die Welt repräsentieren, mit dem Menschen geboren werden oder das sie in den ersten paar Jahren ihres Lebens entwickelt haben. Also Antworten auf Fragen wie: Was ist ein Objekt? Was bedeutet Zählen? Anders als bei einem IQ-Test geht es bei den ARC-Aufgaben nie um erworbenes Wissen wie zum Beispiel englische Sätze. Darum können bereits 5-jährige Kinder ARC in Angriff nehmen. Für moderne KI-Ansätze, insbesondere für Deep Learning, ist ARC jedoch derzeit noch völlig unerreichbar. Wenn man so etwas sieht – ein Problem, das Kinder auf Anhieb lösen können, ohne jemals dafür trainiert zu haben, während KI damit nichts anfangen kann, egal wie sehr man sich anstrengt – dann weiss man, dass etwas Interessantes passiert. Etwas Wichtiges, das wir übersehen.

    Antwort

Neuen Kommentar verfassen

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Ich stimme zu, dass die von mir eingegebenen Daten einschließlich der personenbezogenen Daten an PROJECT CONSULT übermittelt und dort zur Prüfung der Freischaltung meines Kommentars verwendet werden. Bei Veröffentlichung meines Kommentars wird mein Name, jedoch nicht meine E-Mail und meine Webseite, angezeigt. Die Anzeige des Namens ist notwendig, um eine individuelle persönliche Kommunikation zu meinem Beitrag zu ermöglichen. Anonyme oder mit falschen Angaben eingereichte Kommentare werden nicht veröffentlicht. Zu Nutzung, Speicherung und Löschung meiner Daten habe die Datenschutzerklärung zur Kenntnis genommen.

Ich versichere, mit meinem Kommentar alle gültigen Vorgaben des Urheberrechts beachtet zu haben. Ich habe keine Bilder, Grafiken, Texte oder Links in meinem Beitrag verwendet, die durch CopyRight, Leistungsschutzrecht oder Urheberrecht geschützt sind. Für den Inhalt meines Kommentars bin ich trotz Prüfung und Freischaltung durch PROJECT CONSULT ausschließlich selbst verantwortlich. Meine Rechte am Beitrag werden bei PROJECT CONSULT nur durch die CC Creative Commons by-nc-nd Vorgaben gewahrt.