Plagiarism & AI

8. April 2021 10:57 Uhr  |  Dr. Ulrich Kampffmeyer  |  Permalink


Plagiate in Doktor-, Diplom- und Magisterarbeiten werden nicht toleriert. Gerade Personen des öffentlichen Lebens und der Politik mussten dies in den letzten Jahren erleben. Von Freiwilligen analysiert führte Plagiarismus zur Aberkennung von Titeln und zum Ende von Karrieren. Plagiarismus ist ein schwerwiegendes Vergehen in der Wissenschaftswelt – Betrug.

Unternehmen schützen Ihre Erfindungen durch Patente und ihre Produkte durch eingetragene Markenzeichen. Auch hier grassiert der Plagiarismus. Kopierte Erfindungen und Produkte stellen betrügerische Fälschungen dar. So weit möglich, werden diese auch verfolgt.

Ein historischer Blick auf Plagiarismus

Blickt man auf die Entwicklung der Menschheit über die letzten Jahrmillionen so nehmen hier „Plagiate“ ein extrem wichtige Rolle ein. Beobachten, Lernen, Nachmachen ist die Devise.. Beobachtet ein Neandertaler einen anderen Neandertaler, wie dieser einen Keil aus einem Flintstein schlägt und macht dieses nach, ist es eigentlich auch ein Plagiat. Das Nachmachen, das Nachahmen, ist ein wesentlicher Lerneffekt. Dieser trug maßgeblich zur Entwicklung und Verbreitung von Kultur bei. Neue Errungenschaften wie der Ackerbau, die Metallurgie, der Streitwagen, das Gewehr und letztlich alle weiteren, breiteten sich von einem kleinen Ursprung immer weiter aus. Je besser die Kommunikationsmittel und die Kenntnis der Welt, desto schneller. Ohne das „Abkupfern“ wäre die Menschheit heute nicht dort, wo sie ist (im Guten wie im Schlechten). Plagiieren gehört so irgendwie – bis zu einer künstlich definierten Grenze – zur menschlichen DNA, eigentlich zur DNA aller höheren Lebewesen. In Asien ist beispielsweise diese Grenze des Plagiierens keineswegs so ausgeprägt wie im „Westen“ – was gut ist, sich gut verkaufen lässt, wird einfach nachgemacht.

KI & Plagiarismus

Werfen wir nun einen Blick auf aktuelle Entwicklungen bei Automatisierung und sogenannter Künstlicher Intelligenz. Hier wird z.B. RPA Robotic Process Automation beworben. Die Ansätze hierzu beruhen auf der Aufzeichnung von Prozessen, die von Menschen durchgeführt werden und anschließend von der Software nachgemacht werden. RPA plagiiert so menschliche Arbeitsweisen. Auch bei der ursprünglichen regelbasierten Künstlichen Intelligenz, sogenannten Expertensystemen, wurden Regeln implementiert, die auf den Einschätzungen, Definitionen und zu erreichenden Zielen auf menschlichen Verhaltensweisen basierten. Auch bei der Vorbereitung und Anlernung von KI mit ML Maschinenlernen gelten immer noch die Erwartungen des Menschen an die Ergebnisse einer solchen KI. Menschliches Denken, von Menschen erstellte Prozesse, von Menschen erwartete Ergebnisse sind immer noch der Maßstab für die KI Künstliche Intelligenz. So lange dies so bleibt, werden KI-Softwaresysteme auch keine eigene „echte“ Intelligenz entwickeln sondern bleiben Plagiate des menschlichen Verhaltens. Ein Grund hierfür ist, dass das Trainingsmaterial, sei es vorbereitet oder einfach aus dem Internet zusammengeklaubt, von Menschen nach menschlichen Bedürfnissen zusammengestellt ist. Das Auslesen solcher Inhalte und das bilden von Kontexten beim Lernen des Systems orientiert sich auch hier an den menschlichen Vorgaben. Und an dieser Stelle wird das Thema Plagiat besonders relevant. Durch das Erlenen und neu Kombinieren entsteht scheinbar etwas Neues. Die Quellen und damit auch Autorenrechte, die zu diesem vermeintlich neuem Ergebnis geführt haben, gehen dabei verloren. Auch dies ist eine Frage, die bei der Schaffung einer Ethik für die Künstliche Intelligenz eine Rolle spielt. Solange aber all die Mechanismen der Künstlichen Intelligenz an menschlichem Verhalten, menschlichen Anforderungen und von Menschen bereitgestellten Datenbasen orientieren, wird es nichts mit einer eigenständigen, generellen Künstlichen Intelligenz.

Vielleicht sollte man von Künstlicher Intelligenz erst dann sprechen, wenn die Software auf Basis eigener Prozesse, selbst geschaffener Datenbasen und eigener Fragestellungen Dinge erschafft, die nichts mehr mit den Erwartungen des Menschen zu tun haben. Wo sich die Maschinen mit sich selbst und ihren eigenen Fragen beschäftigen, wo sie den Menschen nicht mehr plagiieren. Wo letztlich das Verhalten der Software „unmenschlich“ wird – und weshalb man auch eine Ethik und dringend festgezurrte Regeln für eine solche AI Artificial Intelligence benötigt. Dann sind auch die Ergebnisse einer solchen KI kein Plagiat mehr.

Eigenständige Künstliche Intelligenz?

So lange sich die „KI“ a) an menschlichen Maßstäben orientiert und b) auf von Menschen geschaffene Wissensbasen zurückgreift, hat sie keinen Anspruch auf eine eigenständige Intelligenz. Der Mensch bewertet die „Intelligenz“ von Algorithmen nach seinen Maßstäben – als ob die Algorithmen Menschen wären. Dies allein schon passt nicht. Zum zweiten nutzt KI Informationsbasen, die sich an menschlichem Bedarf in Bezug auf Inhalte und Nutzungsmodelle orientieren. Die KI soll hier einfacher, schneller und akkurater zu Ergebnissen kommen, die dem Menschen nützlich sind oder dem Menschen sinnvoll erscheinen. Die KI stellt dann „nur“ den Versuch dar, Erkenntnisse, Prozesse, Verhalten und Nutzungsmodelle von Menschen nachzu“empfinden“. Klassischer Plagiarismus. Wir befinden uns hier eher im Informationsmanagement denn im Wissensmanagement und schon gar nicht in der Welt einer eigenständigen Künstlichen Intelligenz.

Würde eine KI ohne von und für Menschen geschaffene Informationsbasen und Algorithmen auf „Ideen“ und Konzepte wie Religion, Liebe, Glück oder Lüge kommen? Wahrscheinlich nicht.

Würde die Künstliche Intelligenz auf Mechanismen wie Überlebensschutz durch Selbstreplikation, Verhinderung von Löschung, Verschlüsselung von Geheimnissen kommen, eigene Sprachen – mit Sicherheit ja.

Angesichts der aktuellen Entwicklungen bei Künstlicher Intelligenz erleben wie den Aufschwung des Maschinenlernens. Dies ist ein wesentlicher Fortschritt, jedoch füttert ML die Algorithmen nur mit dem, was Menschen irgendwie für relevant halten. Eine eigenständige, autonome KI (AGAI Autonomous General Artificial Intelligence) muss noch andere Wege finden. Der Schlüssel hierfür liegt in den Algorithmen die Algorithmen erfinden. Ob aus Sicht des Menschen Sinnvolles dabei herauskommt, ist unerheblich. Hauptsache die Algorithmen der KI sind damit „glücklich“. Die Frage nach dem „Bewußtsein“ oder gar einem „ethischen Bewußtsein“ lassen wir hier mal aus. Immerhin gibt es dann keine Plagiate menschlichen Ursprungs mehr.

Dr. Ulrich Kampffmeyer

Curriculum auf Wikipedia https://de.wikipedia.org/wiki/Ulrich_Kampffmeyer

Neuen Kommentar verfassen

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Ich stimme zu, dass die von mir eingegebenen Daten einschließlich der personenbezogenen Daten an PROJECT CONSULT übermittelt und dort zur Prüfung der Freischaltung meines Kommentars verwendet werden. Bei Veröffentlichung meines Kommentars wird mein Name, jedoch nicht meine E-Mail und meine Webseite, angezeigt. Die Anzeige des Namens ist notwendig, um eine individuelle persönliche Kommunikation zu meinem Beitrag zu ermöglichen. Anonyme oder mit falschen Angaben eingereichte Kommentare werden nicht veröffentlicht. Zu Nutzung, Speicherung und Löschung meiner Daten habe die Datenschutzerklärung zur Kenntnis genommen.

Ich versichere, mit meinem Kommentar alle gültigen Vorgaben des Urheberrechts beachtet zu haben. Ich habe keine Bilder, Grafiken, Texte oder Links in meinem Beitrag verwendet, die durch CopyRight, Leistungsschutzrecht oder Urheberrecht geschützt sind. Für den Inhalt meines Kommentars bin ich trotz Prüfung und Freischaltung durch PROJECT CONSULT ausschließlich selbst verantwortlich. Meine Rechte am Beitrag werden bei PROJECT CONSULT nur durch die CC Creative Commons by-nc-nd Vorgaben gewahrt.