ChatGPT verändert die KI-Landschaft

4. Februar 2023 10:27 Uhr  |  Dr. Ulrich Kampffmeyer  |  Permalink


ChatGPT wird überall als DER DURCHBRUCH FÜR ARTIFICIAL INTELLIGENCE angesehen. Dem Hype um ChatGPT tragen wir auch mit diesem Artikel bei, der noch ein wenig mehr die Visibilität der Lösung in der Medienlandschaft fördert. Die Zahl der Benutzer wuchs in Millionenschritten schneller als je eine andere App zuvor. Dies macht sich auch bei der Performance und Abbrüchen der Plattform leider bemerkbar. ChatGPT will dem aber mit einer Bezahlversion „Plus“ etwas entgegensteuern. Aber auch Wettbewerber von ChatGPT haben jetzt Oberwasser, z.B. Google (Bard), Jasper, Deepmind (Sparrow), Anthropic (Claude), Meta (OPT-175B Open Pretrained Transformer & Sphere [& Galactica, bereits 2022 wieder eingestellt), PaLM (github open source), BLOOM (BigScience Large Open-science Open-access Multilingual Language Model) und viele andere. Auch Fakten-basierte Modelle wie IBM’s Watson oder Theum kommen hier zu neuer Blüte. Aktuell sind viele KI-Anwendungen mehr-oder-weniger kostenfrei. Sobald sich eine Plattform durchgesetzt hat, werden die Services viel Geld kosten. Wer den Krieg um die wichtigste AI-Plattform gewinnen wird, ist noch nicht abzusehen.

Natürlich haben auch wir bereits im Dezember letzten Jahres angefangen, ChatGPT zu testen. Dabei konzentrierten wir uns natürlich auf „unsere“ Themen rund um Information Management & Information Governance. Hier liefert ChatGPT sehr ordentliche Ergebnisse.

Wir haben uns daher im Februar entschlossen, in unseren Essentials parallel zu unseren „Themen“, die von der PROJECT-CONSULT-Webseite importiert wurden, eine weitere Bibliothek mit standardisierten ChatGPT-Artikeln in Deutsch und Englisch zu veröffentlichen. Während die Artikel in „Information Management Themen“ unterschiedlich alt sind (einige zuletzt in 2021 aktualisiert), kommen die Artikel von ChatGPT alle aus der Trainingsbasis bis ebenfalls einschließlich 2021. Dies erlaubt einen direkten Vergleich recherchierter und manuell erstellter Beiträge zu automatisiert gefertigten mit Künstlicher Intelligenz. Bei den Artikeln in der Bibliothek „ChatGPT Themen & Topics“ haben wir immer gleiche Fragen-Typen als Prompts für ChatGPT gestellt. Dabei handelt es sich um 5 Fragen von Definitionen bis zu Nutzen des jeweiligen Themas. Die Antworten haben wir nicht übersetzt, sondern die Fragen in Deutsch in Englisch erneut ChatGPT „vorgeworfen“ und die neuen englischen Antworten erhalten. Daher unterschieden sich die Antworten von ChatGPT in der deutschen und englischen Version. Dies wird besonders deutlich bei Begriffen aus dem deutschsprachigen Raum wie „Revisionssichere Archivierung“ oder Virtuelle Akte“.

Die „Themen & Topics“ finden sich hier in unseren Essentials auf Theum: https://bit.ly/ThemenTopics. Aktuell verfügbar sind Artikel zu BPM Business Process Management, ChatGPT, Digitale Langzeitarchivierung, GRC Governance, Risk Management & Compliance, IIM Intelligent Information Management, Information Governance, Records Management, Revisionssichere Archivierung, RPA Robotic Process Automation und Virtuelle elektronische Akte.

Wir freuen uns über Kommentare hier zum Beitrag, wie Sie die Leistungsfähigkeit und Qualität der Inhalte von ChatGPT einschätzen.


Translation by Deepl.com


ChatGPT is changing the AI Landscape

ChatGPT is seen everywhere as THE BREAK THROUGH FOR ARTIFICIAL INTELLIGENCE. We also add to the hype around ChatGPT with this article, which promotes the solution’s visibility in the media landscape a little more. The number of users grew by the millions faster than any other app before. Unfortunately, this is also noticeable in the performance and crashes of the platform. ChatGPT, however, wants to counteract this somewhat with a „Plus“ paid version. But ChatGPT’s competitors now have the upper hand, e.g. Google (Bard), Jasper, Deepmind (Sparrow), Anthropic (Claude), Meta (OPT-175B Open Pretrained Transformer & Sphere [& Galactica, already discontinued in 2022), PaLM (github open source), BLOOM (BigScience Large Open-science Open-access Multilingual Language Model) and many others. Fact-based models such as IBM’s Watson or Theum are also blossoming here. Currently, many AI applications are more-or-less free. As soon as a platform becomes established, the services will cost a lot of money. It is not yet clear who will win the war for the most important AI platform.

Of course, we also started testing ChatGPT in December last year. Of course, we concentrated on „our“ topics around information management and information governance. ChatGPT delivers very good results here.

Therefore, we decided in February to publish another library with standardised ChatGPT articles in German and English in our Essentials parallel to our „topics“, which were imported from the PROJECT-CONSULT website. While the articles in „Information Management Topics“ are of different ages (some last updated in 2021), the ChatGPT articles all come from the training base up to and including 2021 as well. This allows a direct comparison of researched and manually created articles to automatically produced ones with artificial intelligence. For the articles in the library „ChatGPT Topics & Topics“ we have always used the same question types as prompts for ChatGPT. These are 5 questions ranging from definitions to benefits of the respective topic. We did not translate the answers, but „threw“ the questions in German into English again to ChatGPT and got the new English answers. Therefore, ChatGPT’s answers differed in the German and English versions. This becomes particularly clear with terms from the German-speaking world such as „audit-proof archiving“ or „virtual file“.

The „Topics & Topics“ can be found here in our Essentials on Theum: https://bit.ly/ThemenTopics. Currently available are articles on BPM Business Process Management, ChatGPT, Digital Long-Term Archiving, GRC Governance, Risk Management & Compliance, IIM Intelligent Information Management, Information Governance, Records Management, Audit-Proof Archiving, RPA Robotic Process Automation and Virtual Electronic Record.

We welcome comments here on the post about how you rate the performance and quality of ChatGPT’s content.

Dr. Ulrich Kampffmeyer

Curriculum auf Wikipedia https://de.wikipedia.org/wiki/Ulrich_Kampffmeyer

4 Kommentare zu “ChatGPT verändert die KI-Landschaft

  • ChatGPT: reichlich Diskussionsbedarf
    2. März 2023 um 16:43
    Permalink

    Unser Beitrag und unsere eigenen Versuche mit ChatGPT (http://bit.ly/3uHLHVE) haben deutlich gemacht, dass große Sprachmodelle nutzbringend eingesetzt werden können. Die Liste im Kommentar https://bit.ly/3kDyP1g führt über 50 mögliche Anwendungsfelder auf. In Bezug auf die laufenden Diskussionen rund um ChatGPT und seine Wettbewerber möchte ich einige Themen aufgreifen:

    • ChatGPT ist keine AI Artificial Intelligence
      Diskussionen im wissenschaftlichen Umfeld räumen LLMs Large Language Models noch nicht das Prädikat KI Künstliche Intelligenz ein (Bender in der NZZ). Noch immer bestimmen Trainingsmaterial und Trainingsmethoden die Qualität von Ergebnissen. Der Anteil „eigenständigen Entscheidens und Denkens“ ist denkbar gering. ChatGPT hat aber das Thema AI publikumsfähig gemacht und beschleunigt so einen Trend, der bereits mit frei zugänglichen  Bildgeneratoren wie Dall-E, Stable Diffusion und Midjourney begonnen hat. Wir sind im Zeitalter der Algorithmen angekommen (http://bit.ly/3J4iNXO).
    • Interne Anwendungen
      Der Nutzen für interne Anwendungen ist eingeschränkt, da diese einerseits erst trainiert werden müssen, die Datenbasis zu homogen für „neue Entdeckungen“ ist und andere Wissensmanagement-Lösungen hier zielgenauer und im Kontext unternehmensinterne Information erschließen. Für interne Anwendungen lassen sich nur geringe Effekte mittels LLMs umsetzen. Vielleicht am Ehesten noch das Ausformulierungsmodul NLP, dass Inhalte in natürlicher Sprache verarbeiten und präsentieren kann. Die Informationsgrundlagen der aktuell frei verfügbaren Lösungen wie ChatGPT (trainiert an einem großen, abgeschlossenen und kontrollierten Informationsbestand), Bard (trainiert an Inhalten des Internets und dadurch aktueller) und vergleichbarer Lösungen sind sehr unterschiedlich, bieten aber durch die große Trainingsmenge neue, zum Teil sehr gute Ergebnisse, die bisherige Suchmaschinen wie Google nicht erzielen konnte.
    • Übererwartung
      Durch ChatGPT wird eine Übererwartung erzeugt, die auch durch Integration von ChatGPT in anderen Anwendungen wie Enterprise Search, Datenbanken, ERP, CRM usw. nicht erreicht werden kann. Durch ChatGPT wird in der Öffentlichkeit suggeriert, dass Dialoge mit KI so ablaufen wie in der GPT-Variante. Die Einfachheit wird nicht nur im Vergleich zu Standard-Suchmaschinen sondern auch zu Wissensmanagement-, Dokumentenmanagement-, Hilfe- und Support-, ECM- und anderen Dialog-orientierten Anwendungen herangezogen. Viele Anwendungen wirken mit einem Mal „altertümlich“. ChatGPT wird so auch zu einem neuen Maßstab für Anwenderfreundlichkeit. Allerdings hilft die Integration von LLMs, sei es nun GPT selbst oder andere Modelle (auch Open Source), solchen Anwendungen in der Regel nicht, da häufig andere Fragen auf Basis strukturierter Daten im Kontext und Faktenbasiert eruiert werden müssen.
    • Arbeitsplatzverlust
      AI verändert Arbeitsplätze und die damit verbundene Automation führt zum Wegfall von Arbeitsplätzen. Routine-Arbeiten in Workflow- und Business-Process-Management-Anwendungen werden bereits mit Robotic Process Automation (RPA) automatisiert. Kundenservice mit CRM und Support wird sich verändern. Und auch kreative Jobs und Entscheider-Rollen werden sich verändern oder ganz entfallen, Bereiche betreffen. Aber es werden auch neue Job-Profile entstehen (siehe z.B. hier https://bit.ly/3EKe5vN). Für hochindustrialisierte Ländern mit Problemen in der Alterspyramide wird die bessere Unterstützung durch „intelligentere“ (IIM, siehe auch hier http://bit.ly/3J76GJu) Software aber eher ein Segen sein.
    • Rechtsfragen & KI-Ethik
      Die Nutzung von Trainingsmaterial aus dem Internet, von Webseiten, Online-Lexika und anderen öffentlich zugänglichen Quellen wirft bereits heute Urheberrechts- und CopyRight-Fragen auf. Dies gilt für Bilder, die von Dall-E und anderen, aber auch für nicht referenzierte, aus dem Kontext genommene und nichts referenzierte originäre Quellen in Texten von ChatGPT. Damit sind wir ganz schnell auch beim Thema Ethik für Künstliche Intelligenz. Aktuelle Initiativen, z.B. auf europäischer Ebene, werden quasi durch ChatGPT und andere KI-Generatoren im Sprache-, Bild-, Audio- und Video-Bereich überholt. Schon stellt sich die Frage, ob ChatGPT auf Grund möglicher Verstöße gegen das Datenschutzrecht verboten wird (verboten werden muss; siehe auch https://www.basicthinking.de/blog/2023/02/21/chatgpt-datenschutz-eu/).

    ChatGPT hat so bereits auf sehr vielen Ebenen Vieles bewegt und notwendige Diskussionen angestoßen. AI Artificial Intelligenz ist heute bereits nicht mehr aus der Welt der Kommunikation und Information wegzudenken. In zunehmend komplexen und vernetzten Systemen wird KI Künstliche Intelligenz die einzige Möglichkeit sein, solche Systeme noch zu managen und zu beherrschen. Es liegt an uns, KI als Chance für die Zukunft zu begreifen.  So pessimistisch wie Stephen Hawking („… the worst Invention in the History of our Civilisation„) ist der Blick in eine gemeinsame Zukunft mit KI 8-Unterstützung) für die Menschen nicht. Die wichtigste Aufgabe, die ich für KI in Zukunft sehe, ist die Bewahrung des Lebensraums Planet Erde vor der Unvernunft und Gier der Spezies Homo „sapiens“. Schon heute ist manche Software humaner und ethischer als der Mensch. Dennoch darf man die Risiken, die mit sich selbst programmierender und verbreitender KI-Software (siehe z.B. http://bit.ly/3kE8JeC) entstehen, nicht unterschätzen. Es gilt, jetzt bereits die Pflöcke für die Information Governance bei Artifical Intelligence einzuschlagen.

    Antwort
    • Ethik-Rat: Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz
      20. März 2023 um 16:12
      Permalink

      Der von der Bundesregierung eingesetzte Ethik-Rat hat sich ausführlich mit dem Thema KI Künstliche Intelligenz beschäftigt. Am 20.03.2023 erschien die Stellungnahme „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“ mit 287 Seiten: http://bit.ly/3YV24Le.

      Darin wird auf vier Hauptthemen eingegangen – Medizin, Bildung, Kommunikation & Meinungsbildung und Öffentliche Verwaltung. Die Forderungen nach Regelwerken ist aber schon fast unrealistisch. Die Anbieter von KI im Web mauern auch gegen den Versuch der EU mit dem AI Act Grenzen und Regeln zu etablieren. Es ist klar, dass KI viele Berufe verschwinden lässt oder drastisch verändert. Dies geschieht bereits heute mit der generellen Artificial Intelligenz, die nicht auf ein bestimmtes Fachgebiet spezialisiert und öffentlich zugänglich ist. Aktuell vorn dabei ChatGPT. Die Herausforderungen für Jobs kommen aber besonders dann, wenn AI vermehrt in die Unternehmenssoftware einzieht. Neben Berufsbildern fallen auch bisherige Software-Werkzeuge wie Übersetzungen, Klassifikation von Information, Auskunftswesen, Auswertungen, Informationserfassung, Wissensmanagement usw. der neuen intelligenteren Software zum Opfer.
      Diese Entwicklung lässt sich kaum durch Vorgaben von Ethik-Räten und -Kommissionen verhindern. Die Büchse der Pandora steht weit offen.

      Liest man die 287 Seiten des Berichts, so zeigen sich bereits heutige die Verwerfungen durch KI. Nach einer langen Einleitung folgt in Teil 1 „technische und philosophische Grundlegungen“ auf 70 Seiten eine in vier Kapitel gegliederte grundsätzliche Auslegung, warum und wo ethische Regeln notwendig sind, wie das Verhältnis von Mensch und Maschine zu betrachten sein soll. Dort findets ich auf Seite 134 – also fast in der Mitte des Dokumentes- die Aussage „Im Rahmen der philosophischen Handlungstheorie können Maschinen nicht handeln und kommen als genuine Akteure mit Verantwortung nicht infrage.“. Dieser Ansatz ist angesichts der aktuellen Entwicklung bereits überholt. Software tritt schon seit langem vom Menschen unabhängige Entscheidungen und KI ist ein selbständig handelnder Akteur. Da hilft auch nicht weiter, wenn der stellvertretende Leiter des Ethik-Rates, Julian Nida-Rümelin, sich wie folgt positioniert: „KI-Anwendungen können menschliche Intelligenz, Verantwortung und Bewertung nicht ersetzen.“. Algorithmen tun dies bereits – sichtbar oder im Untergrund der Systeme.

      In Teil 2 „Ausgewählte Anwendungen und sektorspezifische Empfehlungen“ werden in den Kapitel 5 bis 8 vier Schwerpunkte betrachtet.

      Im medizinischen Bereich unterstützt bereits KI die Diagnostik und wird auch in andere Bereiche wie z.B. Versorgung vordringen. In der Medizin spielt auch der bessere Zugang zu Forschungsdaten und deren maschinengestützte Auswertung eine zunehmend wichtige Rolle. Neun Empfehlungen (Seite 160 – 162)  konzentrieren sich auf Offenlegung, Datenschutz, Ausbildung, Forschung und weitere Themen – lassen aber offen, dass selbst die Rolle der Ärzte in einigen Bereichen als gefährdet zu betrachten ist.

      Im Folgekapitel zum Thema Bildung wird auf Lehr- und Lern-Systeme eingegangen und besonders auf die Möglichkeiten von KI in kritischen Situationen wie z.B. Corona, wo es keine Präsenz-Lehre mehr gab sondern Fernunterricht die Regel wurde. Aber im Schulwesen zeigt sich bereits heute, dass mittels GPT-LLM-Tools Schüler und Studenten sich das Leben beim Schreiben von Arbeiten leicht machen und damit die Bewertungsmassstäbe verändern. Wird aber KI den Lehrermangel überwinden helfen? Ob sich die KI zukünftig an den „grundlegenden Bildungsvorstellungen“ der Ministerien, Kommissionen und Schulleitungen halten wird? Liest man die Zusammenfassung und die elf Empfehlungen (Seiten 184 – 186) so zeigt sich, dass aktuelle Entwicklungen einiges bereits wieder obsolet machen.  Immerhin sollen KI-basierte Tools Lernenden grundsätzlich auch für das Eigenstudium zur Verfügung stehen – doch wer stellt diese dann in welcher Form in einem föderalistisch organisierten Bildungsumfeld zur Verfügung. Vieles in der Empfehlungen ruft nach Überwindung der Länder-Zuständigkeiten beim Einsatz und bei der Kontrolle von Künstlicher Intelligenz.

      Kapitel 7 „Öffentliche Kommunikation und Meinungsbildung“ beschäftigt sich Meinungsbildung, Algorithmen, Moderation, Social-Media, Informationsqualität und Beeinflussung von Nutzern. Hier spielen Fake-News, manipulative Beeinflussung, politische Werbung, emotionale Manipulation immer kritischere Rollen für den Zusammenhalt der Gesellschaft. Der Ethik-Rat setzt auf mehr Kontrolle, Moderation und Verantwortung der Anbieter von Online-Plattformen. Einschränkungen bei der Nutzung persönlicher Daten spielen hier auch eine wichtige Rolle. Fazit und Empfehlungen (Seite 216 – 222) setzen auf mehr Regulierung und Kontrolle. Für Ideen wie eine eigene öffentlich-rechtliche digitale  Kommunikationsinfrastruktur – weiter hinten im Dokument – dürfte es aber wenig Chancen (und auch wenig Sinn) geben.

      Ähnlich sieht es beim Einsatz von KI in der Öffentlichen Verwaltung aus. Schutz von Daten, Einspruchsrechte und ähnliche Vorgaben zieren das Dokument. Die Auseinandersetzung mit automatisierten, KI-unterstützten Entscheidungen findet nur am Rand statt und verbirgt sich hinter kryptischen Überschriften wie „Ethische Fragen algorithmischer Automatisierung im Verwaltungshandeln“. Solche automatischen Entscheidungssysteme gibt es z.B. bereits in der Software für die Informationsverwaltung im Sozialwesen. Aber auch spezielle Sonderthemen wie „Predictive Policing – KI in der Kriminalitätsbekämpfung“ kommen zur Sprache. Ist das Ersetzen von Mitarbeiter:innen durch Software, die Einschätzungen und Entscheidungen trifft, die Zukunft der öffentlichen Verwaltung, der große Sprung nach vorn um endlich mit E-Government voranzukommen? Das Fazit wird mit neun Empfehlungen ergänzt (Seite 247-251). Alles wohlgemeint, aber in den aktuellen Strukturen der öffentlichen Verwaltung kaum umsetzbar.

      An die Zusammenfassung in Kapitel 9 schließt sich noch ein interessantes Kapitel 10 zur Entfaltung von Querschnittsthemen an. Diese zeigen die Komplexität und die Überschneidungen in allen betrachteten Bereichen auf. Die Einzelempfehlungen der Kapitel 5 bis 8 werden hier zum Teil wieder konterkariert. Doch sind die Aussagen und Empfehlungen bei der Querschnittsthemen hilfreich? Als Beispiel hier einmal die sehr akademische Empfehlung beim Querschnittsthema 1: Erweiterung & Verminderung von Handlungsmöglichkeiten. „Empfehlung Querschnittsthema 1: Da die Vor- und Nachteile von KI-Anwendungen für verschiedene Personengruppen sowie die Gefahr des Verlustes bestimmter Kompetenzen bei den Personen, die solche Systeme anwenden, erheblich variieren, bedarf es sowohl einer differenzierten Planung des KI-Einsatzes in unterschiedlichen Handlungsfeldern, welche die jeweiligen Zielsetzungen und Verantwortlichkeiten präzise benennt, als auch einer zeitnahen Evaluation der tatsächlichen Folgen eines solchen Einsatzes, um die Systeme besser an die spezifischen Handlungskontexte anzupassen und sie fortlaufend zu verbessern.“ Wie soll man mit dieser Sammlung von Allgemeinplätzen umgehen? Ähnlich sieht es auch bei der Folgethemen aus, wie z.B. „Wissenserzeugung durch KI und der Umgang mit KI-gestützten Voraussagen“, „Die Gefährdung des Individuums durch statistische Stratifizierung“, „Auswirkungen von KI auf menschliche Kompetenzen und Fähigkeiten“, „Schutz von Privatsphäre und Autonomie versus Gefahren durch Überwachung und Chilling-Effekte“, „Datensouveränität und gemeinwohlorientierte Datennutzung“, „Kritische Infrastrukturen, Abhängigkeiten und Resilienz“, „Pfadabhängigkeiten, Zweitverwertung und Missbrauchgefahren“, „Bias und Diskriminierung“ und zehntens „Transparenz und Nachvollziehbarkeit – Kontrolle und Verantwortung“. Das volle Programm aller Probleme.

      Akademisch betrachtet alles richtig, durch Hunderte von Anmerkungen und Referenzen belegt – aber angesichts der Geschwindigkeit, die der Einsatz von KI, Maschinenlernen und Automation gerade vorlegt, kaum umsetzbar. Gerade die Komplexität des Themas und der immer wieder zitierte Bedarf an Regularien wird sich eigentlich nur durch den Einsatz von noch mehr KI umsetzen lassen. Also KI zur Steuerung und Überwachung von KI, die ihrerseits auf Grund der Komplexität nur durch eine weitere, noch höher entwickelte KI kontrolliert werden kann – wenn sich selbst lernende, selbst programmierende, sich selbst vor Löschung schützende Künstliche Intelligenz nicht vollständig der Kontrolle entzieht.

      An dieser Stelle wollen wir das Fazit der Studie dem geneigten Leser nicht vorenthalten (Seite 286 http://bit.ly/3YV24Le): „Im Rahmen dieser Stellungnahme wurden die Auswirkungen einer zunehmenden Delegation menschlicher Tätigkeiten an digitale Technologien, insbesondere KI-basierte Softwaresysteme, analysiert. In zahlreichen Beispielen aus den Bereichen der Medizin, der schulischen Bildung, der öffentlichen Kommunikation und Meinungsbildung sowie der öffentlichen Verwaltung zeigte sich, dass dieses Delegieren sowohl mit Erweiterungen als auch mit Verminderungen menschlicher Handlungsmöglichkeiten einhergeht und sich dadurch sowohl förderlich als auch hinderlich auf die Realisierung menschlicher Autorschaft auswirken kann. Eine Berücksichtigung dieser Auswirkungen sollte daher jedweder Entscheidung über eine Delegation menschlicher Tätigkeiten an Softwaresysteme – bis möglicherweise hin zu einer vollständigen Ersetzung des Menschen durch algorithmische Systeme – vorausgehen.
      Ziel und Richtschnur ethischer Bewertung muss hierbei immer die Erhöhung menschlicher Autorschaft sein. Dabei ist zu berücksichtigen, dass die Erweiterung von Handlungsmöglichkeiten für eine Personengruppe mit deren Verminderung für andere einhergehen kann. Diesen Unterschieden ist Rechnung zu tragen, insbesondere in Hinblick auf den Schutz und die Verbesserung der Lebensbedingungen vulnerabler oder benachteiligter Gruppen. Die hier vorgelegte Analyse hat zahlreiche übergreifende Themen offengelegt, die in allen vier untersuchten Sektoren aufscheinen – wenn auch nicht immer in gleicher Art und Weise. Letztlich zeigt sich, dass die normativen Anforderungen an die Gestaltung und den Einsatz solcher Technologien, beispielsweise in Bezug auf Anforderungen hinsichtlich Transparenz und Nachvollziehbarkeit, den Schutz der Privatsphäre sowie die Verhinderung von Diskriminierung, zwar in allen Bereichen und für alle Betroffenen von hoher Bedeutung sind, sie jedoch sektor-, kontext-, und adressatenspezifisch konkretisiert werden müssen, um angemessen zu sein und wirksam werden zu können.“

      Ein hehres Papier, ein hehres Ziel, jedoch von der Umsetzung weiter entfernt als noch vor wenigen Monaten.

      Antwort
  • Microsoft & GPT4
    11. März 2023 um 10:15
    Permalink

    Microsoft hat angekündigt, ChatGPT mit GPT-4 bereits in den nächsten Tagen bereitzustellen. Die Ankündigung wurde Andreas Braun, Chief Technology Officer bei Microsoft in Deutschland auf dem Event „AI in Focus — Digital Kickoff” gemacht. Eher beiläufig erwähnte Braun das unmittelbar bevorstehende Release von GPT-4.  Das noch größere LLM Large Language und Transformations-Modell soll auch ein multimodales Modell bekommen, das Bilder und Videos einschließt. ChatGPT-4 wurde mit einem deutlich größeren und aktuelleren Datensatz als das derzeitige ChatGPT-3 trainiert. Auch die Architektur wurde weiterentwickelt um auch komplexere Inhalte zu verstehen. Dies schlägt sich auch in einer höheren Anzahl von Parametern nieder, die es erlauben, aussagekräftigere Auskünfte zu geben und Zusammenhänge besser zu erfassen. Dies erlaubt zudem, die Historie der bisherige Dialoge mit einem Nutzer auszuwerten und bei der Beantwortung von neuen Fragen einzubeziehen. Vorangegangene Fragen und Antworten werden als Kontext für die nächsten Antworten benutzt. Das kann allerdings auch dazu führen, dass der Nutzer sich irgendwann in einer Blase wiederfindet, die nur das beinhaltet, was er selbst betrachtet. ChatGPT-4 soll eine Art „Selbst-Aufmerksamkeit“ erhalten, um Kontexte und thematisches Umfeld von Fragen noch besser einzubeziehen. Auch bei der Multilingualität hat sich einiges getan: mehr Sprachen und mehrsprachige Dialoge sollen unterstützt werden. GPT-3 soll sowohl auf der  ChatGPT-lattform von openAI als auch in der in BING integrierten Version durch GPT-4 ersetzt werden.

    Antwort
  • Neues zu ChatGPT
    25. März 2023 um 17:34
    Permalink

    #ChatGPTprompter
    Ich bin auch ein ChatGPT-Prompt-Writer. Ich kann aus wissenschaftlichen Texten Gedichte zaubern. Ich kann komplette Vorträge von ChatGPT schreiben lassen (https://bit.ly/3XLBN2d). Für Marketing-Slogans, Drehbücher, Produktbeschreibungen bin ich auch gut zu gebrauchen. Wer zahlt mir im Jahr 300.000 €?
    https://www.spiegel.de/karriere/chatgpt-prompt-writer-und-prompt-engineers-verdienen-bis-zu-335-000-dollar-im-jahr-a-a54a93a5-e20d-40e6-b235-28aec0bddaaa

    #ChatGPToptimisation
    ChatGPT-Feintuning: Wie man die KI optimal einsetzt. Antworten sind nur so gut wie die Fragen (bzw. längeren Vorgabentexte, die ChatGPT steuern).
    https://www.heise.de/hintergrund/ChatGPT-Feintuning-Wie-man-die-KI-optimal-einsetzt-7532095.html?wt_mc=intern.red.plus.topteaser.startseite.teaser.teaser

    #ChatGPTfollowUp
    KI, die nächste Welle: Was kommt nach Chat GPT-4?ChatGPT ist weder neu, noch einzigartig – selbst wenn die neue Version 4 nun auch Bilder kann . Eine ganze Reihe von KI-Technologien wartet in der Pipeline. Was kommt als nächster Mega-Hype?
    https://www.ibusiness.de/aktuell/db/273836sh.html

    #ChatGPTausChina
    Sprachmodell größer als GPT‑3: Baidu enthüllt eigenen Chatbot
    Schon seit einigen Jahren arbeitet die chinesische Suchmaschine Baidu an einem KI-generierten Chatbot. Nachdem OpenAI ihr mit ChatGPT zuvorgekommen ist, soll Ernie im März endlich online gehen.
    https://t3n.de/news/baidu-chatbot-ernie-chatgpt-1532864/

    #ChatGPTbyAmazon
    Amazon’s Cloud Unit Partners With Startup Hugging Face as AI Deals Heat Up
    Amazon Web Services will offer the startup’s products to its customers and run its next large language tool
    https://www.bloomberg.com/news/articles/2023-02-21/amazon-s-aws-joins-with-ai-startup-hugging-face-as-chatgpt-competition-heats-up#xj4y7vzkg

    #ChatGPTbyGoogleBard
    An overview of Bard: an early experiment with generative AI
    https://ai.google/static/documents/google-about-bard.pdf

    #ChatGPTmodels
    7 language models you need to knowParameter size is not always an indication of quality
    https://aibusiness.com/nlp/7-language-models-you-need-to-know

    #ChatGPTLLM
    Is Large Language Models (LLM) the future of AI?
    https://www.spritle.com/blogs/2023/01/15/large-language-models-llm-its-future-of-ai/

    #ChatGPTrobotics
    Jetzt steuert ChatGPT schon Roboter
    https://www.wiwo.de/technologie/digitale-welt/kuenstliche-intelligenz-jetzt-steuert-chatgpt-schon-roboter/29058210.html

    #ChatGPTschreibt
    AI Methods: Liste mit 10 Punkten aktueller unterschiedlicher AI Artificial Intelligence Methoden mit Bezeichnung, Akronym, :, Erklärung, in Deutsch

    Hier sind einige aktuelle AI-Methoden:

    1. Convolutional Neural Networks (CNNs): CNNs sind eine Art von Deep-Learning-Netzwerken, die hauptsächlich für die Bilderkennung und -klassifizierung verwendet werden.
    2. Recurrent Neural Networks (RNNs): RNNs sind ein Typ von Deep-Learning-Netzwerken, die für die Verarbeitung von sequenziellen Daten wie Texten und Sprache verwendet werden.
    3. Generative Adversarial Networks (GANs): GANs sind eine Art von Deep-Learning-Netzwerken, die verwendet werden, um neue, künstliche Daten zu generieren, indem sie zwei konkurrierende Netzwerke gegeneinander antreten lassen.
    4. Reinforcement Learning (RL): RL ist ein maschinelles Lernverfahren, bei dem ein Agent durch Interaktion mit seiner Umgebung lernt, eine bestimmte Aufgabe zu erfüllen.
    5. Transfer Learning: Transfer Learning ist ein Ansatz des maschinellen Lernens, bei dem ein bereits trainiertes Modell auf eine neue, ähnliche Aufgabe angewendet wird, um die Trainingszeit und die benötigten Daten zu reduzieren.
    6. Natural Language Processing (NLP): NLP bezieht sich auf die Fähigkeit von Computern, menschliche Sprache zu verstehen und zu verarbeiten.
    7. Bayesian Networks: Bayesian Networks sind eine probabilistische Modellierungstechnik, die verwendet wird, um unsicherheitsbehaftete Zusammenhänge zwischen Variablen zu modellieren.
    8. Evolutionäre Algorithmen: Evolutionäre Algorithmen sind Algorithmen, die auf der Theorie der Evolution basieren, um Optimierungsprobleme zu lösen.
    9. Fuzzy Logic: Fuzzy Logic ist eine Methode, um Unsicherheit und Mehrdeutigkeit in der Sprache und Datenverarbeitung zu modellieren.
    10. Deep Reinforcement Learning (DRL): DRL kombiniert Reinforcement Learning und Deep Learning, um komplexe Aufgaben zu lösen, die eine lange Zeithorizonte und große Aktionsspielräume erfordern.
    Antwort

Neuen Kommentar verfassen

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Ich stimme zu, dass die von mir eingegebenen Daten einschließlich der personenbezogenen Daten an PROJECT CONSULT übermittelt und dort zur Prüfung der Freischaltung meines Kommentars verwendet werden. Bei Veröffentlichung meines Kommentars wird mein Name, jedoch nicht meine E-Mail und meine Webseite, angezeigt. Die Anzeige des Namens ist notwendig, um eine individuelle persönliche Kommunikation zu meinem Beitrag zu ermöglichen. Anonyme oder mit falschen Angaben eingereichte Kommentare werden nicht veröffentlicht. Zu Nutzung, Speicherung und Löschung meiner Daten habe die Datenschutzerklärung zur Kenntnis genommen.

Ich versichere, mit meinem Kommentar alle gültigen Vorgaben des Urheberrechts beachtet zu haben. Ich habe keine Bilder, Grafiken, Texte oder Links in meinem Beitrag verwendet, die durch CopyRight, Leistungsschutzrecht oder Urheberrecht geschützt sind. Für den Inhalt meines Kommentars bin ich trotz Prüfung und Freischaltung durch PROJECT CONSULT ausschließlich selbst verantwortlich. Meine Rechte am Beitrag werden bei PROJECT CONSULT nur durch die CC Creative Commons by-nc-nd Vorgaben gewahrt.