Seit der Einführung des AI-Bots ChatGPT im Jahr 2022 überschlug sich der öffentliche Diskurs damit, künstliche Intelligenz wahlweise als Weltuntergang, Vollautomatisierung oder Heilsversprechen zu framen. Google und Microsoft investieren enorme Summen in die neue Technologie, Gesetzesanpassungen wurden auf den Weg gebracht, und ganze Branchen fürchten um ihre Zukunft. Eine differenzierte Begriffsnutzung fällt in der aufgeheizten Debatte schnell unter den Tisch. Wir versuchen eine Abkühlung.
Unser Firmengründer und Vorstand Arnulf Koch wird immer wieder nach Prognosen bezüglich künstlicher Intelligenz gefragt. Klar, die Unsicherheit ist groß, und damit wächst der Bedarf an unaufgeregter, fachlich fundierter Aufklärung. Bei diesen Fragen schwingt auch immer die Überlegung mit, wie KMUs künstliche Intelligenz produktiv nutzen können und welche großen Versprechungen doch eher in die Kategorie Zukunftsmusik fallen.
Bei jeder Progonose und jedem Text über AI ist es wichtig zu beachten, dass er nur einen technologischen Schnappschuss darstellen kann. Auch wenn sich die Entwicklung vieler Modelle etwas verlangsamt hat, haben wir es immer noch mit einer disruptiven und sich schnell verändernden Technologie zu tun.
Künstliche Intelligenz, GPT, ChatGPT – was ist da eigentlich der Unterschied?
Im öffentlichen Diskurs rund um künstliche Intelligenzen werden schnell mal Begriffe durcheinander geworfen. Das betrifft ganz besonders das Trio „künstliche Intelligenz“ (kurz „KI“ oder „AI“ für das englische „Artificial Intelligence“), „GPT“ und „ChatGPT“. Rollen wir das Feld ein bisschen auf:
Künstliche Intelligenz ist der Dachbegriff für eine lange Entwicklungsgeschichte. Und die hat streng genommen schon lange vor Computern angefangen. Neu ist allerdings, dass wir mit Systemen, die in bestimmten Bereichen sehr komplizierte Dinge durchführen können, immer näher an etwas kommen, das man tatsächlich als Intelligenz bezeichnen kann.
GPT ist der Begriff für ein bestimmtes KI-Modell. OpenAI entwickelt mindestens seit Mitte der 2010er-Jahre an einem Modell mit dem Namen „Generative Pre-trained Transformer“ (GPT). Der Begriff GPT wird aber nicht exklusiv von OpenAI genutzt, sondern benennt eine bestimmte Trainingsart. Allerdings wurden die nummerierten GPT-Versionen, die OpenAI ab 2018 periodisch vorstellte, quasi synonym mit der Technologie. Nachdem die Version 3.0 den Bildgenerator Dall-E steuerte und die Version 3.5 Grundlage für den Chatbot ChatGPT wurde, ist das Modell „GPT + Versionsnummer“ zum Symbol für die AI-Revolution geworden.
Es gibt viele verschiedene Modelle, die in der gegenwärtigen KI-Welle eine Rolle spielen. OpenAI, das die nummerierten GPT-Modelle entwickelt, ist nicht das einzige Unternehmen, das dank steigender Rechenkraft und enormen Forschungsinteresse schnelle Fortschritte macht. Google entwickelt beispielsweise „Gemini“, während xAI das kontroverse Modell „Grok“ auf den Markt gebracht hat.
ChatGPT ist eine Konversationsmaschine auf Basis von GPT 3.5 und GPT 4.0. OpenAI forscht mit seinen GPT-Modellen in vielen verschiedenen Anwendungsbereichen. ChatGPT ist ein Maschine, die speziell dazu entwickelt wurde, mit menschlichen Nutzern möglichst organische Konversationen zu führen. Als natürliches Interface wird es inzwischen als organische Schnittstelle mit darunterliegenden nummerierten GPT-Modell genutzt.
Wie wird GPT denn trainiert?
GPT-Modelle werden in zwei Stufen trainiert. Beide Stufen versuchen, Aspekte menschlicher Sprachentwicklung abzubilden. In der ersten Stufe lernt ein System durch das Lesen und Verarbeiten eines großen Textkorpus’ die Bildung wahrscheinlicher Strings (eine Kette an Zeichen, also Sätze, Phrasen, Formeln, usw.). In der zweiten Stufe wird das gelernte Wissen durch menschliches Feedback verstärkt.
Die Aneignung und Speicherung des Wissens funktioniert dabei wie in einem menschlichen Gehirn. GPT greift auf Informationen über Synapsen, bzw. „Nodes“ (dts. „Knotenpunkte“), zu. Entlang dieser Nodes wird dann ein Output generiert. Auch unser Gehirn ist eine Art Netzwerk, bei dem jede Information, zum Beispiel welches Wort oder welcher Buchstabe für einen koheränten Satz als nächstes gesagt werden muss, eine Art Straßennetz zurücklegen muss. Werden bestimmte Kombinationen häufig gebraucht, wird die entsprechende Verbindung ausgebaut. Es ist ein bisschen wie im Straßenverkehr, wenn viel befahrene Straßen neue Spuren und einen frischen Belag bekommen.
Die Aufgabe für den Ersteller eines GTP-Modells ist also, das richtige Straßennetz zu bauen. Ein Computer muss anhand der Eingabe eines Users einen (virtuellen) Gedanken auf den Weg schicken können, der an jeder Kreuzung die richtige Richtung ermitteln kann. Dieses Ziel erreicht man, indem man anhand vieler (vieler!) Vorlagen die richtigen Synapsen ausbaut und die falschen Synapsen ausschließt.
Zwischen Textanalyse und menschlicher Intervention
Woher OpenAI diese vielen Vorlagen nimmt, gibt das Unternehmen inzwischen nicht mehr bekannt. Klar ist, dass der Korpus, also die Texte, die zum Training herangezogen werden, gigantisch ist. Ein nummeriertes GPT ist belesener als jeder Literaturwissenschaftler. Neue Versionen nutzten Milliarden über Milliarden an Tokens, wie man die Trainingsbausteine nennt, um ihr Synapsennetz auszubauen.
OpenAIs Art, ihrem Modell das Sprechen und Denken beizubringen, spiegelt den menschlichen Spracherwerb, ist aber sehr viel schneller. Wie ein Kind, das seinen Eltern beim Sprechen zuhört, nimmt das Modell Informationen auf und formt daraus seine eigenen mentalen Netzwerke. Ein Kind kann aber nicht vollständig ohne menschliches Zutun das Sprechen lernen. Genauso braucht auch GPT eine menschliche Kontrollinstanz. Dieses Fine-Tuning funktioniert über sogenanntes „reinforcement learning from human feedback“ (RLHF).
Beim RLHF gibt GPT Textfetzen aus, die von Menschen ausgewertet und in richtig und falsch eingeteilt werden. Auf diese Art werden die Lernfortschritte des Modells geprüft und korrigiert. Der Trainingsaufwand ist dabei enorm. Es wird zwar nicht die astronomische Anzahl an Tokens erreicht, die GPT im ersten Schritt verarbeiten muss, rund um die Uhr arbeiten aber unzählige Menschen an der kontinuierlichen Verbesserung von GPT.
AIs schreiben nicht nur Texte, sondern formulieren auch gute Fragen. (Bild: K&K Software AG)
Die Sache mit der Ethik
Bei der RLFH setzt auch die erste größere Kritik an AI an. Die Arbeit dieser Clickworker wird laut Medienberichten nämlich nicht gerade besonders gut bezahlt. Das gilt insbesondere, wenn man bedenkt, welchen Bildern und Textausschnitten die Arbeiter teils ausgesetzt sind. OpenAI reagiert zwar auf solche Medienberichte, aber das Grundproblem bleibt. Woher kann man ausreichend bezahlbares Personal für diesen Lernaufwand hernehmen? Auch die Klimafrage stellt sich beim Training der Modelle. Die Verarbeitung der unzähligen Tokens brauchen nämlich orgentliche Mengen an Strom. Die Green IT kann da zwar etwas Abhilfe schaffen, aber das Problem lösen kann sie nicht.
Das sind aber nicht die einzigen Aspekte, die Kritiker von AI-Technik gerade umtreiben. Europol erklärt, dass die schnelle Produktion von künstlichen Bildern, Videos und Texten der Generation von Fake-News entscheidenden Vorschub leisten, Phishing erleichtern und Cyberkriminellen helfen. AI müsse daher schnell reglementiert werden.
Ganz von der Hand zu weisen ist kein Kritikpunkt. Trotzdem ist künstliche Intelligenz nun einmal da. Daran ändert auch kein Entwicklungsstopp mehr etwas. Unsere Verantwortung als Unternehmen und als Privatperson liegt nun darin, die neue Technologie verantwortungsbewusst und produktiv einzusetzen, um ein gesundes und möglichst nachhaltiges Verhältnis zu AI zu entwickeln.
Wie man künstliche Intelligenz praktisch einsetzt
Mit künstlicher Intelligenz kann man auf viele verschiedene Arten interagieren. Am häufigsten nutzen Interessierte die Angebote von OpenAI direkt, indem sie mit Chatbots wie ChatGPT oder Bildgeneratoren wie Dall-E interagieren. Das ist in der Regel entweder kostenlos oder zumindest sehr günstig, da OpenAI die Kosten subventioniert und auf ein hauseigenes AI-Modell zurückgreifen kann.
Neben den Produkten von OpenAI gibt es noch andere Unternehmen, die auf nummerierte GPT-Versionen zurückgreifen. Ein prominentes Beispiel dafür ist Writesonic, das sich auf schnellen Output für Webcontent spezialisiert hat. Das Unternehmen bietet Produkte für die schnelle Erweiterung und Kürzung von Texten, für die Erstellung von Leitfragen zu bestimmten Themen, oder für die direkte Generation von Zusammenfassungen an.
Produkte wie Writesonic kann man auch als API in eigene Unternehmensanwendungen einbinden. Bezahlt wird dabei in der Regel nach Tokens (i.d.R. Silben oder Wörter bei der OpenAI-API) oder direkt nach Wörtern (z.B. bei Writesonic), in letzterem Fall gestaffelt nach der eingesetzten GPT-Version. Auf diese Art kann ein Entwickler relativ schnell AI-Funktionen für eine eigene Anwendung nutzen, ohne sich dabei mit der komplexen Entwicklung eigener AIs auseinandersetzen zu müssen.
Dabei benötigt ein Entwickler, wenn er die Anzahl an verwendeten (und zu bezahlenden!) Tokens so niedrig wie möglich halten möchte, ein gewisses Verständnis dafür, wie er möglichst effizient Fragen und Daten an die AI übermittelt. Dafür gibt es verschiedene Techniken, die „Prompt Engineering“, also grob übersetzt „Anfragenbau“, genannt werden.
Die Grenzen kennen
Zu einem guten Verständnis zur AI gehört es aber auch, ihre Grenzen zu kennen. Maschinen wie ChatGPT sind gute Konversationsgeneratoren. Das heißt, sie haben immer etwas zu sagen, und dank der ausgefeilten Technologie klingt der ausgegebene Text in der Regel auch schlüssig. Allerdings generiert es alle Informationen aus einem Netzwerk von Wahrscheinlichkeiten. Echtes Wissen ist in den Synapsen nicht versteckt.
Erfragt man zum Beispiel von einer AI Informationen, die nicht in einem der Kopustexte enthalten sind, dann hat man Pech. Da gerade Chatbots darauf ausgelegt sind, immer eine Antwort parat zu haben, kann es schnell passieren, dass ChatGPT dann einfach etwas erfindet. Deshalb ist es immer noch wichtig, die Quellen der bereitgestellten Informationen zu kennen. Doof nur, wenn ChatGPT nicht die richtigen Quellen anbietet, oder sie ganz auslässt. OpenAI verspricht zwar, hier nachzubessern, aber das ist aufgrund der darunterliegenden Technik naturgemäß kompliziert. GPT zieht seine Information ja nicht aus einer einzelnen Lektüre, sondern aus dem gleichzeitigen Lesen unzähliger Tokens.
In den extremsten Fällen können neue Versionen von ChatGPT sogar halluzinieren. Im Kontext von AI heißt das, dass das System einfach Informationen erfindet, die gar nicht aus den eingespeisten Texten ersichtlich sind. Deswegen gilt auch bei künstlicher Intelligenz die alte Weisheit, nicht unbesehen alles zu glauben, was im Computer steht. Solche Bedenken sind nicht so wichtig, wenn man beispielsweise intern einen Reminder per AI erstellen lässt. Nutzt man künstliche Intelligenz aber für die Erstellung von öffentlichen Texten oder für die Generation von Code, dann kommt man um eine eigene Kontrolle kaum herum.
ChatGPT in Action: hier werden Beschreibungstexte automatisch generiert. (Bild: K&K Software AG)
Vorsicht ist die Mutter der AI-Nutzung
Denkt man aus der Perspektive eines Unternehmens, dann kommen aus legaler und ökonomischer Perspektive noch weitere Grenzen hinzu. Zum einen ist es wichtig zu bedenken, dass die APIs zu GPT 3.5 oder 4.0 in der Regel zu den Servern der Anbieter oder direkt zu OpenAI verbinden. Die meisten Anbieter garantieren zwar, dass die Daten vertraulich genutzt werden. Solche Versprechen waren in der Vergangenheit aber oft bestenfalls Luftnummern. Anonymisiert man die Prompts nicht, dann schickt man unter Umständen sensible Daten an einen amerikanischen Konzern.
Das gilt ganz besonders auch dann, wenn man GPT als API nutzt, um interne Vorgänge und Programme zu unterstützen. Sofern das ganze System nicht auf vollständig lokaler Hardware läuft, gibt es keinen sicheren Weg, um Datenschutz und AI vollständig unter einen Hut zu bringen. Deswegen ist es ratsam, vorsichtig zu agieren und besonders sensible Geschäftsdaten nicht an Systeme weiterzugeben, die nicht vollständig lokal verarbeitet werden.
Zahlt man außerdem für die GPT 3.5 oder 4.0-API, sollte man sich immer überlegen, ob es nicht günstiger wäre, eine alternative Lösung zu suchen. Je aufwendiger und besser die AI-Berechnung, desto teurer wird sie. Und desto mehr Zeit frisst sie, die auch anderweitig eingesetzt werden kann. Die GPT 3.5-Turbo-API kann das Zeitproblem auf Kosten der Qualität zwar lindern, aber nicht vollständig eliminieren. Hat man also einen Vorgang, der viel Rechenleistung verbraucht und daher langwierig und teuer ist, aber von einem Menschen relativ schnell gemacht werden kann, dann legt man mit AI-Nutzung unter Umständen drauf. Zumal gerade bei der Text- und Codeproduktion ohnehin die Kontrolle durch einen Mitarbeiter notwendig bleibt.
Das Potenzial nutzen
Deswegen müssen Unternehmen natürlich nicht auf den Einsatz von AI verzichten. Egal, ob beim Coding oder beim Schreiben von Informationstexten: ChatGPT hat schnell Zugriff auf allgemeine, wohlbekannte Informationen. Wichtig ist dabei, die richtigen Fragen zu stellen, und sich nicht vollständig auf die gegebene Antwort zu verlassen. AI kann Ihnen kein Wissen ersetzen, Ihren Mitarbeitern aber bei richtigem, maßvollen Einsatz eine Menge Zeit sparen.
Auch bei der Erstellung besonders floskelhafter Textteile, zum Beispiel Begrüßungen, Verabschiedungen oder Einleitungen, ist ein Textgenerator effizient. Wichtig ist dabei, dass Sie das Programm nur Textbausteine erstellen lassen, und die Struktur des eigentlich Textes selbst übernehmen. Dann haben Sie auch kein Problem mit unpassend montierten Einzelteilen, sondern einen Text, der aus sich wie aus einem Guss liest.
AI fungiert dabei als eine Art persönlicher, belesener Assistent. Man kann sie allgemeine Dinge fragen, und erhält dabei wahrscheinlich befriedigende Antworten. Sie kann einfache Textteile erstellen, kurz etwas nachschlagen und Texte korrigieren. Ansprechende komplette Texte schreiben, tagesaktuell und zuverlässig recherchieren, eine eigene Perspektive einarbeiten – all diese Dinge kann AI per Design nicht leisten.
Bei ChatGPT im Code ist es wichtig, die richtigen Prompts zu nutzen. (Bild: K&K Software AG)
Ein Fallbeispiel
Bei der K&K Software AG nutzen wir künstliche Intelligenz als Teil zweier interner Programme, um uns die Arbeit an kritischen Stellen zu erleichtern. Unser internes SEO- und Content-Programm Websitecheck nutzt eine Integration mit Writesonic, um Keywords zu Themen zu erstellen sowie automatisch Textbausteine, die beispielsweise für Blogposts genutzt werden können, zu generieren. Das Projekt ist noch in einer internen Testphase, liefert aber schon vielversprechende Ergebnisse.
Websitecheck generiert auch automatisch Fragen, die an den Autor eines Postings gerichtet sind. Zu wissen, was alles in einen Blogpost muss, ist sehr hilfreich, um Content zu planen und zu strukturieren, auch wenn am Ende dann doch ein Mensch an der Tastatur sitzt. Wobei wir auch hier darauf achten müssen, dass das Verhältnis aus gesparter Zeit, dem Preis für die verwendeten Tokens und die Rechendauer stimmt.
Wir nutzen AI nicht nur bei Websitecheck, sondern haben auch bei unserem internen Management-Tool Zeity gute Erfahrungen mit künstlicher Intelligenz gemacht. Allerdings gilt auch hier: AI ist vor allem ein Werkzeug, das in eine solide und effiziente Umgebung eingebettet und von Menschen kontrolliert werden muss, um sein volles Potential entfalten zu können.
Hype oder Werkzeug?
Der Hype um künstliche Intelligenz ist gigantisch und hält einem nüchternen Blick nur bedingt stand. Modelle wie GPT können unseren Arbeitsalltag effizienter und einfacher machen. Sie können aber nicht unsere Arbeit übernehmen. Wer nicht mit AI umgehen kann und sein Handwerk nicht beherrscht, den bringt auch ChatGPT nicht ans Ziel.
Egal ob der der Generation von Texten, Code, oder von Bildern: AI kann viele Dinge automatisieren, sollte dabei aber von Profis begleitet werden. Bei Bildern, damit sich keine hässlichen Artefakte hereinschleichen. Bei Texten, damit sie strukturiert und sauber sind. Und bei Code, damit er sich gut und sicher in ein Projekt einfügt. Wenn man in einem größeren Framework auf künstliche Intelligenz zurückgreift, dann liefert nur eine verantwortungsbewusste Anwendung der Technologie die besten Ergebnisse für Sie und Ihre Kunden.
