Künstliche Intelligenz in Unternehmen | Ein nüchterner Blick

Seit der Einführung des AI-Bots ChatGPT im Jahr 2022 überschlugen sich die Nachrichten mit Meldungen zwischen Weltuntergang, Vollautomatisierung und Heilsversprechen. Google und Microsoft investieren enorme Summen in die Technologie, Gesetzesanpassungen werden auf den Weg gebracht, und ganze Branchen fürchten um ihre Zukunft. Dabei sind Begriffe oft gar nicht so klar; wie verhält sich nun zum Beispiel ChatGPT zu GPT und zum größeren Feld „künstliche Intelligenz“?

bilder/ki_start_0.png

Seit der Einführung des AI-Bots ChatGPT im Jahr 2022 überschlugen sich die Nachrichten mit Meldungen zwischen Weltuntergang, Vollautomatisierung und Heilsversprechen. Google und Microsoft investieren enorme Summen in die Technologie, Gesetzesanpassungen werden auf den Weg gebracht, und ganze Branchen fürchten um ihre Zukunft. Dabei sind Begriffe oft gar nicht so klar; wie verhält sich nun zum Beispiel ChatGPT zu GPT und zum größeren Feld „künstliche Intelligenz“?

Nach genau solchen Dingen wird auch unser Firmengründer und Vorstand Arnulf Koch immer wieder gefragt. Klar: die Unsicherheit ist groß, und ebenso wächst der Bedarf an unaufgeregter, fachlich fundierter Aufklärung. Dabei schwingt im Hintergrund auch immer die Überlegung mit, wie sich so eine Intelligenz auch als KMU produktiv nutzen lässt – und welche großen Versprechungen vielleicht eher Zukunftsmusik sind.

Natürlich lässt sich so ein großes Thema nicht in einem relativ kleinen Blogpost von allen Seiten beleuchten. Wir hoffen trotzdem, einige Fragen bündig beantworten zu können, und damit eine hitzig geführte Diskussion ein bisschen abkühlen zu können. Wir sollten außerdem beachten, dass sich künstliche Intelligenz gerade sehr schnell entwickelt, und jeder Bericht darüber nur einen technologischen Schnappschuss darstellen kann.

 

Künstliche Intelligenz, GPT, ChatGPT – was ist da eigentlich der Unterschied?

Im öffentlichen Diskurs rund um künstliche Intelligenzen werden schnell mal Begriffe durcheinander geworfen. Das betrifft ganz besonders das Trio „künstliche Intelligenz“ (kurz „KI“ oder „AI“ für das englische „Artificial Intelligence“), „GPT“ und „ChatGPT“. Wir rollen das Trio anhand einiger Aussagen auf:

Künstliche Intelligenz ist der Dachbegriff für eine lange Entwicklungsgeschichte. Und die hat streng genommen schon lange vor Computern angefangen. Neu ist allerdings, dass wir mit Systemen, die in bestimmten Bereichen sehr komplizierte Dinge durchführen können, immer näher an etwas kommen, das man als Intelligenz bezeichnen kann.

Es gibt viele verschiedene künstliche Intelligenzen, die gerade eine Rolle spielen. ChatGPT ist nicht das einzige Modell, das dank steigender Rechenkraft immense Fortschritte macht. Auch in anderen Bereichen werden Computer immer besser. Ein prominentes Beispiel ist der Bildgenerator Dall-E, der ebenfalls auf einem GPT-Modell basiert.

GPT ist der Begriff für ein bestimmtes KI-Modell. OpenAI entwickelt mindestens seit Mitte der 2010er-Jahre an einem Modell mit dem Namen „Generative Pre-trained Transformer“ (GPT). Diese Methode wird aber nicht exklusiv von OpenAI genutzt, sondern benennt eine bestimmte Trainingsart. Allerdings wurden die nummerierten GPT-Versionen, die OpenAI ab 2018 periodisch vorstellte, quasi synonym mit der Technologie. Also die Version 3.0 den Bildgenerator Dall-E steuerte, und die Version 3.5,die Grundlage für ChatGPT schuf, ist das Modell zum Symbol für die AI-Revolution geworden.

Neben GPT gibt es noch weitere vielversprechende Modelle. Aktuell schauen alle Augen auf OpenAI und ihr Modell GPT. Google lässt aber auch im Londoner Unternehmen Deepmind, die sie für eine halbe Milliarde Dollar aufgekauft haben, an eigenen AIs forschen. Auch China macht große Fortschritte bei künstlichen Intelligenzen, insbesondere bei Automobilen.

ChatGPT ist eine Konversationsmaschine auf Basis von GPT 3.5 und GPT 4.0. OpenAI forscht mit seinen GPT-Modellen in vielen verschiedenen Anwendungsbereichen. ChatGPT ist ein Maschine, die speziell dazu entwickelt wurde, mit menschlichen Nutzern möglichst organische Konversationen zu führen. Daraus ergeben sich dann alle anderen Anwendungszwecke.

 

Wie wird GPT denn trainiert?

GPT-Modelle werden in zwei Stufen trainiert, die jeweils versuche, Aspekte menschlicher Sprachentwicklung abzubilden. In der ersten Stufe lernt ein System durch das Lesen und Verarbeiten eines großen Textkorpus’ die Bildung wahrscheinlicher Sätze. In einer zweiten Stufe wird das gelernte Wissen durch menschliches Feedback verstärkt.

Die Aneignung des Wissens funktioniert dabei wie ein menschliches Gehirn. Also über Synapsen, bzw. „Nodes“ (dts. „Knotenpunkte“), an denen entlang Informationen wie Textausgabe generiert werden. Grundsätzlich gilt: unser Gehirn ist eine Art Netzwerk, bei dem Informationen, wie zum Beispiel welches Wort oder welcher Buchstabe als nächstes gesagt werden muss, eine Art Straßennetz zurücklegen muss. Werden bestimmte Kombinationen häufig gebraucht, wird die entsprechende Verbindung ausgebaut, wie auch im Straßenverkehr.

Der Trick ist also, das richtige Straßennetz zu bauen. Ein Computer muss anhand einer Eingabe einen (virtuellen) Gedanken auf den Weg schicken können, der an jeder Kreuzung die richtige Richtung ermitteln kann. Dieses Ziel erreicht man, indem man anhand vieler vieler Vorlagen die richtigen Synapsen ausbaut und die unwahrscheinlichen schwach hält.

 

Zwischen Textanalyse und menschlicher Intervention

Woher OpenAI diese vielen Vorlagen nimmt, gibt das Unternehmen inzwischen nicht mehr bekannt. Klar ist: der Korpus, also die Texte, die zum Training herangezogen werden, ist inzwischen gigantisch. GPT ist belesener als jeder Literaturwissenschaftler – neue Versionen nutzen wohl hunderte Milliarden an Sätzen.  

GPT lernt auf diese Art ähnlich sprechen wie menschliche Kinder, nur viel viel schneller. Es schaut sich bestehende Texte an, wie ein Kind seinen Eltern beim Sprechen zuhört, und formt daraus seine eigenen mentalen Netzwerke. Aber genau wie ein Kind nicht perfekt ohne menschliches Zutun sprechen lernen kann, braucht auch GPT eine Art menschlicher Kontrollinstanz. Dieses Fine-Tuning funktioniert über sogenanntes „reinforcement learning from human feedback“ (RLHF).

Bei RLHF gibt GPT Textfetzen aus, die von Menschen ausgewertet und eingeteilt werden. Auf diese Art werden die Lernfortschritte des Modells geprüft und korrigiert – im Grunde wie in einer Schule. Der Trainingsaufwand ist dabei enorm. Es werden zwar nicht die astronomischen Zahlen des autonomen Lernens erreicht, es arbeiten aber rund um die Uhr unzählige Menschen an der kontinuierlichen Verbesserung von GPT.

 

Künstliche Intelligenzen schreiben nicht nur Texte, sondern formulieren auch gute Fragen. (Bild: K&K)

 

Die Sache mit der Ethik

Bei der RLFH setzt auch die erste größere Kritik an AI an. Die Arbeit dieser Clickworker wird laut Medienberichten nämlich nicht gerade besonders gut bezahlt – insbesondere, wenn man bedenkt, welchen Bildern und Textausschnitten sie teils ausgesetzt sind. OpenAI reagiert zwar auf solche Medienberichte, aber das Grundproblem bleibt: Woher bezahlbar Personal für diesen Lernaufwand hernehmen? Auch die Klimafrage stellt sich bei AI. Die Server brauchen nämlich ganz ordentliche Mengen an Strom. Die Green IT kann da zwar etwas Abhilfe schaffen, aber das Problem lösen kann sie nicht.

Das sind aber nicht die einzigen Aspekte, die Kritiker von AI-Technik gerade umtreiben. Europol erklärt, die schnelle Produktion von künstlichen Bildern, Videos und Texten könne der Generation von Fake-News entscheidenden Vorschub leisten, Phishing erleichtern und Cyberkriminellen helfen – AI müsse daher reglementiert werden.

Ganz von der Hand zu weisen ist kein Kritikpunkt. Trotzdem ist künstliche Intelligenz nun einmal da. Daran ändert auch kein Entwicklungsstopp mehr etwas. Unsere Verantwortung als Unternehmen und als Privatpersonen liegt nun darin, die neue Technologie verantwortungsbewusst und produktiv einzusetzen, und ein gesundes Verhältnis zu AI zu entwickeln.

 

Wie man künstliche Intelligenz praktisch einsetzt

Das kann man auf ganz unterschiedliche Arten machen. Am häufigsten nutzen Interessierte die Angebote von OpenAI selbst; eben, indem sie mit Chatbots wie ChatGPT oder Bildgeneratoren wie Dall-E interagieren. Das ist in der Regel entweder kostenlos oder zumindest sehr günstig. Klar – OpenAI greift ja auf ein hauseigenes AI-Modell zurück.

Neben den Produkten von OpenAI gibt es noch andere Unternehmen, die auf nummerierte GPT-Versionen zurückgreifen. Ein prominentes Beispiel dafür ist zum Beispiel Writesonic, die sich auf schnellen Output für Webcontent spezialisiert haben; das Unternehmen bietet beispielsweise Produkte für die schnelle Erweiterung und Kürzung von Texten, die Erstellung von Leitfragen zu bestimmten Themen, oder die direkte Generation von Zusammenfassungen an.

Produkte wie Writesonic kann man auch als API in eigene Unternehmensanwendungen einbinden. Bezahlt wird dabei in der Regel nach Tokens (i.d.R. Silben oder Wörter bei der OpenAI-API) oder direkt nach Wörtern (z.B. bei Writesonic), bei letzterem gestaffelt nach der eingesetzten GPT-Version. Auf diese Art kann ein Entwickler relativ schnell AI-Funktionen für eine eigene Anwendung nutzen, ohne sich dabei selbst mit extrem komplexem AI-Development auseinandersetzen zu müssen.

Natürlich benötigt der Entwickler einer Anwendung, wenn er die Anzahl an verwendeten (und zu bezahlenden!) Tokens gering halten will, ein gutes Verständnis für die Anfragen, die vom Programm an die AI übermittelt werden sollen, damit möglichst schnell möglichst gute Antworten herauskommen. Dafür gibt es verschiedene Techniken, die „Prompt Engineering“, also grob übersetzt „Anfragenbau“, genannt werden.

 

Die Grenzen kennen

Zu einem guten Verhältnis zur AI gehört es, ihre Grenzen. Maschinen wie ChatGPT sind gute Konversationsgeneratoren. Das heißt, sie haben immer etwas zu sagen, und dank der ausgefeilten Technologie klingt es auch immer schlüssig. Allerdings generiert es alle Informationen effektiv aus einem Netzwerk von Wahrscheinlichkeiten – wenn die erwarteten Infos also absolut konkret werden müssen, ist die AI überfordert.

Möchte man zum Beispiel über Ereignisse schreiben, die nicht in einem Text im Korpus erwähnt werden, dann steht man schnell vor Problemen. Da kann es schon auch vorkommen, dass ChatGPT dann einfach etwas erfindet. Quellen checken ist bei jeder Recherche wichtig; das gilt auch bei AI. Doof nur, dass ChatGPT aktuell keine Quellen mitliefert. OpenAI verspricht zwar, hier nachzubessern, aber das ist aufgrund seiner Technik naturgemäß schwierig; GPT zieht seine Information ja nicht aus einer einzelnen Lektüre, sondern aus gleichzeitigen Lesen unzähliger Tokens.

In den extremsten Fällen können neue Versionen von ChatGPT sogar halluzinieren. Im Kontext von AI heißt das, dass das System Informationen einfach erfindet, die gar nicht aus den eingespeisten Texten ersichtlich sind. Deswegen gilt auch bei künstlicher Intelligenz die alte Weisheit, nicht unbesehen alles zu glauben, was im Computer steht. Solche Bedenken sind nicht so wichtig, wenn man beispielsweise intern einen Reminder per AI erstellen lässt; nutzt man künstliche Intelligenz aber für die Erstellung von öffentlichen Texten oder sogar Code, dann kommt man um eine Kontrolle kaum herum.

 

 

ChatGPT in Action: hier werden Beschreibungstexte automatisch generiert. (Bild: K&K)

 

Vorsicht ist die Mutter der AI-Nutzung

Denkt man aus der Perspektive eines Unternehmens, dann kommen aus legaler und ökonomischer Perspektive noch weitere Grenzen hinzu. Zum einen ist es wichtig zu bedenken, dass die APIs zu GPT 3.5 oder 4.0 in der Regel zu Rechenservern bei Anbietern oder OpenAI verbinden. Die meisten garantieren zwar, dass die Daten vertraulich genutzt werden – hinsichtlich regelmäßiger Skandale kann man das aber zumindest in Frage stellen. Anonymisiert man die Prompts nicht, ist es durchaus möglich, dass man einfach so eben sensible Daten an einen amerikanischen Konzert schickt.

Das gilt ganz besonders auch dann, wenn man GPT als API nutzt, um interne Vorgänge und Programme zu unterstützen. Unterm Strich gibt es keinen vollständigen Schutz und nicht den einen goldenen Weg, um Datenschutz und AI vollständig unter einen Hut zu bringen. Grundsätzlich ist es aber ratsam, auf der Seite der Vorsicht zu bleiben.

Zahlt man außerdem für die GPT 3.5 oder 4.0-API, sollte man sich immer überlegen, ob es nicht günstiger wäre, eine alternative Lösung zu suchen. Je aufwendiger und besser die AI-Berechnung, desto teurer wird es – und desto mehr Zeit frisst sie, die auch anderweitig eingesetzt werden kann. Die GPT 3.5-Turbo-API kann das Zeitproblem auf Kosten von etwas Qualität mindern, erhalten bleibt es aber trotzdem. Hat man also einen Vorgang, der viel Rechenleistung verbraucht und daher langwierig und teuer ist, aber von einem Menschen relativ schnell gemacht werden kann, dann legt man mit AI unter Umständen drauf. Zumal gerade bei der Text- und Codeproduktion für Kunden ohnehin immer eine Kontrolle durch einen Mitarbeiter notwendig bleibt.

 

Das Potential nutzen

Deswegen sollten Unternehmen natürlich nicht auf den Einsatz von AI verzichten. Egal, ob beim Coding oder beim Schreiben von Informationstexten: ChatGPT hat schnell Zugriff auf allgemeine, wohlbekannte Informationen. Wichtig ist dabei, die richtigen Fragen zu stellen, und sich nicht 100% auf die Antwort zu verlassen. AI kann Ihnen noch kein Wissen abnehmen, Ihren Mitarbeitern aber eine Menge Zeit sparen.

Auch bei der Erstellung besonders floskelhafter Textteile, zum Beispiel Begrüßungen, Verabschiedungen oder Einleitungen, ist ChatGPT wirklich gut. Wichtig ist dabei, das Programm nur Textbausteine erstellen zu lassen, und die Struktur des eigentlich Textes selbst zu übernehmen. Dann hat man auch kein Problem mit unpassend montierten Einzelteilen, sondern einen Text, der aus sich wie aus einem Guss liest.

AI fungiert dabei als eine Art persönlicher Assistent mit einem unglaublich großen Wissensschatz. Man kann sie allgemeine Dinge fragen, und erhält dabei wahrscheinlich befriedigende Antworten. Sie kann einfache Textteile erstellen. Mal kurz etwas ‚nachschlagen‘. Texte korrigieren. Nur ansprechende komplette Texte schreiben, tagesaktuell und zuverlässig recherchieren, eine eigene Perspektive einarbeiten – all diese Dinge kann AI noch nicht leisten. „Noch“ – denn niemand weiß, was künftige GPT-Versionen oder andere AIs alles können werden.

 

Bei ChatGPT im Code ist es wichtig, die richtigen Prompts zu nutzen. (Bild: K&K)

 

Ein Fallbeispiel

Bei der K&K Software AG nutzen wir künstliche Intelligenz als Teile zweier interner Programme, um uns die Arbeit an kritischen Stellen zu erleichtern. Unser internes SEO- und Content-Programm Websitecheck nutzt eine Integration mit Writesonic, um Keywords aus Themen herauszulesen und automatisch Textbausteine, die beispielsweise für Blogposts genutzt werden können, und sogar ganze Postings zu generieren. Das Projekt ist noch in einer internen Testphase, liefert aber schon vielversprechende Ergebnisse.

Websitecheck generiert auch automatisch Fragen, die an den Autoren eines Postings gestellt werden können. Das ist enorm wichtig, um Content zu strukturieren, zu generieren, und damit bessere Inhalte zu erstellen, auch wenn am Ende dann doch ein Mensch an der Tastatur sitzt. Die meiste Arbeit mach dabei Writesonic für uns – wobei wir auch hier darauf achten müssen, dass die Balance aus gesparter Zeit, dem Preis für Tokens, und die Rechendauer sich Waage halten.

Wir nutzen AI nicht nur bei Websitecheck, sondern haben auch bei unserem internen Management-Tool Zeity gute Erfahrungen mit künstlicher Intelligenz gemacht. Allerdings gilt auch hier: AI ist vor allem ein Werkzeug, das in eine solide und effiziente Umgebung eingebettet werden und von Menschen kontrolliert werden muss, um sein volles Potential entfalten zu können.

 

Hype oder Werkzeug?

Der Hype um künstliche Intelligenz ist gigantisch und hält einem nüchternen Blick nur bedingt stand. Tatsächlich können Modelle wie GPT unseren Arbeitsalltag effizienter und einfacher machen. Aber noch übernimmt es nicht die Arbeit selbst für uns. Man muss sich AI eher wie ein Werkzeug vorstellen: wenn man nicht richtig damit umgehen kann und das Handwerk an sich nicht beherrscht, dann bringt einem auch ChatGPT alleine nicht ans Ziel.

Egal, ob der der Generation von Texten, Code, oder von Bildern: AI automatisiert viele Vorgänge, sollte aber immer von Profis begleitet werden. Bei Bildern, damit sich keine hässlichen Artefakte hereinschleichen. Bei Texten, damit sie strukturiert und sauber sind. Und bei Code, damit er sich gut und sicher in ein Projekt einfügt. Wenn man in einem größeren Framework auf künstliche Intelligenz zurückgreift, dann determiniert auch die Qualität der Anwendung die Ergebnisse. Und die Kosten – nutzt man künstliche Intelligenz intensiv, kommt man um effiziente Prompts und optimierte Anwendung nicht herum.

Zu Beginn des Blogposts habe ich geschrieben, dass jede Diskussion über künstliche Intelligenz immer nur einen Schnappschuss darstellen kann; wir wissen schlicht nicht, welche Anwendungen aktuell in Entwicklung sind, und was AI in ein paar Jahren leisten kann. Aber sie ist schon jetzt ein wertvolles und interessantes Tool, um unseren Unternehmensalltag schneller und einfacher zu gestalten, und damit Unternehmern bares Geld zu sparen.


Beitrag vom 02.10.2023

Kommentar abgeben: