de

News

ChatGPT Chatbot im Kundenservice - Die Revolution der Kundenkommunikation?

ChatGPT von OpenAI revolutioniert die Art, wie wir mit KI-Bots kommunizieren. Wir zeigen euch, ob diese neue Chatbot Technologie auch im Kundenservice genutzt werden kann und wie die Online-Kommunikation mit diesen modernen Chatbot-Systemen verbessert wird.

Blog post thumbnail

Einleitung - Was ist ChatGPT?

ChatGPT ist in aller Munde - und das aus gutem Grund: Das neue Chatbot-Modell ist besonders gut darin, sich mit Menschen zu unterhalten. Der große Sprung zu früheren Chatbots ist dabei, dass man eine normale Unterhaltung führen kann, wobei ChatGPT in sekundenschnelle passende Antworten ausgibt. So kann man dem Modell zum Beispiel die Rolle eines Kundenservice-Mitarbeiters zuweisen und es dann Kundenanfragen beantworten lassen:

ChatGPT formuliert selbständig eine E-Mail-Antwort für den Kundenserivce

ChatGPT formuliert selbständig eine E-Mail-Antwort für den Kundenserivce.

Als Meister der Kommunikation liegt es nahe, diese Technologie im Kundenservice einzusetzen. Aber kann man ChatGPT-Modelle im Support überhaupt nutzen? Dieser Frage gehen wir im folgenden Artikel auf den Grund.

Hier könnt ihr den neuen OMQ Chatbot auf GPT-4 Level jetzt live testen

Ihr wollt den neuen Chatbot bei euch einsetzten? Kein Problem - unser GPT-4 Chatbot ist jetzt verfügbar! Vereinbart einen Termin mit uns und erfahrt mehr über Einsatzmöglichkeiten und Preise.

Wie funktioniert die Technologie des ChatGPT Chatbots?

ChatGPT ist eine spezialisierte Form des Sprachmodells GPT (Generative Pre-trained Transformer) von OpenAI, welches speziell dafür entwickelt wurde, natürlich auf Fragen und Anweisungen zu reagieren. GPT basiert auf maschinellem Lernen, welches genutzt wird, um künstliche neuronale Netze entstehen zu lassen, die dem menschlichen Nervensystem ähneln. ChatGPT ist bereits gut trainiert und hat somit ein vielschichtiges Netz aufgebaut.

ChatGPT formuliert selbständig eine E-Mail-Antwort für den Kundenserivce

ChatGPT kann in natürlicher Sprache wie menschliche Support Agent:innen antworten.

Generative Pretrained Transformer

Der Generative Pretrained Transformer 3 (GPT-3) ist ein Sprachmodell, das auf einem per Deep Learning trainierten Künstlichen Neuronalen Netz (KNN) basiert. Es ist der Nachfolger von GPT-2 und in der Lage, selbstständig Texte zu verfassen, Fragen zu beantworten, Dialoge zu führen oder Programmcode zu erstellen.

Anhand von Texten mit ca. 500 Milliarden Wörtern lernte die Software, wie Sprache funktioniert, was die Unterschiede zwischen geschriebener und gesprochener Sprache sind und in welcher Form auf welche Fragen geantwortet werden soll.

ChatGPT Startseite von OpenAI

ChatGPT Startseite von OpenAI

Unterschied von ChatGPT zu aktuellen Chatbot-Modellen

Aktuelle Chatbots wissen, wie sie einige Fragen beantworten, können allerdings nicht spezifisch antworten. In einer normalen Chatbot-Kommunikation kommt es also oft zu Situationen, in denen der Bot fragt: “Was meinst du damit?” oder in denen er verschiedene Antwortmöglichkeiten vorschlägt, aus welchen die Kund:innen die richtige auswählen müssen.

ChatGPT Beispiel für die Anwendung im Kundenservice

Das ChatGPT Modell hingegen versteht und verarbeitet die Nachrichten sofort. Wenn ein:e Kund:in nun fragt: “Ich möchte mir eine Jacke kaufen, die 200€ kostet. Ist der Versand kostenlos?” liest ChatGPT intern die Einträge in der Datenbank, weiß dadurch, dass das Unternehmen kostenlosen Versand ab 49€ anbietet und weiß außerdem, dass 200€ mehr sind als 49€. Diese beiden Informationen werden verknüpft und direkt als Antwort ausgegeben. Diese könnte dann zum Beispiel so aussehen: “Ja, deine Bestellung wäre versandkostenfrei.”. Ein aktueller Chatbot würde hingegen lediglich eine Standardantwort aus der Datenbank ausgeben: “Kostenlosen Versand gibt es ab 49€.”

Unterschied in der Beantwortung von Kundenanfragen zwischen aktuellen Chatbots und ChatGPT

Unterschied in der Beantwortung von Kundenanfragen zwischen aktuellen Chatbots und ChatGPT.

Ist diese Technologie für den Kundenservice geeignet?

Unsere Antwort darauf lautet zur Zeit noch: “Jain”. Um im Kundenservice genutzt werden zu können, muss die Technologie erst an die Bedürfnisse des Kundenservice angepasst werden. ChatGPT nimmt zum Beispiel einige Informationen als richtig wahr, die eventuell nicht stimmen. Ein Beispiel dafür ist, dass ChatGPT denkt, dass Websites grundsätzlich einen “Passwort vergessen”-Button beim Login haben.

Problematisch ist, dass die Software von einer Antwort ausgeht, die vielleicht bei vielen Unternehmen zutrifft, aber nicht bei einem spezifischen Fall. Vage und generelle Informationen werden somit selbstbewusst vom Bot als wahre Informationen an die Nutzer:innen weitergegeben. Diese können allerdings falsch sein.

Zur Zeit ist es also noch nicht möglich, ChatGPT-Modelle im Support anzuwenden, aber mit etwas Nachhilfe können die verschiedenen Herausforderungen gelöst werden, um dann doch Kundenanfragen zu beantworten.

Probleme und Lösungen: So wird das ChatGPT-Modell für den Kundenservice optimiert

Die folgenden “Schwachstellen” des ChatGPT-Modells sind der Grund, warum es derzeit noch nicht möglich ist, das System im Support zu nutzen. Die Optimierung dieser Punkte sorgt dafür, dass ein idealer KI-Agent entsteht, der Kundenanfragen direkt im Chat beantwortet.

Probleme und Lösungen: So wird das ChatGPT-Modell für den Kundenservice optimiert

Mit diesen Lösungen kann das ChatGPT-Modell für den Kundenservice optimiert werden.

1

Problem A: Weiß eine Menge, aber nicht alles

ChatGPT wurde bis 2021 mit Daten gefüllt. Das bedeutet, dass das Wissen limitiert auf Informationen bis 2021 ist (z.B.: Donald Trump ist noch Präsident). Zusätzliches Training bzw. die Weitergabe von Wissen ist nötig, um diese Schwachstelle zu beheben.

Lösung: Aktuelles Wissen bereitstellen

Dem Modell wird aktuelles Wissen zur Verfügung gestellt, welches es dann erlernt und als Hauptdatenquelle nutzt.

2

Problem B: Authentisches Aussehen, fehlerhafte Informationen

Das Hauptproblem von ChatGPT ist, dass der Bot sehr gut darin ist, authentisch auszusehen, wobei die ausgegebenen Daten allerdings nicht immer richtig bzw. keine echten Daten sind.

In den USA starten Support-Telefonnummern zum Beispiel häufig mit “800”. Unternehmen haben sehr wahrscheinlich eine Support-Nummer, die wie in diesem Beispiel mit “800” anfängt. Telefonnummern werden dabei zum Beispiel einfach von Standards übernommen und diese werden dann an die Kund:innen als Antwort geschickt. Es ist keine echte Nummer, aber wird versendet als: “Wie eine echte Nummer aussehen könnte”.

AI Alignment Problem

In der künstlichen Intelligenz (KI) bezieht sich das “Angleichungsproblem” auf die Herausforderungen, die dadurch entstehen, dass Maschinen nicht die gleichen Werte haben wie wir. Wenn es um Werte geht, sind Maschinen auf einer grundlegenden Ebene nicht viel anspruchsvoller, als zu verstehen, dass 1 etwas anderes ist als 0.

Lösung: Zu wahrheitsgemäßen Antworten anleiten

Das Modell muss dazu gebracht werden, den Tatsachen entsprechend zu antworten und nicht nur gut zu klingen. Das wird mit Angleichungsbeschränkungen möglich, die das System arbeiten lassen, als ob sie Servicemitarbeiter:innen wären. Das kann man sich so vorstellen, als ob man einen menschlichen Agenten anleitet, die Wissensdatenbank zu nutzen, um Antworten zu geben und seine Haltung den Kund:innen gegenüber zu bestimmen.

3

Problem C: Hoher Rechenaufwand

Die Ausführung von Large Language Models (LLM) wie bei ChatGPT erfordert spezielle Hardwares. Wenn ein Modell in der Größe von ChatGPT auf einer normalen PC-CPU läuft, verarbeitet es ein Wort in etwa 10 Sekunden. Der Prozess ist also sehr rechen- und zeitintensiv. Selbst mit speziellen Hardwares wie dem GPU (Supercomputer des modernen KI-Zeitalters) kann ein Inferenzaufruf (= Aufforderung zu einer Antwort wie im Chat) einige Zeit dauern.

Seit Ende 2022 ist es jedoch möglich, LLM-basierte Anwendungen in einem vernünftigen Zeit- und Kostenrahmen zu erstellen. Trotzdem müssen diese Prozesse ständig weiterentwickelt werden, um effizient und optimiert arbeiten zu können.

Lösung: Optimierung des Einsatzes von LLM

Die Benutzung des Large Language Models sollte dahingehend optimiert werden, dass einfache Aufgaben (z.B. relevante Dokumente in der Datenbank finden) von einfacheren Modellen übernommen werden, während LLMs dazu da sind, die Nachrichten der Kund:innen zu lesen und zu verstehen, um dann die Antwort an die Kund:innen zu generieren.

4

Problem D: Keine Handlungsausführung

ChatGPT-Modelle und ähnliche Modelle geben meist nur Informationen aus, können aber nicht handeln. Sie sind zwar sehr schlau in der Kommunikation, reagieren schlussendlich aber auch nur auf menschlichen Input. Es fehlt die Ausführung von Aktionen.

Das Modell muss für Aktionen trainiert und angepasst werden, die für die Durchführung spezifischer Support-Anforderungen benötigt werden, um dann z.B. Datenänderungen oder Schadensmeldungen selbstständig vornehmen zu können.

Lösung: Trainieren für spezifische Supportaufgaben

Für diese Support-Fälle sind spezielle Vorgänge erforderlich. Dabei können zum Beispiel Formulare eingesetzt werden, in die die Kund:innen dann ihre Daten direkt im Chat eingeben können und die dann direkt genutzt werden (z.B. für Namensänderungen, Schadensmeldungen, Adressänderungen, etc.).

ChatGPT-Level Chatbot im Kundenservice

Wie bereits erwähnt, muss die ChatGPT-Technologie erst an den Kundenservice angepasst werden, bevor sie genutzt werden kann, um Kundenanfragen zu beantworten. ChatGPT bringt Chatbots auf eine neue Ebene, weil das Modell so viel Wissen hat und so natürlich in seiner Interaktion ist. Bis dahin kann das Modell allerdings Inspiration und Unterstützung für Serviceagent:innen sein, um zum Beispiel gute Formulierungen für Nachrichten zu finden.

Wenn man die oben genannten Schwachpunkte des Systems mit den bereitgestellten Lösungen verbessert, kann theoretisch ein Chatbot für den Kundensupport auf ChatGPT-Niveau entwickelt werden, der genauso intelligent und natürlichsprachig Kundenanfragen beantwortet, aber vollständig auf eine Wissensdatenbank abgestimmt ist.

Coming Soon: Der OMQ ChatGPT-Level Chatbot als Beta Version

Wir arbeiten gerade daran, das GPT-Level-Modell dahingehend zu optimieren, um es passend für den Kundenservice zu machen. Wie dieser Chatbot schlussendlich aussieht und was er für den Kundensupport bedeutet, werden wir euch in den kommenden Wochen zeigen.

Ihr könnt gespannt sein, denn wir wollen euch auch in einer mehrteiligen Artikelserie daran teilhaben lassen, wie unsere Beta-Version funktioniert und wie wir die Funktionen von ChatGPT für den Kundenservice anpassen.

Meldet euch hier zu unserem Newsletter an, um alle News und Updates zu unserem OMQ ChatGPT-Level Chatbot zu erhalten.

Schaut gerne auch in unserem Blog vorbei, wenn ihr wissen wollt, wie Künstliche Intelligenz im Kundenservice funktioniert und wie Chatbots aktuell Kundenanfragen beantworten.

Noch Fragen?

Ihr könnt den neuen GPT-4 Chatbot für den Kundenservice testen.

Der Chatbot ist jetzt verfügbar und kann in euren Unternehmen eingesetzt werden.

Vereinbart eine unverbindliche Demo um mehr über Einasatzmöglichekiten und Preise zu erfahren. Wir freuen uns auf euch!

ChatGPT FAQ

Was ist ChatGPT?

Wofür steht das GPT in ChatGPT?

Wie kann man ChatGPT für den Kundenservice optimieren?

Worauf basiert ChatGPT?

Was ist der Unterschied zwischen aktuellen Chatbots und ChatGPT?

Kann man ChatGPT im Kundenservice nutzen?

4 Tools für einen optimalen Kundenservice in Echtzeit

Blog post thumbnail

4 Tools für einen optimalen Kundenservice in Echtzeit

Mit zunehmender Digitalisierung wachsen auch die Erwartungen der Kund:innen. Gerade im Kundenservice sollte man deshalb mit der Zeit gehen und die Modernisierung nicht ignorieren…

Tipps für das interne Wissensmanagement | Produktwissen verbessern und den Kundenservice optimieren

Blog post thumbnail

Tipps für das interne Wissensmanagement | Produktwissen verbessern und den Kundenservice optimieren

Den besten Kundenservice kann ein Unternehmen seinen Kund:innen nur dann bieten, wenn das interne Produkt- und Servicewissen so organisiert ist, dass die Mitarbeiter:innen schnell…