Technologie & Business

Was wir aus dem Projekt X2Log gelernt haben

In den vergangenen zweieinhalb Jahren durften wir Teil eines außergewöhnlichen Forschungskonsortiums sein, dem Projekt X2Log (Anything-to-Log). Es hatte das Ziel, neue Wege zu finden, strukturierte und unstrukturierte Daten, also etwa Videomaterial, Sensorwerte oder Textdokumente, in logische Prozesse zu übersetzen.

Klingt theoretisch? War es auch. Aber was dabei herauskam, war für uns bei targenio ein Katalysator für unsere Zukunftsstrategie.

Daten sind nur der Anfang

Aus X2Log ergibt sich vor allem eine zentrale Erkenntnis: Entscheidend ist nicht die Datenmenge, sondern wie gezielt und sinnvoll sie genutzt wird.

Wir bei targenio betreuen Kundenserviceprozesse in hochkomplexen industriellen Umgebungen. Dort entstehen täglich Unmengen an Daten aus CRM-Systemen, ERP-Lösungen, Maschinensteuerungen und mehr. Und trotzdem haben wir erst durch die Zusammenarbeit in diesem Gremium wirklich verstanden, was unsere Nutzenden mit unserer Software machen.

  • Prozesse sind nicht nur klickbare Abläufe. Unsere User springen zwischen Systemen, verwenden Kontextwissen, das nirgendwo dokumentiert ist, und lösen Probleme auf oft kreative Weise.
  • Wir müssen dieses implizite Wissen sichtbar machen. Dazu entwickeln wir jetzt Assistenzsysteme, die genau beobachten, wie Entscheidungen entstehen, und daraus schrittweise lernen.
  • Der Weg zur Automatisierung ist ein iterativer Prozess. Nicht alles muss sofort „vollautomatisiert“ sein. Stattdessen bauen wir auf lernende Systeme, die kontinuierlich besser werden.

Forschung, die Wirkung zeigt

Ein zentraler Bestandteil des Projekts war eine Reihe von begleitenden Forschungsarbeiten, die konzeptionell eng mit dem Fortschritt des Konsortialprojekts verknüpft waren. Diese lieferten fundierte Impulse für die Weiterentwicklung zentraler Komponenten. Die Komponenten dienten anschließend der Integration von strukturierten und unstrukturierten Datenquellen im Process Mining.

Zu Beginn stand eine umfassende Analyse des aktuellen „Stand der Technik“ rund um Process Mining mit Texten, Bildern und Videos im Fokus. Das Ergebnis bildete eine Art „Fahrplan für künftige Forschungsaktivitäten“.  So ist die Nutzung von Textdaten im Bereich Process Mining bereits gut erforscht, während es bei anderen Datenformen – insbesondere Videodaten – noch große Lücken gibt. Vor allem die Integration multimodaler Datensätze hat das Konsortium als dringendes Forschungsthema identifiziert.

Eine weitere Forschungsarbeit widmete sich genau dieser Lücke: der Nutzung von Videodaten als Input für Process Mining. In diesem Zusammenhang entwickelte das Fraunhofer FIT einen Ansatz, der mit Hilfe eines Algorithmus in der Lage ist, Prozessschritte allein anhand von Bewegungsmustern in Videos zu erkennen – ohne vorher zu wissen, wonach er sucht. Warum das relevant ist? In vielen industriellen Kontexten, wie Serviceeinsätzen oder Reparaturprozessen ist Video oft die einzige Datenquelle.

Aus der Zusammenarbeit heraus entstand seitens des Fraunhofer-FIT ebenfalls ein synthetischer, aber realitätsnaher Datensatz, der Videomaterial, Sensorwerte und strukturierte ERP-Daten vereint. Der Datensatz soll künftig anderen Forschungsgruppen zur Verfügung stehen, um daran neue Verfahren zu testen. Dadurch entstehen langfristig bessere Werkzeuge, die auch in der Praxis funktionieren.

Wie wir aus technologischer Architektur eine zukunftsfähige Lösung machen

Das Projekt hat uns auf Produktseite stark geprägt. Wir haben in den vergangenen Jahren unsere bestehende Plattform überdacht und setzen nun auf einen radikal neuen Technologieansatz.

Wir haben uns intensiv mit datengetriebener Optimierung, Protokollierung von Kontextdaten und weiterem beschäftigt. Damit wir all das in unserem Produkt vereinen, ist für uns die Überzeugung erwachsen, in Zukunft auf Basis der Low-Code-Plattform Mendix zu arbeiten.

Die Gründe dafür lagen auf der Hand:

  • Geschwindigkeit | Wir sind mit Mendix 5–7x schneller als mit herkömmlicher Java-Entwicklung.
  • Sicherheit & Skalierbarkeit | Als Teil des Siemens-Ökosystems erfüllt Mendix höchste Sicherheitsstandards.
  • Kundenzentrierung | Wir können Lösungen in Echtzeit verändern, auf neue Anforderungen reagieren und gleichzeitig eine moderne User Experience gewährleisten.

Unsere neue Plattform denkt nicht mehr in starren Abläufen, sondern in dynamischen Assistenzsystemen, die lernen, wie Menschen Probleme lösen. Dabei protokollieren wir alle relevanten Kontextinformationen.

Diese Informationen bilden die Grundlage für kontinuierliche Verbesserung, gesteuert von einem „Trainer“-Modul, das Verbesserungsvorschläge liefert oder direkt Anpassungen an der Automatisierung vornimmt.

X2Log war ein Forschungsprojekt mit echtem Impact

Für targenio war X2Log weit mehr als ein Forschungsprojekt. Es war ein Innovationslabor, das uns neue Perspektiven eröffnet und unser Produktverständnis grundlegend erweitert hat.

Wir gehen aus dem Projekt mit:

  • einem klareren Blick auf den Wert von Daten,
  • konkreten Lösungen für unsere Kunden,
  • und einer Technologieplattform, die bereit ist für die nächste Generation von digitalen Assistenten im industriellen Kundenservice.

 

Von LLM zu autonomen AI Agents: Die Zukunft im Kundenservice

Large Language Models (LLMs) beeindrucken durch ihre Fähigkeit, komplizierte Fragen zu beantworten, kreative Inhalte wie Gedichte oder Songs zu verfassen und menschlich klingende Texte zu generieren. Doch trotz all dieser beeindruckenden Leistungen bleibt ihr Handlungsspielraum oft auf die reine Kommunikation begrenzt.

Im Gegensatz zu reinen LLMs gehen AI Agents einen entscheidenden Schritt weiter: Sie verwenden die generierten Informationen nicht nur für die reine Kommunikation, sondern lösen vielschichtige Aufgaben selbstständig. Mithilfe der Ausgabe strukturierter Daten, beispielsweise in Form von JSON, oder durch Echtzeit-Code-Generierung können AI Agents externe Datenquellen wie APIs, Websites und Dateien lesen und schreiben. Darüber führen sie einzelne Aufgaben oder ganze Workflows eigenständig und autonom aus.

Das macht sie besonders interessant für komplexe Einsatzbereiche wie der Prozessautomatisierung im Kundenservice.

AI Agents dank No-Code-Plattform einfach nutzen

Für das Erstellen von AI Agents gibt es verschiedene Ansätze: Zum einen unterstützen Programmierbibliotheken wie Langchain oder Smolagents in Python beim Programmieren. Zum anderen existieren Low-Code- oder No-Code-Tools wie Flowise oder Parlant, die den Zugang zu den fortschrittlichen KI-Fähigkeiten vereinfachen.

Mit Plattformen wie der targenio Assistentenplattform lässt sich diese fortschrittliche Technologie auch ohne Programmierkenntnisse nutzen. Anwender können AI Agents mittels No-Code-Technologie erstellen und flexibel an ihre Bedürfnisse anpassen.

AI Agenten im Service – Praxisnahe Anwendungen

AI Agents verbessern Kundenservice-Prozesse deutlich und lösen Herausforderungen, die mit klassischen Methoden bisher mit viel Aufwand zu bewältigen waren:

  • Self-Service-Modul für Kunden
    Im Self-Service interagieren Agents eigenständig mit Kunden, erfassen und verstehen deren Anliegen und bieten gezielt passende Lösungen an. Sie lösen Standardprobleme autonom, ohne menschliche Intervention. Bei komplexen Problemen holen sich die Assistenten bei ihren menschlichen Äquivalenten und lernt gleichzeitig iterativ mit. Dadurch profitieren Kunden von schnellen und präzisen Antworten, während die KI Service-Mitarbeiter entlastet.
  • Automatisierung komplexer Sachbearbeiter-Aufgaben
    Viele Aufgaben im Kundenservice sind für eine klassische Workflow-Modellierung zu komplex. AI Agents hingegen können flexibel und situativ agieren. Sie interpretieren und reagieren dynamisch auf Anfragen, indem sie Datenquellen wie APIs, Websites oder interne Dateien selbständig analysieren. Sachbearbeiter gewinnen so Zeit für komplizierte Aufgaben und Entscheidungen.

Integration von AI Agents und die Rolle von Mendix

Die targenio Assistentenplattform bietet eine No-Code-Lösung, um AI Agents einfach und schnell zu erstellen und zu implementieren. Unterstützt durch beispielsweise der Low-Code-Plattform Mendix können neue Skills, vor allem spezielle und komplexe, unkompliziert entwickelt und unmittelbar in die Agents integriert werden. Diese  Skills ermöglichen eine schnelle Anbindung relevanter Schnittstellen.

targenio Assistentenplattform mit echtem Branchenfokus

Die targenio Assistentenplattform präsentiert in diesem Zusammenhang entscheidende Features:

  • Flexibilität bei Large Language Models
    Unternehmen können frei entscheiden, ob sie Cloud-basierte, hybride oder On-Premise-Lösungen nutzen möchten. Selbst anspruchsvolle Anforderungen an Datenschutz und Sicherheit werden dabei erfüllt.
  • Branchenfokus
    Die Plattform ist von Anfang an auf spezifische Anforderungen bei Airlines, Automotive und im Maschinen- und Anlagenbau ausgerichtet. Dies reduziert den Implementierungsaufwand erheblich und steigert die Effektivität der AI Assistenten deutlich.

Transparenz dank gezieltem Process Mining

Obwohl die Assistenten dynamisch und eigenständig arbeiten, bleibt der Überblick stets gewahrt. Mit gezieltem Process Mining stellt unsere Software sicher, dass alle Abläufe transparent sind. Die Prozesse sind jederzeit nachvollziehbar, sodass Unternehmen sowohl Effizienz als auch Compliance sichern können.

AI Agents sind ein starker Hebel für effizienten Kundenservice

AI Agents sind weit mehr als reine Kommunikationshelfer. Sie handeln aktiv, verstehen komplexe Anfragen und optimieren Prozesse kontinuierlich. Die Integration solcher Assistenten in bestehende Servicestrukturen bietet Unternehmen einen entscheidenden Wettbewerbsvorteil – gerade in Zeiten zunehmenden Fachkräftemangels und finanzieller Unsicherheiten.

Die grenzenlose Welt der Large Language Models – wie grenzenlos sind sie wirklich?

Seit zwei Jahren sind sie das Hauptthema der digitalen Welt: Large Language Models (LLMs). Ob beim Beantworten von Fragen, dem Komponieren von Liedern, der Generierung von Code oder der automatisierten Textanalyse – ihre Einsatzmöglichkeiten scheinen nahezu unbegrenzt.

Doch wie grenzenlos sind LLMs wirklich? Und wo kommen sie eigentlich her?

Ein Buch mit 500 Seiten enthält etwa 250.000 Tokens

Zwei technologische Durchbrüche verhalfen in den letzten Jahren zum Erfolg. Large Language Models lesen Texte nicht wie Menschen. Damit die Technologie versteht, was wir wollen, wandelt sie die Texte in so genannte Tokens um. Tokens sind Zahlenfolgen, anhand derer das Sprachmodell Zusammenhänge erkennt und clustert. Diese Tokens können ganze Wörter, Silben oder häufige Zeichenfolgen sein.

Je nach Schriftgröße und -art enthält ein 500-seitiges Buch etwa 250.000 Tokens. Diese Umwandlungstechnik erhöht die Effizienz und macht die Verarbeitung großer Textmengen robuster – insbesondere bei unbekannten oder neuen Wörtern.

Next-Level-Sprachverarbeitung mit Transformer

Frühere Sprachmodelle waren langsam und hatten ein begrenztes Erinnerungsvermögen. Der Transformer-Ansatz, den es seit 2017 gibt, bringt zwei wesentliche Vorteile mit sich:

  • Self-Attention: Der Transformer setzt jedes Wort in Beziehung zu allen anderen Wörtern im Text. Dadurch kann das Modell kontextabhängige Bedeutungen besser erfassen.
  • Parallele Verarbeitung: Anstatt jedes Wort einzeln zu analysieren, verarbeitet der Transformer den gesamten Satz gleichzeitig. Das führt nicht nur zu einer schnelleren Verarbeitung langer Texte, sondern verbessert auch das Verständnis von Zusammenhängen über längere Passagen hinweg.

Woher weiß ein Large Language Modell so viel?

Ein LLM muss – ähnlich wie ein Mensch – erst „zur Schule“ gehen. Während des Pretrainings liest die KI Milliarden von Texte aus Wikipedia, Büchern, Nachrichtenseiten, Foren und Code-Datenbanken. Jede Information wird analysiert und in einen entsprechenden Kontext eingeordnet.

Über die Methode der Next-Token-Prediction gewinnt das Modell zunehmend Sicherheit in seinen Annahmen. Dabei erhält es unvollständige Sätze und soll das wahrscheinlichste nächste Wort vorhersagen. Beispielsweise wäre bei dem Satz „Die Sonne geht im Westen …“ die wahrscheinlichste Vorhersage „unter“. Je häufiger die KI diesen Prozess erfolgreich wiederholt, desto präziser werden ihre Wahrscheinlichkeitsannahmen.
Fehlannahmen werden durch einen Algorithmus namens Backpropagation korrigiert. Dieser schickt die Fehler eines LLMs rückwärts durch das Netzwerk und korrigiert die Gewichtung der Fehlaussage, um die Vorhersagequalität iterativ zu verbessen. So passt das neuronale Netz seine Vorhersagen kontinuierlich an.

Das abschließende Fine-Tuning ermöglicht es dem Modell, spezifische Anwendungsfälle abzudecken. Dadurch kann es beispielsweise unangemessene oder gefährliche Inhalte filtern, sich auf bestimmte Sprachstile einstellen oder Fachgebiete wie Medizin oder Recht professionell abdecken.

Eine weit verbreitete Methode ist das Reinforcement Learning from Human Feedback (RLHF). Hierbei bewerten Menschen verschiedene KI-Antworten und helfen dem Modell, bessere Ergebnisse zu liefern. Diese Technik wird auch genutzt, um unsere Skills während ihrer Laufzeit kontinuierlich zu verbessern.
So wächst das Wissen der LLM in kürzester Zeit exponentiell.

Die Grenzen und Herausforderungen von LLMs

Trotz ihres Fortschritts unterliegen LLMs einigen Herausforderungen und Limitierungen, die Nutzer kennen sollten:

  • Halluzinationen: Da Large Language Modelle auf Wahrscheinlichkeiten und nicht auf echtem Wissen basieren, können sie falsche oder erfundene Inhalte generieren. Eine Lösung hierfür ist die Retrieval-Augmented Generation (RAG), bei der externe, verifizierte Datenquellen zur Faktenprüfung herangezogen werden.
  • Vorurteile (Bias): LLMs spiegeln die gesellschaftlichen Vorurteile ihrer Trainingsdaten wider. Beispielsweise könnte ein Modell den Satz „Ein Arzt ist…“ eher mit „männlich“ als mit „kompetent“ vervollständigen. Um Bias zu reduzieren, nutzen Entwickler vielfältigere Trainingsdaten und setzen Methoden wie RLHF ein.
  • Eingeschränktes Langzeitgedächtnis: Obwohl die Sprachmodelle den Kontext über lange Textpassagen erfassen können, besitzen sie kein echtes Langzeitgedächtnis. Alle Informationen einer Sitzung sind nach deren Ende verloren.
    Zwei Entwicklungen wirken dieser Schwäche entgegen:

    • Erweiterung des Kontextfensters: Es bestimmt, wie viele Tokens das Modell gleichzeitig speichern und analysieren kann.
    • Memory-Augmented LLMs: Diese speichern Nutzerdaten über mehrere Interaktionen hinweg.
  • Hoher Energieverbrauch: Large Language Models sind extrem rechenintensiv. Allein die Anfragen für ChatGPT verbrauchen jährlich 226,82 Millionen kWh – das Doppelte des Energiebedarfs für Bitcoin-Mining. Forschende arbeiten bereits an effizienteren Hardware-Lösungen, um diesen Verbrauch zu senken.

Aktuelle Trends und Forschung: Die Zukunft der Large Language Modelle

Aktuell forscht man an kompakteren Modellen, die leistungsfähig und zugleich ressourcenschonend sind. Ein Beispiel ist Mistral 7B, das mit nur sieben Milliarden Parametern eine Leistung bietet, die mit GPT-3 (175 Milliarden Parameter) vergleichbar ist. Solche Entwicklungen ermöglichen das direkte Ausführen der Modelle direkt auf Smartphones oder Laptops.

Auch das Gedächtnis rückt zunehmend in den Fokus. Künftige Modelle sollen sich langfristig an Nutzer und frühere Konversationen erinnern können. Das ist ein bedeutender Schritt hin zu personalisierten KI-Assistenten.

Ein weiteres Forschungsfeld ist die Multimodalität. Neuere Modelle verarbeiten nicht nur Text, sondern auch Bilder, Videos und Audio, können diese verknüpfen und neu generieren.

Ansätze wie Tree-of-Thoughts und Chain-of-Thoughts verbessern das logische Denken der Modelle. Hierbei rückt die bloße Wahrscheinlichkeitsberechnung in den Hintergrund, während valide Informationen stärker gewichtet werden. Zudem ermöglichen Kombinationen mit Mathematik-Engines wie Wolfram Alpha präzisere Berechnungen in Wissenschaft und Technik.

Der Markt wird derzeit von Closed-Source-Modellen wie ChatGPT dominiert. Doch es zeichnet sich eine Verschiebung zu Open-Source-LLMs ab. Diese bieten mehr Transparenz und Anpassungsmöglichkeiten – bei gleichzeitig geringeren Kosten für Unternehmen und Forschende. Namen wie LLaMA 3, Mistral 7B und Falcon werden in Zukunft eine immer größere Rolle spielen.

Foto von Google DeepMind auf Unsplash

Mit starker Kundenbindung zum Unternehmenshelden werden

Ein Leiter im Kundenservice hat oft einen vollen Terminkalender. Die Aufgaben sind vielfältig und komplex, sodass wenig Zeit für tiefgehende Themen bleibt. Informationen müssen sofort erkennbar sein, und Kundenprobleme sollten klein gehalten werden, um Eskalationen zu vermeiden.

Warum ist es trotz Zeitmangel wichtig, sich mit den Kunden zu beschäftigen?

Die Antwort liegt auf der Hand:

Kennt er seine Kunden gut, kann er seine Abteilung besser unterstützen, ihre Arbeit erleichtern und einen größeren Service-Umsatz machen. Das entspannt seinen Arbeitsalltag.

Bestandskunden langfristig binden

Im letzten Artikel haben wir die wichtigste Kundengruppe für ein Unternehmen hervorgehoben. Für den Leiter Kundenservice ist es sinnvoll, sich auf Bestandskunden zu konzentrieren. Wir sprechen im Folgenden allerdings immer von der Kunden-Verbundenheit, die eine stärkere und belastbarere Bindung zum Unternehmen bedeutet, als es beispielsweise über eine vertragliche, finanzielle oder technische Gebundenheit der Fall ist.

Ein guter Service kann verhindern, dass Kunden verloren gehen. Noch besser: Hervorragender Service kann Kunden zu echten Fans machen. Das erhöht den Customer Lifetime Value (CLV) und den Wert jedes einzelnen Kunden für das Unternehmen. Dafür ist es hilfreich, interne und externe Kundenverhalten zu analysieren.

Externes Kundenverhalten: Was der Kunde braucht

Eine einfache Möglichkeit, auf Kundenbedürfnisse einzugehen und gleichzeitig Verbesserung im Service anzustoßen ist Kundenfeedback. Kunden geben gerne offenes und ehrliches Feedback, das blinde Flecken verhindern kann.

Feedback hilft, die Bedürfnisse und Erwartungen der Kunden besser zu verstehen. Wenn der Leiter weiß, dass die richtigen Dienstleistungen angeboten werden, kann sein Team die Kundenerwartungen erfüllen oder sogar übertreffen. Das reduziert nicht nur Beschwerden, sondern erhöht die Zufriedenheit auf beiden Seiten, gefolgt von einer besseren Kundenbindung und mehr Umsatz.

Wenn Kunden sich an reibungslose, freundliche und kompetente Interaktionen erinnern, kommen sie eher wieder. Sie sind zufriedener und empfehlen das Unternehmen weiter.

Interne Kundenverhalten im ganzen Unternehmen leben

Für eine entspannte Customer Journey ist es wichtig, diese gut zu tracken. Versteht ein Leiter die verschiedenen Berührungspunkte und deren Qualität, kann er sicherstellen, dass jede Phase ein Highlight für die Kunden wird.

Personalisierung ist eine Möglichkeit. Je persönlicher die Servicemitarbeiter auf Probleme eingehen, desto wertschätzender wirkt es auf die Kunden. Das beginnt bei der passenden Sprachwahl und endet bei umfassendem Vorwissen zum Problem. Niemand mag es, sich am Telefon ständig neu erklären zu müssen. Fällt das weg, ist der erste Schritt zur Kundenorientierung gemacht.

Gelingt es dem Leiter Kundenservice, Kommunikation und Dienstleistungen individuell anzupassen, stehen die Chancen gut, eine bessere Beziehung zum Kunden aufzubauen. Diese Einstellung muss jedoch das ganze Unternehmen teilen. Denken alle Mitarbeiter im Sinne der Kundenbedürfnisse, finden sie schneller und effizienter Lösungen. Das danken die Kunden mit Vertrauen und Loyalität.

Kundenbindung als Gamechanger

Warum ist es sinnvoll, sich Gedanken über Kundenbindung zu machen?

Es gibt mindestens vier Gründe, die den Erfolg eines Unternehmens stark beeinflussen.

  • Mit höherer Kundenbindung steigt die Effizienz und Effektivität des Kundenservice-Teams, da es weniger Beschwerden gibt. Je nach Bearbeitungsqualität kann Feedback sogar in Lob umschlagen.
  • Das fördert einen positiven Trend, der das Unternehmen von anderen abhebt. Auf einem Verdrängungsmarkt ist das oft das Quäntchen zum Erfolg.
  • Positives Feedback zieht potenzielle Kunden an, die sich intensiver mit den Produkten oder Dienstleistungen befassen. Sie schätzen die Wertschätzung der Kundengruppe und sind eher bereit, zu kaufen. Bestehende Kunden verzeihen hingegen oft Preiserhöhungen.
  • Die Markenwahrnehmung steigt fast ohne Marketingaufwand, und das Unternehmenswachstum lässt nicht lange auf sich warten.

Insgesamt bedeutet das höheren Umsatz für das Unternehmen – und wer will das nicht?

Wer die Kundenbeziehung stärkt, ist der Unternehmensheld

Zusammengefasst: Ein vorausschauender Leiter Kundenservice positioniert sich im Sinne seiner Kunden. Das erleichtert ihm die Arbeit und steigert den Umsatz des Unternehmens. Das macht ihn zum Unternehmenshelden.

Die Kunden lieben ihn für seine Kundenzentrierung und die Manager schätzen sein betriebsbewusstes Denken.

Was bedeutet Kunde eigentlich?

Als Unternehmen, das sich seit Jahrzehnten mit Kundenservicesoftware befasst, haben wir täglich mit dem Begriff „Kunde“ zu tun. Wir wissen, wie wir mit unseren Kunden umgehen wollen und welche Ziele diese mit ihren Kunden verfolgen.

Deshalb haben wir uns zum Ziel gesetzt, diesen Begriff detaillierter zu beleuchten und was man verstehen muss, wenn man gemeinsam vom Kunden spricht.

Wir wühlten uns durch verschiedene Lektüren, sprachen mit Experten und fragten Kundenservicemitarbeiter.

Woraus hat sich „Kunde“ entwickelt?

Laut Wikipedia kommt das Wort „Kunde“ vom althochdeutschen „kundo“, das etwa um 870 nach Christus zum ersten Mal auftaucht. Übersetzt in die heutige Sprache bedeutet das soviel wie „Einheimischer“, „Bekannter“ oder „Kundiger“. Das heißt, die Person war für den Verkäufer in gewisser Weise bekannt. Eine Eigenschaft, die auch heute noch relevant ist, wenn wir herausfinden, welche Zielgruppe wir haben.

Im kommerziellen Sinn taucht der Begriff erstmals im 16. Jahrhundert auf. Kunde ist „wer (regelmäßig) ein Geschäftsangebot wahrnimmt, einen Laden, Dienstleistungsbetrieb (wiederholt) in Anspruch nimmt“ (Pfeifer 1997, S. 744).

Wie wird Kunde definiert?

Hans Heinrich Path definierte im 20. Jahrhundert den Kunden so: „Ein Kunde ist die jeweils wichtigste Person in dem Betrieb. Er ist nicht von uns abhängig, sondern wir von ihm. Er bedeutet keine Unterbrechung unserer Arbeit, sondern ist ihr Inhalt. (…) Ein Kunde ist eine Person, die uns ihre Wünsche mitteilt. Unsere Aufgabe ist es, diese zu seiner Zufriedenheit auszuführen.“

Im Gespräch mit zwei unserer B2B-Kunden erfuhren wir eine ähnliche Definition: „Der Kunde ist eine Person, die den eigenen Lohn zahlt.“ Deshalb bieten sie die bestmögliche Kundenerfahrung an, inklusive Serviceerlebnis.

Der Kunde ist jemand, der kauft?

Einen Unterschied gibt es: Während Path den Kunden als eine Person definiert, die einen Wunsch äußert, gehen unsere Ansprechpartner weiter. Bei ihnen ist der Kunde jemand, der zahlt – den eigenen Lohn. Das heißt, hier ist der Kunde jemand, der bereits eine vertragliche Beziehung mit einem kaufrechtlichen Verhältnis eingegangen ist. Prof. Matthias Gouthier für Marketing und digitale Services von der Uni Koblenz sagt dazu: „Kauf und Nutzung einer Leistung bilden die Kernelemente des Kundenverständnisses.“

Der Kunde im eigenen Lebenszyklus

Für unsere Ansprechpartner aus dem Automotive Ersatzteilbereich haben Kunden einen hohen Wert, weshalb sie alles daran setzen, diese glücklich zu machen. Der Kundenwert kann, je nach Stadium, hoch oder niedrig sein. In diesem Lebenszyklusmodell verorten Unternehmen ihre Kunden, um sie einzuordnen und passende Maßnahmen zu ergreifen.

Nicht-Kunden sind vielleicht noch ahnungslos

Der Lebenszyklus eines Kunden beginnt beim Nicht-Kunden. Dieser hat noch keinen Kontakt zum Unternehmen. Er unterteilt sich in Kunden, die das Unternehmen noch nicht wahrgenommen haben und jene, die das Unternehmen kennen, aber noch nicht interagiert haben.

Diese Form von Kunde muss erst auf das Unternehmen, und im Zweifelsfall auch auf das Bedürfnis, das sie haben, aufmerksam gemacht werden. Mit dem Herausarbeiten einer zum Produkt passenden Zielgruppe, können sich Unternehmen dieser Kundenform sukzessive nähern.

Potenzielle Kunden stehen dem Bestandskunden sehr nahe

Potenzielle Kunden beschäftigen sich eingehender mit dem Unternehmen. Sie waren vielleicht schon auf der Website, haben auf eine Werbeanzeige reagiert oder folgen dem Unternehmen auf den Sozialen Medien. Die Wahrscheinlichkeit, dass sie kaufen, ist höher als in der vorhergehenden Gruppe. An der Stelle lohnt sich das Investment, die Kunden immer wieder auf das Unternehmen aufmerksam zu machen, bis sie ein Kaufinteresse äußern. Nach dem ersten Kauf betreten Sie den Bereich der Neukunden.

Bestandskunden gleichen einer Goldgrube, die gepflegt sein will

Hat der Kunde schon einmal bestellt, wechselt er die Sparte zu den Bestandskunden. Diese Kunden haben den höchsten Wert, der weiter wachsen kann. Je häufiger der Kunde mit dem Unternehmen agiert, desto wertvoller wird er. Sei es, wenn er erneut kauft oder Feedback gibt.

Die Interaktion mit dem Unternehmen ist eine Goldgrube und bedarf besonderer Aufmerksamkeit. Geben die Kunden über Bewertungen oder den Kundenservice Feedback, bieten sich dem Unternehmen zwei große Chancen.

  1. Die Servicemitarbeitenden können den Kunden mit ihrer schnellen und individuellen Antwort begeistern. Ein begeisterter Kunde wird leicht zum Fan und macht kostenlos Werbung.
  2. Feedback öffnet den Blick von außen auf das Unternehmen. Wenn diese Rückmeldungen genutzt werden, um besser zu werden, gehen sie auf die Wünsche der Kunden ein und beseitigen blinde Flecken.

In dieser Phase entscheidet sich, ob der Kunde bleibt oder geht. Deswegen ist es ratsam, die Kommunikation schnell, effizient und qualitativ hochwertig zu gestalten. Stellst Du Nachbesserungsbedarf fest, melde Dich gerne bei uns und wir schauen gemeinsam, wie wir die Prozesse für Dich und Deine Kunden mit unserer Software unterstützen können.

Verlorene Kunden haben das Interesse verloren

Ist die Kommunikation nicht gut gelaufen, sinkt der Kundenwert. Der Kunde ist enttäuscht und wendet sich ab. Er ist verloren und kommt vermutlich nie wieder zurück.

Das ist schmerzvoll und geschäftsschädigend. Der Rückholprozess ist teuer und langwierig, wenn er überhaupt funktioniert. Deswegen ist es besser, passend auf den Kunden eingehen und ihn so lange wie möglich zu begeistern.

Die Definition passt nicht immer zu jedem Unternehmen

Im Gespräch mit Andreas Schöler, Professor für Dienstleistungsmanagement, Konsumentenpsychologie und Marketing an der Hochschule für angewandtes Management, ist die Standarddefinition richtig, hat aber Tücken. Es gibt je nach Unternehmen Unterschiede. Der Grad zwischen Nicht-Kunden und potenziellen Kunden ist fließend. Auch die Frage, ab wann Kunden nicht mehr aus dem Bereich der verlorenen Kunden zurückzuholen sind, kann man nicht allgemeingültig definieren.

Deshalb ist es wichtig, sich als Unternehmen darüber klar zu sein, worauf man den Fokus legen möchte und wann man welche Grenzen zwischen den Übergängen ziehen will.

Für uns als Dienstleister im Kundenservicesektor ist das Thema ebenfalls sehr wichtig. Wenn wir unsere Kunden genau verstehen, können wir die passende Lösung bieten. Deswegen freuen wir uns immer auf Experten in diesem Gebiet, die ihre aktuellen Erkenntnisse und Forschungen mit uns teilen möchten.

Ein Besuch auf der BVL Supply Chain CX

Was für ein Auftakt! Als Mitglied der Bundesvereinigung für Logistik (BVL) hatten wir von targenio die Gelegenheit, als Teil der 2500 Besucher an der BVL Supply Chain CX teilzunehmen. Unser Ziel? Neue Kontakte knüpfen, ein besseres Gefühl für die Logistikbranche – insbesondere im Maschinenbau, Automotive und Aftermarket – entwickeln und herausfinden, wie bereit die Supply-Chain-Community für zukunftsweisende Kundenkommunikation ist.

Erfahrungen und Eindrücke von targenio auf der BVL Supply Chain CX 2024

Der frühere Deutsche Logistik-Kongress trat dieses Jahr zum ersten Mal im neuen Format auf. Kai Althoff formulierte bei der Eröffnung den Grund klar: „Wir wollen jünger, direkter, internationaler und vielfältiger werden. Wir wollen alles vereinen, was die Logistik ausmacht. Als größtes Logistik-Netzwerk Deutschlands müssen wir uns weiterentwickeln und auch unterstützt werden.“

Neben dem Kongress fand auf der BVL Supply Chain CX erstmals eine Expo statt, auf der sich Interessierte mit Ausstellern austauschen konnten. Um die Ausstellungsräume lebendig zu gestalten, installierten die Veranstalter verschiedene Bühnen, auf denen sich Unternehmen präsentieren konnten. Innovationen für neu gedachte Logistikkonzepte, von KI-Software bis hin zu automatisierter Warenverteilung, fanden besonders auf der LogTech Stage ihren Platz.

Supply Chain CX: Moderne Ansätze für Logistik und Innovation

Auf der BVL Supply Chain CX wurde uns besonders klar: Die Branche bewegt sich nicht nur physisch, sondern auch gedanklich in Richtung digitale Transformation, KI, Big Data und Automatisierung.

Führende Akteure der Branche denken über digitale Plattformen nach, die höhere Datensicherheit und weniger Angriffsflächen für Cyberattacken bieten. Das bestätigt uns in unserer Annahme, dass eine anpassbare Plattform für verschiedene Assistenten  einen enormen Mehrwert schaffen kann.

Durch die Vernetzung von Daten können Unternehmen sich nicht nur besser verständigen, sondern auch ihren Kunden einen größeren Mehrwert bieten, da sie transparenter und schneller werden. Marco Schäfer, Vorstand von Edeka Rhein-Ruhr, brachte es bei der Diskussion über digitale Plattformen auf den Punkt: „Effizienzsteigerung findet nur durch digitale Vernetzung statt!“

Aftermarket und Ersatzteillogistik: Insights führender Unternehmen

Im Track „Forum Ersatzteillogistik“ beschäftigten sich die Kongressteilnehmenden intensiv mit Themen aus dem Aftermarket. Experten von CLAAS, Geis Global Logistics GmbH, Seifert Logistics GmbH und Rolls-Royce Holdings diskutierten, ob das Outsourcing der Ersatzteillieferung an Dienstleister sinnvoll ist – und wenn ja, welche Schritte dafür erforderlich wären.

Die Flexibilität in der Lagerhaltung sowie die Qualität der Lieferung sprechen für ein Outsourcing. Doch in Bezug auf Transparenz und Wissenshoheit zeigen sich die Unternehmen eher zurückhaltend. Das erarbeitete Wissen soll im produzierenden Unternehmen beheimatet sein und bei einem Wechsel der Dienstleister nicht verloren gehen.

Diese Zurückhaltung beeinflusst maßgeblich die Wahl der Software. Die produzierenden Unternehmen bevorzugen überwiegend ihre eigene Software und lehnen die Software von Dienstleistern ab – selbst wenn die Dienstleister damit eine bessere Performance erzielen könnten.

Effiziente Kundenkommunikation: die targenio Assistentenphilosophie

Was wäre, wenn die vorhandene Software durch digitale Assistenten ergänzt wird, die als Schnittstelle zwischen Unternehmen, Dienstleister und Kunde fungieren? Genau das ist eine der Ideen, die wir mit unserer Assistentenphilosophie verfolgen.

Die Assistenten erhöhen nicht nur den Automatisierungsgrad in der logistischen Abwicklung, sondern schaffen auch umfassende Transparenz für den Kunden, was zu einer gesteigerten Zufriedenheit durch verlässliche Informationen führt.

Beim Wissensaufbau unterstützen die Assistenten sowohl interne Mitarbeiter als auch die Mitarbeitenden des Dienstleisters. Sie sammeln relevante Informationen beider Seiten und halten das Wissen stets aktuell. Bei einem Wechsel des Dienstleisters bleibt das Wissen erhalten – und auch der Dienstleister kann sein aufgebautes Wissen bewahren.

Das Ergebnis ist eine Win-Win-Situation für beide Geschäftspartner.

Wie wir unser Team für Künstliche Intelligenz begeistern

Künstliche Intelligenz (AI) hat sich in der Gesellschaft zu einem geflügelten Wort entwickelt. Doch sie ist mehr als nur ein Schlagwort – sie entpuppt sich zu einer transformativen Kraft, die Branchen revolutioniert und Arbeitsweisen neu definiert. Bei targenio sind wir fest entschlossen, diesen Wandel aktiv mitzugestalten. Deshalb haben wir uns vorgenommen, interessierte Teammitglieder auf dem Weg in Richtung AI zu begleiten.

AI-Workshops: Alle zwei Wochen, freiwillig und praxisorientiert

Jeden zweiten Mittwoch nehmen wir uns freiwillig Zeit, uns mit den neuesten AI-Tools, -Trends und -Technologien auseinanderzusetzen. Diese Sessions haben wir informativ und interaktiv gestaltet. Das Ziel: Unser Team soll die Möglichkeiten von AI nicht nur theoretisch verstehen, sondern praktisch erleben und anwenden können.

Begeisterung wecken und greifbar machen

AI ist disruptiv[1] und kann auf den ersten Blick überwältigend wirken. Deshalb legen wir großen Wert darauf, AI greifbar und verständlich zu machen. In unseren Sessions zeigen wir KI-Tools, die in den Arbeitsalltag integriert werden können, und welche konkreten Vorteile dies für jeden Einzelnen und das gesamte Unternehmen mit sich bringt.

Ein zentraler Bestandteil, um das Team für Künstliche Intelligenz zu begeistern, ist der Wissenstransfer. Implizites Wissen im Unternehmen sichtbar und zugänglich zu machen, ist entscheidend.

Unsere KI-Jams bieten nicht nur eine Plattform für das Kennenlernen neuer Technologien, sondern auch Raum für Innovation. Jeder im Team hat die Möglichkeit, persönliche Interessen einzubringen und an der Lösung konkreter Probleme mitzuwirken.

Wir wollen Begeisterung im Team für Künstliche Intelligenz wecken – und das gelingt uns am besten durch praktische Beispiele und gemeinsame Erlebnisse.

Kickoff-Session und weitere Schritte

Unser Programm begann mit einem Kickoff-Workshop, in der wir alle Wünsche und Erwartungen zusammengefasst haben. Daraus haben wir einen Fahrplan entwickelt, der den Bedürfnissen und Interessen unseres Teams gerecht wird. Von der Auflistung und Nutzung der besten AI-Tools über das Erlernen von Prompting-Techniken bis hin zur Entwicklung von Prototypen – jede Session ist darauf ausgelegt, praktisches Wissen zu vermitteln und die Anwendung im Arbeitsalltag zu fördern.

Teaming with AI – Erfahrungen aus der Unconference

Ein weiterer Bestandteil unserer Workshops sind die externen Events, an denen unsere Teammitglieder bei Interesse teilnehmen können. Dabei lernen sie neue Tools kennen, die Eingang in die Session finden, um alle auf einen neuen Wissensstand zu heben. Darüber hinaus haben sie Möglichkeiten, die Erkenntnisse in ihren persönlichen Workflow einzubinden.

So zog es sechs Mitarbeiterinnen und Mitarbeiter zu einem Unconference-Event in Nürnberg. Unsere Teammitglieder teilten dabei verschiedene Erfahrungen. Beispielsweise nahm Andreas, unser UX-Designer, den ethischen Aspekt, den er kennenlernte als besonders wichtig wahr: „Im ersten Moment erscheint das Konzept „Doing evil for doing good“ in unserem Bereich eher unvorstellbar. Anhand des Beispiels der Vitaltracker wurde mir das dann aber klar. Diese wurden erstmal nur gemacht, damit sich Menschen mehr bewegen. Nun kann es aber sein, dass Krankenkassen Patienten, die eben schlechte Werte haben, ablehnen. Sowas sollten wir unbedingt in unseren Überlegungen beachten.“

Im Hinblick auf den ethischen Aspekt stimmt Nicolas, einer unserer Entwickler, die sich intensiv mit dem Aspekt KI auseinandersetzen, absolut zu. Aber auch der interdisziplinäre Austausch verschaffte ihm einen Blick über den Tellerrand, der ihm neuen Input für seine Arbeit lieferte.

Ein Fazit: Unser Engagement für die unternehmerische Zukunft

Unser Engagement für AI und kontinuierliches Lernen zeigt sich in der positiven Resonanz während der Sessions. Die Begeisterung ist spürbar. Die Bereitschaft, neue Technologien zu erkunden, ebenso. Wir sind überzeugt, dass wir durch diese Initiative nicht nur unsere Arbeitsprozesse verbessern. Wir leisten auch einen wertvollen Beitrag zur persönlichen und beruflichen Entwicklung jedes teilnehmenden Teammitglieds.

Natürlich gibt es auch Zweifel und Bedenken, die ernst genommen werden müssen. Gerade diese versuchen wir mit dem Format der Session zu beseitigen. Deshalb bleiben wir dran – für eine Zukunft, in der AI ein integrales Werkzeug unserer täglichen Arbeit werden soll. Gemeinsam wollen wir den Weg ins KI-Zeitalter gestalten und targenio fit für die Herausforderungen und Chancen von morgen machen.


[1] Disruptive Innovationen ersetzen häufig auf tiefgreifende Weise bestehende Technologien oder Geschäftsmodelle. Das kann unter Umständen zu eine Art „Zerstörung“ von Märkten führen.

Was hat Blockly mit der Zukunft für Software zu tun?

Klemmbausteine sind die Zukunft für den Umgang mit Software. Warum? Weil diese veranschaulichen, dass wir alle unsere Software irgendwann wie Bausteine zusammenfügen können. Die Gedanken über komplexe Softwareentwicklung werden sich von spezialisierten Entwicklerteams weg- und zu Anwenderallroundern hinbewegen. Low Code und No Code (LCNC) verändern jetzt schon den grundlegenden Umgang mit Software – und werden es in Zukunft noch intensiver tun.

Softwareentwicklung mit Bausteinen

Auf Basis dieser Gedanken hielt unser Leiter für Softwareentwicklung, Holger Herrmann, beim aktuellen Mathema Campus einen Vortrag zum Thema Low-Code-Anwendung. Er zeigte auf anschauliche Weise, wie man schnell und intuitiv eine Anwendung zur Planung von Musikevents erstellt. Sobald die Anwendung steht, lässt sich mit wenig Coding-Wissen eine eigene Softwarelogik erstellen, wie beispielsweise dieses Planen von Musikevents.

Seine Erfahrungen machte Holger im Zuge der Weiterentwicklung unserer Kundenservicesoftware targenio. targenio wird mit seiner Assistentenplattform den nächsten Schritt gehen. Um auf dem Stand der Zeit zu bleiben, wird die Grundlage eine Low-Code-No-Code-Anwendung sein, die unsere Kunden individuell an ihre eigenen Anforderungen anpassen können. Seien es Anwendungen, Module oder Skills: Mit der Assistentenplattform werden individuelle Lösungen auf effiziente Art und Weise möglich.


Mit Blockly in die Welt der LCNC-Anwendungen abtauchen

Der Weg zu dieser Geschäftsentscheidung war mit vielen Gedankenspielen verbunden, unter anderem mit dem Framework Blockly, mit deren Logik sich Holger intensiv befasst hat. Diese Erkenntnisse sind jetzt Grundlage für seinen Vortrag, den er vergangenen Samstag auf dem Mathema Campus in Erlangen halten durfte.

Bei Blockly handelt es sich um ein Framework von Google. Es unterstützt dabei, sogenannte “Blöcke” über eine grafischen Oberfläche zusammenzufügen. Jeder Block erzeugt einen kleinen Code-Schnipsel. Dieser Schnipsel wird mit den anderen so verwoben, dass am Ende ein ausführbarer Code entsteht. Dabei kann durch den Entwickler der Plattform festgelegt werden, in welcher Sprache der Code erstellt werden soll, beispielsweise in Javascript.

Individuelle Anpassung von Blockly an die Bedürfnisse

Für die Ausführung des Codes wählte Holger die Scripting Engine Jexl des Apache-Projekts. Diese ist in der Lage, Quellcode, der zum Beispiel mit durch Blockly erstellt wurde, zu interpretieren und in der Java VM auszuführen.

Holger hat in seinem Vortrag die Integration der Jexl-Engine in eine Spring-Boot-Anwendung live entwickelt und unter anderem damit gezeigt, wie Blockly in eine Angular Anwendung integriert werden kann. Dabei zeigte er auch auf, welche Möglichkeiten es gibt, Blockly den eigenen Bedürfnissen anzupassen.

Was ist der Mathema Campus?

Der Mathema Campus ist eine Konferenz für Kunden, Partner und Freunde von Mathema, die sich auf Themen wie Softwareentwicklung, Data Science und persönliche Entwicklung konzentriert. Ursprünglich als interne Weiterbildung konzipiert, ist diese Veranstaltung seit 2003 auch für externe Teilnehmer geöffnet.

Sie bietet praktische Workshops, Vorträge zu vielfältigen IT-Themen und Gelegenheiten zum Netzwerken. Der Mathema Campus findet jährlich statt, zieht Teilnehmer aus verschiedenen Branchen an und bietet eine Mischung aus fachlichem Austausch und sozialen Aktivitäten.


Was (k)ein KI-Assistent mit einem Punkt in Flensburg zu tun hat?

Schon einmal ganz viel mit meiner vergangenen Woche, die im Zeichen der digitalen Assistenten stand. Denn in der Woche stellte ich fest, wie wichtig es ist, das Thema KI-Assistent voranzutreiben und ihn auf den Markt zu bringen.

Der erste Zwischenhalt meiner Rundreise durch die Republik war die wunderschöne Stadt Düsseldorf. Dort nahm ich im Namen von targenio mit meinem Kollegen Jan Schilling  am KickOff „KI im Service“ des Service Performance Centers als eines von elf Unternehmen teil.

Wir haben viel über die zukünftigen Herausforderungen im Service diskutiert. Mithilfe von KI Assistenten im Sinne von targenio lässt sich in diesem Bereich sehr viel gestalten. Ich freue mich auf die kommenden Termine und darauf, wohin uns die Reise führen wird.

Automation von Service Prozessen mithilfe von KI-Assistenten

Von Düsseldorf führte mich der Weg weiter nach Stuttgart zu einem unserer Kunden in der Automotivebranche.  

Auch hier spielt das Thema KI und Automation der Service Prozesse eine wichtige Rolle. Deshalb realisieren wir für den Kunden zeitnah einen digitalen Assistenten mit Unterstützung von künstlicher Intelligenz. Er soll die Agents bei der Bearbeitung verschiedener Anfragen unterstützen und so zu einer höheren Zufriedenheit auf beiden Seiten führen.

In unserem Büro in Nürnberg angekommen, durfte ich mit Blick auf den digitalen Assistenten die Erfahrungen der Woche in Teamgesprächen diskutieren und zur internen Weiterentwicklung einkippen.

Digitaler Assistent verhindert Punkte in Flensburg

So, und nun steht immer noch die Frage im Raum, was das mit Flensburg zu tun hat?

Ganz einfach: auf meiner Tour de Deutschland war ich so in Gedanken, dass ich meine Geschwindigkeit nicht immer 100%ig im Blick hatte, sondern nur zu 81%.

Dumm bei diesen 19% ist allerdings, dass ich dabei zweimal satt in Radarkontrollen geraten bin – und dabei mindestens einen Punkt einsammelte und mit mindestens 150 € gerne die Länder Niedersachsen und Baden-Württemberg unterstütze.

Sowas ist extrem ärgerlich. Dabei hatte ich diese Woche doch so viele gute Gedanken zum Thema digitaler Assistent. Für solche Fälle wäre es grandios, hätte ich einen Assistenten, der genau nach dem Muster handeln würde, wie unser Team ihn diese Woche bei zwei Terminen vorgestellt hat.

Wie wäre es, wenn ich einen digitalen Assistenten an meiner Seite gehabt hätte, der in solchen Momenten eingreift und mein monetäres sowie Punktekonto vor solchen Ausrutschern schützt?

Drei Schritte zum autonomen Assistenten

Ein Assistent im Sinne von tagenio wäre dazu in der Lage. Am Beispiel eines KI-Fahrassistenten sieht das so aus:

1. Manueller Modus

In der ersten Phase ist der Assistent ausschließlich im datenverarbeitenden Modus. Fahrverhalten und -gewohnheiten werden aufgezeichnet. Dazu gehört die Art und Weise, wie der Fahrer bremst, welche Geschwindigkeiten gefahren werden und wie der Fahrer mit Geschwindigkeitsbegrenzungen umgeht.

2. Kooperativer Modus

Während der zweiten Etappe macht derAssistent erste Vorschläge und übernimmt erste Aufgaben selbständig. Zum Beispiel nimmt er automatisch die vom Fahrer erlernte Geschwindigkeit in bestimmten Situationen ein. Währenddessen fragt er beim Fahrer immer wieder nach, ob die Interpretation korrekt ist.

3. Autonomer Modus

Nach einer intensiven Lernphase ist der Assistent bereit, selbst die Kontrolle zu übernehmen. Der Wagen fährt selbständig so, wie es vom Fahrer im kooperativen Modus bestätigt wurde, und hält sich gleichzeitig an die Gesetzmäßigkeiten des Verkehrs sowie an Witterungsbedingungen. Der Fahrer kann jederzeit eingreifen.

Der KI-Assistent für exzellenten Kundenservice

In meinem Beispiel formt die Orchestrierung von drei angewandten Skills den nerven- und geldbeutelschonenden #KI-Assistenten. Er benötigt die Verkehrszeichenerkennung, den Tempomat und die Erfassung der Fahrverhaltensdaten.

Das Schöne: Der Assistent lässt sich in allen Bereichen mit Kundenservicegedanken anwenden. Wir bei targenio schaffen mit unseren digitalen Assistenten zuverlässige Partner, für die unterschiedlichsten Rollen oder Personas im (Kunden-)Service.

Das Ziel ist eine höhere Kundenzufriedenheit, da die Anfragen effizient, ja teilweise sogar in Echtzeit, mit allen notwendigen Informationen beantwortet werden.

Das Ziel ist eine höhere Kundenzufriedenheit, da die Anfragen effizient, ja teilweise sogar in Echtzeit, mit allen notwendigen Informationen beantwortet werden können.

Du hast Interesse am Austausch zu dem Thema? Mach noch heute einen Termin mit mir aus!

Wie schätzt targenio den Markt im Kundenservice in 30 Jahren ein?  

Das Zeitalter des Wissens, der Kreativität und der Nachhaltigkeit beeinflusst unsere Wirkungskreise. Sogar unsere Branche ist stark davon betroffen, die Auswirkungen zeigen sich beispielsweise in der strukturellen Veränderung der Kundenmatrix. Die Anforderungen an den Kundenservice werden größer, die Toleranz der Endkunden geringer. In diesem Segment hört man immer wieder das Wort „Amazonisierung“ von Unternehmen. Die Endkunden wünschen sich schnellstmöglich eine proaktive und personalisierte Lösung, und das am besten bei sich zu Hause, ohne sich vertieft mit den Problemen auseinanderzusetzen. Sieht so der Kundenservice in 30 Jahren aus?

Das bedeutet wiederum für unsere Kunden ein enormes Umdenken, um wettbewerbsfähig zu bleiben. 

Es wäre gelogen, wenn wir behaupten, das hätte auf uns keinen Einfluss. In jeder Veränderung steckt jedoch eine Chance. Eine Chance, die wir nutzen möchten. 

Ausrichtung in unruhigen Zeiten durch die Hilfe von Megatrends 

Um diese Chance zu definieren, haben wir uns erst angeschaut, wie sich die Herausforderungen, denen unsere Kunden begegnen, gewandelt haben. Dazu ist es hilfreich zu wissen, worauf diese Wandlungen gründen und wie sie in die Zukunft wirken. Mit der Hilfe von Megatrends kann eine Einsortierung in gesellschaftliche Strukturen erfolgen. Das dezimiert die Sorge vor unternehmerischer Überforderung und gibt einen Ausblick in die zukünftige Ausrichtung von Unternehmen oder Abteilungen. 

Das Grundverständnis von Megatrends beruht darauf, dass sie sich langsam, aber stetig aufbauen, bevor sie disruptiv und über einen besonders langen Zeitraum auf die Gesellschaft einwirken. Der Vorgang kann zwar durch politische Entscheidungen beschleunigt oder verzögert, jedoch nie aufgehalten oder gar gestoppt werden. Das Zukunftsinstitut hat verschiedene Megatrends evaluiert vertieft sowie deren Wechselwirkungen herausgearbeitet. 

In Betrachtung auf die Probleme unserer Kunden konnten wir feststellen, dass diese in Trends, wie „Konnektivität“, „New Work“, „Urbanisierung“ und „Sicherheit“ zu finden sind. Die meisten Auswirkungen hat hierbei aber der Megatrend „Mobility“. 

Andere Gesellschaften erfordern andere Mobilität 

Eines der Kernziele unserer Gesellschaft ist das Streben nach einer nachhaltigeren und gesunden Zukunft. Das führt zu einem Neudenken von Städten und den darin gewachsenen Verkehrsstrukturen.  

Die Städte sind in 30 Jahren für die Menschen attraktiver, grüner, vielfältiger und haben sich  zu Begegnungsräumen gewandelt. Begünstigt war dieser Gedanke von der EU, die eine Reduzierung der CO2-Emissionen von neuen Autos um 55 Prozent bis 2030 und ein Verbot von Autos mit fossilen Brennstoffen bis 2035 auf den Weg gebracht hat (vgl. Europäisches Parlament 2022; Europäischer Rat 2022). 

Frankfurt am Main führte 2023 ein Tempolimit von 20 km/h in der Innenstadt ein. Das Auto hat in der Stadt keine Vormachtstellung mehr. Die Städte sind 2030 zunehmend von Fahrrädern geprägt, die mehr Raum für urbane Wohnzimmer lassen, um sich dort gemeinschaftlich aufzuhalten. Dort arbeiten die Leute in 30 Jahren nicht mehr in Büros, sondern auf den Flächen, in den Parks, mobil unterwegs. Arbeiten besteht dann überwiegend aus administrativen Aufgaben und sozial geprägten Berufen, die überwiegend von KI unterstützt werden. 

Private und öffentliche Verkehrsstränge gehen nahtlos ineinander über. Der Wechsel von einem Transportmittel zum anderen fällt aufgrund der wegfallenden Wartezeiten leichter und führt zu komplementären Angeboten, die sich gegenseitig begünstigen. Das kann unter, auf und über der Erde sein. 

Autonomes Fahren reduziert den Bedarf an Parkplätzen. Fahrzeuge holen die Fahrgäste autonom ab und bringen diese an den gewünschten Ort, bevor sie sich zum nächsten Fahrgast begeben. Während der Fahrt können die Personen in den Fahrzeugen ihren Geschäften nachgehen oder entspannen, wodurch sich die Bedeutung von Automobilen grundsätzlich ändert – das Fahrzeug wandelt sich zum aktiven Aufenthaltsort, in dem intensive Gespräche stattfinden, gearbeitet oder kurzzeitig gewohnt wird. Bis dahin müssen wichtige Fragen geklärt werden: Wer haftet, wenn im Straßenverkehr etwas passiert? Was muss getan werden, sobald ein Fahrzeug einen Fehler hat und sich nicht mehr weiterbewegen lässt? Gibt es Notfallsysteme für die manuelle Bedienung? Braucht es weiterhin Führerscheine und wie werden diese aussehen? 

Überwindung des Ständigen und Stehenden 

Mobilität begriff sich vor der Pandemie vor allem als „höher, schneller, weiter“. Plötzlich wurden alle in den Stillstand gezwungen, was einen neuen Blick auf die Sache öffnete. Das Gegenteil der bisher vorherrschenden Hypermobilität zeigte sich in den leeren Städten und stillstehenden Flughäfen. Nach der Pandemie, als alles wieder langsam anlief, erfuhren wir, dass es doch Grenzen gibt – Staus häuften sich schlagartig, die Flughäfen waren im Sommer 2022 überfüllt und Leute kamen kaum vom Fleck. 

Der Konflikt des unbegrenzten Reisens zeigt sich in der Frage des Antriebs unserer Fahrzeuge: wie schnell bin ich mit einem elektroangetriebenen Auto an meinem Wunschort, ohne lange an der Ladesäule zu stehen? Muss ich meine Geschäftsreise machen oder kann ich die Gespräche auch online führen? Wie werden die Transportmittel geladen? Was passiert mit den veralteten Batterien? Und was ist, wenn all das in Zukunft eigentlich gar nicht mehr gebraucht wird? 

Und doch: Die Zeiten des Stillstandes – auf der Straße wie in der politischen Gesellschaft – sind vorbei. 

Der digitale Übergang ist auch im Kundenservice spürbar 

Das gilt auch für den Kundenservice. In 30 Jahren ist die Betreuung wesentlich personalisierter und enger an den Kunden dran. Ein eigener Assistent wird die Individuen vermutlich individuell betreuen und entsprechende Hilfestellungen geben, wo es nötig ist. Das ist dank umfassender Datenprofile und Verhaltensanalysen möglich. Vor allem werden die Vorgänge maßgeblich von künstlicher Intelligenz gestützt, wenn nicht sogar voll automatisiert, sein, ohne den Kontakt zur jeweiligen Person zu verlieren.  

Der Kundenservice der Zukunft wird intensiver auf eine nahtlose Integration von verschiedenen Technologien setzen. Virtuelle Assistenten, Chatbots, Augmented Reality (AR) und Virtual Reality (VR) werden in Echtzeit miteinander und mit menschlichen Kundendienstmitarbeitern interagieren, um Problemlösungen und Informationen bereitzustellen. Kunden werden in der Lage sein, Produkte und Dienstleistungen in AR oder VR zu erleben und gleichzeitig auf menschliche Unterstützung zugreifen zu können, wenn dies erforderlich ist. 

Callcenter-Systeme werden wahrscheinlich in der Lage sein, eine umfassende 360-Grad-Sicht auf den Kunden zu bieten. Dies bedeutet, dass Callcenter-Agenten Zugriff auf Informationen über vergangene Interaktionen, Präferenzen und Verlauf haben, unabhängig davon, über welchen Kanal oder zu welchem Zeitpunkt die Interaktion stattgefunden hat. So können Kunden nahtlos zwischen verschiedenen Kommunikationskanälen wie Telefon, Chat, sozialen Medien, E-Mail und Video wechseln, ohne dass sie ihre Anliegen erneut erklären müssen.  

Dabei stoßen wir jetzt noch auf Fragen in Bezug auf den Datenschutz und die Umsetzbarkeit zwischen Technik und Software. Was passiert, wenn gerade kein Netz vorhanden ist? Wird AR/VR so in den Alltag integriert sein, dass wir uns nicht von der Umwelt abgeschottet fühlen? Und haben wir wirklich 24/7 die Möglichkeit, auf reale Kundenservicemitarbeitende zurückzugreifen, wenn die Künstliche Intelligenz an ihre intelligenten Grenzen stößt, und können damit weiterhin Antworten in Echtzeit erwarten? 

Kundenservice funktioniert auch in Zukunft nur nah am Kunden 

Ungeachtet der Fragen betont Berater Herrmann Simon im Beitrag „Hidden Champions – Service made in Germany“ vom Harvard Business Manager, dass deutsche Dienstleister in der Zukunft zwar keine Konkurrenz zu den großen Firmen wie Google, Hilton, Starbucks und andere sein werden, jedoch mit ihrem Wissen punkten können. Vor allem das Wissen um Logistik, Infrastrukturdienste, Wartung, Process Mining oder industrieller Prozesse ist ein wesentliches Alleinstellungsmerkmal, mit dem Deutschland nach Exzellenz streben kann.  
Um das zu erreichen, braucht es Mitarbeitende, die hoch qualifiziert und serviceorientiert denken und handeln. Simons Meinung nach braucht es die jeweilige Sprache und die unabdingbare Nähe zu den Kunden: „Nur wer es schafft, überall auf der Welt nah am Kunden zu sein und gleichzeitig eine einheitliche Unternehmenskultur zu schaffen, wird als globaler Dienstleister erfolgreich sein.“ Und natürlich werden die Dienstleister, egal ob vor Ort oder dezentral, sehr stark von Künstlicher Intelligenz unterstützt werden, damit sie sehr schnell an ihre Ziele kommen. 

Zukunft ist Trumpf 

Zukunft gibt also Raum für Gestaltung, gerade wenn es darum geht, kritisch-optimistische und mutige Haltungen einzunehmen. Diese Haltung und ein ganzheitliches sowie systemisches Denken, das sich sehr nah am Kunden orientiert, bauen das Fundament für eine erfolgreiche Zukunftsarbeit im Kundenservice. Dabei bildet in unserer Automotive Branche der Megatrend Mobilität eine Dynamik, die nicht mehr linear vorwärts geht. Sie verlässt mit dem Angebot von diversen Fortbewegungsmitteln die gewohnte Bahn und bringt uns so der wahren Zukunft, bestehend aus Individualität, umstrukturierten Städten, fortschreitender Digitalisierung und Andersartigkeit des Kundenservices, näher.  

Wenn die Unternehmen, die in der Mobilitätsbranche angesiedelt sind, mit ihrem Kundenservice Hand in Hand und neugierig an den Veränderungen in die Zukunft gehen, wird die Kundenzufriedenheit sowie die Effizienz in der Kundenkommunikation enorm gesteigert. Das lässt uns vertrauensvoll in die kommenden Jahre blicken, dich nicht auch?