Technologie & Business

AI-Agenten und Agentic AI im Kundenservice verstehen und nutzen

Stell dir vor, 80 Prozent aller Kundenanfragen in deinem Service-Center werden bis zum Ende des Jahrzehnts vollständig autonom gelöst. Und das bei bis zu 30 Prozent geringeren Betriebskosten. Diese Prognose stammt von Gartner und beschreibt die Entwicklung, die durch Agentic AI möglich wird. Erste Marktbeispiele belegen diese Richtung, doch der eigentliche Vorsprung entsteht nicht bei den großen Plattformanbietern, sondern bei Lösungen, die flexibel genug sind, sich nahtlos an deine Prozesse anzupassen.

Einordnung von AI-Agenten und Agentic AI

AI-Agenten sind autonome Software-Systeme, die ihre Umwelt wahrnehmen, Entscheidungen treffen und durch maschinelles Lernen ihre Leistung kontinuierlich verbessern. Damit unterscheiden sie sich klar von klassischen Chatbots, die nur vordefinierte Antworten liefern.

Agentic AI geht einen Schritt weiter. Diese Systeme handeln proaktiv, verfolgen eigenständig Ziele, planen mehrstufige Prozesse und passen ihr Verhalten flexibel an neue Kontexte an. Damit entwickelt sich Agentic AI zu einem intelligenten Kollegen, der nicht nur unterstützt, sondern Entscheidungen vorbereitet und teilweise ersetzt.

Welchen Nutzen AI-Agenten und Agentic AI deinem Service bringen

Der Einsatz von Agentic AI im Kundenservice eröffnet enorme Potenziale. Contact Center können ihre Betriebskosten deutlich senken und gleichzeitig die Abschlussrate steigern, ohne dafür nach dringend benötigten Fachkräften zu suchen.  Routineaufgaben wie Dokumentation, Ersatzteilmanagement oder Standardanfragen übernimmt die KI, während dein Team sich stärker auf komplexe Fälle konzentriert.

Für deine Kunden bedeutet das ein völlig neues Erlebnis: Sie erhalten proaktive, kontextbewusste Antworten, die Bedürfnisse oft schon im Vorfeld erkennen und bedienen.  Außerdem ist es längst Realität, dass bereits heute Agentic-Systeme bis zu 15 Prozent alltäglicher Entscheidungen zuverlässig übernehmen.

Wohin sich AI-Agenten und Agentic AI bis 2030 entwickeln werden

Die Entwicklung zeigt klar in die Richtung einer Agent-Economy. Intelligente Agenten werden zu festen Bestandteilen von Wertschöpfungsketten, arbeiten zusammen und optimieren Prozesse in Echtzeit. Marktbeispiele wie Salesforce unterstreichen zwar, dass hohe Automatisierungsquoten erreichbar sind. Doch sie belegen vor allem, dass Agentic AI keine Zukunftsvision, sondern bereits Realität ist.

Der Unterschied liegt darin, wie du diese Realität gestaltest. Während große Anbieter oft Standardwege vorgeben, wird sich bis 2030 ein hybrides Modell durchsetzen, in dem Agentic AI Routinefälle souverän bearbeitet und dein Team als empathischer Partner Nähe und Vertrauen schafft. Gleichzeitig wächst die Bedeutung von Governance und Transparenz. Da nur wenige Führungskräfte Agentic AI wirklich verstehen, werden klare Audit-Prozesse und Ethik-Leitlinien unverzichtbar.

Warum targenio dir schon heute mehr Möglichkeiten bietet

Viele glauben, dass Agentic AI noch Zukunftsmusik ist. Mit den richtigen Werkzeugen kannst du jedoch sofort starten. Genau hier liegt der Vorteil der targenio Assistenten-Plattform. Sie erlaubt es dir, AI-Agenten direkt in deine Serviceprozesse zu integrieren. Flexibel, transparent und so individuell, wie dein Unternehmen es braucht. Standardanfragen werden automatisiert bearbeitet, Prozesse durchgängig dokumentiert und komplexere Fälle intelligent an dein Team eskaliert. Dabei übernehmen die Assistenten auch in diesen Fällen Routineaufgaben – wie Recherche, Vorbefüllung oder Dokumentation – und entlasten so deine Experten, die sich auf die wirklich entscheidenden Schritte konzentrieren können.

Darüber hinaus lässt sich die targenio Assistenten-Plattform problemlos an Salesforce und andere Systeme anbinden. Das bedeutet, du musst nicht zwischen Plattformen wählen, sondern kannst bestehende Infrastrukturen nutzen und gleichzeitig den Schritt in die Agentic-AI-Welt gehen.
Damit bist du nicht auf die starren Vorgaben großer Anbieter angewiesen, sondern kombinierst deren Reichweite mit der Flexibilität und Innovationskraft von targenio. So entsteht ein hybrides Service-Ökosystem, das Effizienz, Transparenz und Menschlichkeit vereint.

Und zwar nicht erst 2030, sondern schon heute.

Was hat die Turing-Maschine mit KI-Modellen zu tun?

Die Geschichte der modernen Computertechnologie ist eine Blaupause für die Entwicklung von KI-Modellen hin zu kleineren, effizienteren und besser zugänglichen Systemen. Dort zeigt sich eine bemerkenswerte Parallele:
Alan Turing legte 1936 mit seiner universellen Rechenmaschine, der Turing-Maschine, den Grundstein für alle späteren Entwicklungen im Bereich der Computertheorie. Diese abstrakte Maschine definierte erstmals klar, was berechenbar ist und schuf damit eine theoretische Grundlage für sämtliche nachfolgenden Computerentwicklungen.

Von raumfüllender Rechenmaschine zur Hosentaschentechnologie

Ausgehend von Turings Konzept entstanden in den 1940er- bis 1960er-Jahren gewaltige Mainframe-Rechner wie der ENIAC oder IBM-Großrechner, die ganze Räume füllten und enorm viel Energie verbrauchten.
Durch Innovationen wie integrierte Schaltkreise und Mikroprozessoren schrumpften Computer jedoch kontinuierlich und wurden zunehmend zugänglicher. In den 1970er- und 1980er-Jahren erschienen erste Personal Computer wie der Apple II, die Rechenleistung und Funktionalität zu den Menschen nach Hause brachten.
Mit der Einführung der Smartphones, etwa des iPhones von Apple oder Android-Geräten wurde diese Technologie schließlich vollkommen mobil und für alle nutzbar.

Genau diese Entwicklung wiederholt sich nun in der Welt der KI-Modelle. Ursprünglich waren KI-Systeme wie GPT-Modelle oder Googles BERT extrem komplex und liefen ausschließlich in großen Rechenzentren. Heute werden KI-Modelle zunehmend kleiner, effizienter und damit alltagstauglicher.

Hardware als Vorbild für zukünftige KI-Modelle

Frühe KI-Modelle benötigten enorme Datenmengen, Milliarden von Parametern und teure Infrastruktur. Durch technologische Fortschritte wie Knowledge Distillation, Quantisierung, Pruning und der innovativen Mixture-of-Experts-Architektur (MoE) werden Modelle heute jedoch kompakter und effizienter. Modelle wie DeepSeek oder Mistral liefern hervorragende Ergebnisse mit deutlich weniger Parametern und funktionieren sogar auf mobilen Endgeräten. Die Miniaturisierung der KI-Technologie macht sie damit nicht mehr nur großen Unternehmen zugänglich, sondern einem viel breiteren Publikum.

Kleine KI-Modelle auf dem Vormarsch

Aktuell gibt es mehrere technologische Ansätze, die KI-Modelle kompakter, effizienter und gleichzeitig leistungsfähig gestalten.

Ein besonders erfolgreicher Ansatz ist die sogenannte Knowledge Distillation (Wissensdestillation). Dabei wird das Wissen großer KI-Modelle, die über Milliarden Parameter verfügen, auf kleinere, kompaktere „Schüler-Modelle“ übertragen.
Das Prinzip funktioniert ähnlich wie das Verhältnis eines Lehrers zu einem Schüler: Das große Modell trainiert ein kleineres Modell, sodass dieses mit weit weniger Ressourcen und Parametern ähnliche Ergebnisse liefert. Der Vorteil dieser Methode liegt darin, dass kleinere Modelle deutlich weniger Rechenleistung und Energie verbrauchen, und dabei nahezu die gleiche Qualität aufweisen.

Die Techniken des Prunings und der Quantisierung setzen hingegen direkt an der Optimierung der bestehenden Modelle an. Beim Pruning werden überflüssige oder unwichtige Parameter aus dem Modell entfernt, was die Komplexität reduziert. In Kombination mit Quantisierung, der Reduzierung der Genauigkeit von numerischen Berechnungen, verringert sich der Speicherbedarf massiv.
Modelle, die diese Techniken nutzen, laufen so deutlich schneller, verbrauchen weniger Strom und können auch lokal auf Smartphones oder IoT-Geräten eingesetzt werden.

Ein weiterer bahnbrechender Ansatz ist die MoE-Architektur, bei der Modelle in mehrere spezialisierte Teilnetzwerke (sogenannte „Experten“) aufgeteilt sind. Das Besondere: Je nach Eingabe werden zur Laufzeit nur diejenigen Experten aktiviert, die wirklich relevant sind. Dadurch sinkt der Aufwand pro Anfrage deutlich, da nicht sämtliche Parameter des Modells genutzt werden müssen. Diese Architektur erlaubt es großen Modellen, gleichzeitig kompakt und effizient zu sein, ohne Abstriche bei der Genauigkeit zu machen.

Schließlich gewinnt die Entwicklung sogenannter TinyML-Modelle stark an Bedeutung. TinyML steht für ultrakleine, hochspezialisierte KI-Modelle, meist mit weniger als einer Million Parametern, die direkt auf Mikrocontrollern, kleinen Geräten und Sensoren laufen können.
Ein populäres Beispiel ist der TinyTimeMixer von IBM, der extrem ressourceneffizient ist und somit KI-Technologie selbst in Umgebungen verfügbar macht, in denen traditionelle KI-Systeme aufgrund ihrer Größe und ihres Stromverbrauchs bisher nicht einsetzbar waren.

Die Demokratisierung der KI beginnt jetzt

Die zunehmende Verkleinerung von KI-Modellen hat weitreichende gesellschaftliche Auswirkungen und führt zu einer Demokratisierung der Künstlichen Intelligenz.
Technologie, die zuvor großen Unternehmen vorbehalten war, wird nun kleinen Unternehmen, Start-ups und Privatpersonen zugänglich gemacht. Lokale KI-Modelle verringern Abhängigkeiten von großen Cloud-Anbietern, verbessern den Datenschutz und erweitern so die Anwendungsfelder deutlich.

Der stärkere Wettbewerb und neue Innovationen sind ein weiterer Effekt der Demokratisierung. Kleine, spezialisierte Unternehmen haben die Chance, durch eigene, lokal nutzbare KI-Lösungen wettbewerbsfähiger zu werden und neue Geschäftsfelder zu erschließen.

Zusammengefasst bedeutet diese Entwicklung hin zu kompakten KI-Modellen nicht nur technologischen Fortschritt, sondern auch eine gerechtere und inklusivere Nutzung von KI-Technologien.

Technologischer Fortschritt wird nicht durch Größe definiert

Die Parallelen zwischen der Entwicklung von Computerhardware und KI-Modellen zeigen eindrucksvoll, dass technologischer Fortschritt nicht allein durch Größe und Komplexität definiert wird. Wie bei Computern folgt die KI-Entwicklung dem Muster, dass echter Durchbruch durch Miniaturisierung, Optimierung und breite Zugänglichkeit entsteht.

Standen am Anfang riesige Großrechner, denen später kleinere, erschwingliche Personal Computer folgten, so kulminierte diese Entwicklung schließlich in der alltäglichen Nutzung moderner Smartphones. Analog dazu zeigt sich auch in der KI-Entwicklung ein klarer Trend weg von großen, komplexen Modellen hin zu kompakteren, spezialisierten und lokal einsetzbaren KI-Lösungen.

Diese Entwicklung wird in Zukunft noch weiter an Bedeutung gewinnen. KI wird zunehmend zu einer Alltagsressource, die jeder auf dem Smartphone, der Smartwatch oder in den IoT-Geräten stets griffbereit haben wird. So wie es heute selbstverständlich ist, dass man jederzeit und überall einen leistungsfähigen Computer in der Tasche trägt. Dabei ist besonders bemerkenswert, dass durch diese Miniaturisierung und Dezentralisierung von KI-Technologie auch deren gesellschaftliche Reichweite erheblich zunimmt. KI wird nicht nur technologisch zugänglicher, sondern auch sozial fairer verteilt und vielfältiger nutzbar.

targenio Assistenten-Plattform als Wegbereiter

Um mit diesen rasanten technologischen Entwicklungen Schritt zu halten, ermöglicht unsere targenio Assistenten-Plattform eine einfache Integration verschiedenster KI-Modelle. Die Plattform ist so gestaltet, dass sie flexibel jedes neue KI-Modell aufnehmen kann. Egal, welche innovativen Modelle zukünftig entwickelt werden, unsere Plattform bleibt stets aktuell und einsatzbereit.

Du willst mehr darüber erfahren, wie unsere Assistenten-Plattform auch deinen Service zukunftsfähig macht? Kontaktier uns, wir freuen uns auf das Gespräch!

Image: KI-generiert

Die neue KI-Ära im industriellen Service mit AI Agenten und Agentic Web

Künstliche Intelligenz entwickelt sich seit Jahrzehnten kontinuierlich weiter. Von den symbolischen KI-Experimenten der Anfangszeit über die Ära der generativen KI wie ChatGPT bis hin zur jüngsten Entwicklung: den AI Agenten.

Warum AI Agenten die logische nächste Stufe sind

AI Agenten heben Künstliche Intelligenz auf ein neues Level, weil sie eigenständig und zielgerichtet Aufgaben lösen können. Sie bestehen im Kern aus zwei entscheidenden Elementen:

  • Einem großen Sprachmodell, das Gedankenprozesse von Interpretation bis Argumentation simuliert.
  • Einer Toolbox mit spezifischen, abrufbaren Funktionen wie Datenbankzugriffen oder Berechnungsmodulen.

Im Gegensatz zu herkömmlichen Large Language Models (LLMs), die einmalig auf Anfragen antworten, durchlaufen AI Agenten iterative Prozesse. Sie geben strukturierte Anweisungen aus, interagieren mit Werkzeugen, sammeln Ergebnisse und verbessern ihre Antworten schrittweise, bis sie eine finale Lösung liefern können.

Vom Assistenten zum autonomen Kollegen

Mit wachsender Autonomie verändert sich die Rolle der Mitarbeitenden im industriellen Service schrittweise:

  1. Agenten unterstützen Menschen, während Menschen die Kontrolle behalten und Agenten für Informationsbeschaffung und erste Analysen nutzen.
  2. Menschen und Agenten kooperieren zusammen. Agenten schlagen Aktionen vor, Mitarbeitende prüfen und verfeinern diese Vorschläge.
  3. Agenten operieren, Menschen überwachen. Agenten übernehmen komplette Aufgaben, während Menschen Ergebnisse kontrollieren und nur in Grenzfällen eingreifen.

AI Agenten heben Künstliche Intelligenz auf ein neues Level, weil sie eigenständig und zielgerichtet Aufgaben lösen können.

Agentic Web – Infrastruktur für intelligente Interaktionen

Diese dynamische Zusammenarbeit von Agenten, Menschen und Unternehmenssystemen erfordert eine flexible und offene Infrastruktur, bekannt als das Agentic Web. Dieses Netzwerk erlaubt es verschiedenen Agenten nahtlos miteinander und mit den Fachleuten sowie den bestehenden Systemen eines Unternehmens zu kommunizieren.

Zukunftssicher durch offene Standards

Damit das Agentic Web effizient und skalierbar funktionieren kann, sind offene und universelle Standards entscheidend. Zwei dieser Standards gewinnen besonders an Bedeutung:

Model Context Protocol (MCP)

MCP dient als universelle Schnittstelle, vergleichbar mit http im Internetkontext. Die Agenten greifen auf die MCP Server, die s genannte  Funktionskataloge  sind, zu und können Daten flexibel abrufen. Es reduziert Komplexität, da spezialisierte Software direkt über natürliche Sprache gesteuert und die Integration von vielfältigen Datenquellen vereinfacht wird.

MCP kann für Agenten als das betrachtet werden, was GUIs für Menschen sind. Sie ermöglichen es dem Agenten, sich mit zugrunde liegenden Funktionen wie Systemintegrationen zu verbinden und mit ihnen zu arbeiten.

MCP kann für Agenten als das betrachtet werden, was GUIs für Menschen sind. Sie ermöglichen es dem Agenten, sich mit zugrunde liegenden Funktionen wie Systemintegrationen zu verbinden und mit ihnen zu arbeiten.

Agent2Agent (A2A)

A2A standardisiert den Ablauf, wie Agenten untereinander und mit Menschen kommunizieren, Aufgaben übergeben und den Fortschritt transparent verfolgen können. Durch klar definierte Schnittstellen schafft A2A eine Grundlage für effiziente Zusammenarbeit zwischen autonomen Systemen und menschlichen Mitarbeitenden.

Bild von Agent2Agent Protocol (A2A)

Warum Serviceorganisationen jetzt handeln sollten

Die Integration von AI Agenten und der Aufbau eines Agentic Webs sind keine Zukunftsmusik mehr, sondern bereits Realität. Allerdings muss dieser Übergang nicht abrupt erfolgen. Mit der Einführung einer Assistenten-Plattform geschieht der Wandel schrittweise und im Tempo, mit dem sich Unternehmen, Mitarbeitende und Kunden gleichermaßen wohlfühlen. Der berüchtigte „Big Bang“ wird vermieden. Serviceorganisationen, die sich frühzeitig mit diesen Technologien auseinandersetzen und offene Standards wie MCP und A2A implementieren, sichern sich langfristig Wettbewerbsvorteile. Sie legen damit den Grundstein für eine intelligente, agile und zukunftssichere Infrastruktur im industriellen Service.

Startseite » Technologie & Business

Was wir aus dem Projekt X2Log gelernt haben

In den vergangenen zweieinhalb Jahren durften wir Teil eines außergewöhnlichen Forschungskonsortiums sein, dem Projekt X2Log (Anything-to-Log). Es hatte das Ziel, neue Wege zu finden, strukturierte und unstrukturierte Daten, also etwa Videomaterial, Sensorwerte oder Textdokumente, in logische Prozesse zu übersetzen.

Klingt theoretisch? War es auch. Aber was dabei herauskam, war für uns bei targenio ein Katalysator für unsere Zukunftsstrategie.

Daten sind nur der Anfang

Aus X2Log ergibt sich vor allem eine zentrale Erkenntnis: Entscheidend ist nicht die Datenmenge, sondern wie gezielt und sinnvoll sie genutzt wird.

Wir bei targenio betreuen Kundenserviceprozesse in hochkomplexen industriellen Umgebungen. Dort entstehen täglich Unmengen an Daten aus CRM-Systemen, ERP-Lösungen, Maschinensteuerungen und mehr. Und trotzdem haben wir erst durch die Zusammenarbeit in diesem Gremium wirklich verstanden, was unsere Nutzenden mit unserer Software machen.

  • Prozesse sind nicht nur klickbare Abläufe. Unsere User springen zwischen Systemen, verwenden Kontextwissen, das nirgendwo dokumentiert ist, und lösen Probleme auf oft kreative Weise.
  • Wir müssen dieses implizite Wissen sichtbar machen. Dazu entwickeln wir jetzt Assistenzsysteme, die genau beobachten, wie Entscheidungen entstehen, und daraus schrittweise lernen.
  • Der Weg zur Automatisierung ist ein iterativer Prozess. Nicht alles muss sofort „vollautomatisiert“ sein. Stattdessen bauen wir auf lernende Systeme, die kontinuierlich besser werden.

Forschung, die Wirkung zeigt

Ein zentraler Bestandteil des Projekts war eine Reihe von begleitenden Forschungsarbeiten, die konzeptionell eng mit dem Fortschritt des Konsortialprojekts verknüpft waren. Diese lieferten fundierte Impulse für die Weiterentwicklung zentraler Komponenten. Die Komponenten dienten anschließend der Integration von strukturierten und unstrukturierten Datenquellen im Process Mining.

Zu Beginn stand eine umfassende Analyse des aktuellen „Stand der Technik“ rund um Process Mining mit Texten, Bildern und Videos im Fokus. Das Ergebnis bildete eine Art „Fahrplan für künftige Forschungsaktivitäten“.  So ist die Nutzung von Textdaten im Bereich Process Mining bereits gut erforscht, während es bei anderen Datenformen – insbesondere Videodaten – noch große Lücken gibt. Vor allem die Integration multimodaler Datensätze hat das Konsortium als dringendes Forschungsthema identifiziert.

Eine weitere Forschungsarbeit widmete sich genau dieser Lücke: der Nutzung von Videodaten als Input für Process Mining. In diesem Zusammenhang entwickelte das Fraunhofer FIT einen Ansatz, der mit Hilfe eines Algorithmus in der Lage ist, Prozessschritte allein anhand von Bewegungsmustern in Videos zu erkennen – ohne vorher zu wissen, wonach er sucht. Warum das relevant ist? In vielen industriellen Kontexten, wie Serviceeinsätzen oder Reparaturprozessen ist Video oft die einzige Datenquelle.

Aus der Zusammenarbeit heraus entstand seitens des Fraunhofer-FIT ebenfalls ein synthetischer, aber realitätsnaher Datensatz, der Videomaterial, Sensorwerte und strukturierte ERP-Daten vereint. Der Datensatz soll künftig anderen Forschungsgruppen zur Verfügung stehen, um daran neue Verfahren zu testen. Dadurch entstehen langfristig bessere Werkzeuge, die auch in der Praxis funktionieren.

Wie wir aus technologischer Architektur eine zukunftsfähige Lösung machen

Das Projekt hat uns auf Produktseite stark geprägt. Wir haben in den vergangenen Jahren unsere bestehende Plattform überdacht und setzen nun auf einen radikal neuen Technologieansatz.

Wir haben uns intensiv mit datengetriebener Optimierung, Protokollierung von Kontextdaten und weiterem beschäftigt. Damit wir all das in unserem Produkt vereinen, ist für uns die Überzeugung erwachsen, in Zukunft auf Basis der Low-Code-Plattform Mendix zu arbeiten.

Die Gründe dafür lagen auf der Hand:

  • Geschwindigkeit | Wir sind mit Mendix 5–7x schneller als mit herkömmlicher Java-Entwicklung.
  • Sicherheit & Skalierbarkeit | Als Teil des Siemens-Ökosystems erfüllt Mendix höchste Sicherheitsstandards.
  • Kundenzentrierung | Wir können Lösungen in Echtzeit verändern, auf neue Anforderungen reagieren und gleichzeitig eine moderne User Experience gewährleisten.

Unsere neue Plattform denkt nicht mehr in starren Abläufen, sondern in dynamischen Assistenzsystemen, die lernen, wie Menschen Probleme lösen. Dabei protokollieren wir alle relevanten Kontextinformationen.

Diese Informationen bilden die Grundlage für kontinuierliche Verbesserung, gesteuert von einem „Trainer“-Modul, das Verbesserungsvorschläge liefert oder direkt Anpassungen an der Automatisierung vornimmt.

X2Log war ein Forschungsprojekt mit echtem Impact

Für targenio war X2Log weit mehr als ein Forschungsprojekt. Es war ein Innovationslabor, das uns neue Perspektiven eröffnet und unser Produktverständnis grundlegend erweitert hat.

Wir gehen aus dem Projekt mit:

  • einem klareren Blick auf den Wert von Daten,
  • konkreten Lösungen für unsere Kunden,
  • und einer Technologieplattform, die bereit ist für die nächste Generation von digitalen Assistenten im industriellen Kundenservice.

 

Von LLM zu autonomen AI Agents: Die Zukunft im Kundenservice

Large Language Models (LLMs) beeindrucken durch ihre Fähigkeit, komplizierte Fragen zu beantworten, kreative Inhalte wie Gedichte oder Songs zu verfassen und menschlich klingende Texte zu generieren. Doch trotz all dieser beeindruckenden Leistungen bleibt ihr Handlungsspielraum oft auf die reine Kommunikation begrenzt.

Im Gegensatz zu reinen LLMs gehen AI Agents einen entscheidenden Schritt weiter: Sie verwenden die generierten Informationen nicht nur für die reine Kommunikation, sondern lösen vielschichtige Aufgaben selbstständig. Mithilfe der Ausgabe strukturierter Daten, beispielsweise in Form von JSON, oder durch Echtzeit-Code-Generierung können AI Agents externe Datenquellen wie APIs, Websites und Dateien lesen und schreiben. Darüber führen sie einzelne Aufgaben oder ganze Workflows eigenständig und autonom aus.

Das macht sie besonders interessant für komplexe Einsatzbereiche wie der Prozessautomatisierung im Kundenservice.

AI Agents dank No-Code-Plattform einfach nutzen

Für das Erstellen von AI Agents gibt es verschiedene Ansätze: Zum einen unterstützen Programmierbibliotheken wie Langchain oder Smolagents in Python beim Programmieren. Zum anderen existieren Low-Code- oder No-Code-Tools wie Flowise oder Parlant, die den Zugang zu den fortschrittlichen KI-Fähigkeiten vereinfachen.

Mit Plattformen wie der targenio Assistenten-Plattform lässt sich diese fortschrittliche Technologie auch ohne Programmierkenntnisse nutzen. Anwender können AI Agents mittels No-Code-Technologie erstellen und flexibel an ihre Bedürfnisse anpassen.

AI Agenten im Service – Praxisnahe Anwendungen

AI Agents verbessern Kundenservice-Prozesse deutlich und lösen Herausforderungen, die mit klassischen Methoden bisher mit viel Aufwand zu bewältigen waren:

  • Self-Service-Modul für Kunden
    Im Self-Service interagieren Agents eigenständig mit Kunden, erfassen und verstehen deren Anliegen und bieten gezielt passende Lösungen an. Sie lösen Standardprobleme autonom, ohne menschliche Intervention. Bei komplexen Problemen holen sich die Assistenten bei ihren menschlichen Äquivalenten und lernt gleichzeitig iterativ mit. Dadurch profitieren Kunden von schnellen und präzisen Antworten, während die KI Service-Mitarbeiter entlastet.
  • Automatisierung komplexer Sachbearbeiter-Aufgaben
    Viele Aufgaben im Kundenservice sind für eine klassische Workflow-Modellierung zu komplex. AI Agents hingegen können flexibel und situativ agieren. Sie interpretieren und reagieren dynamisch auf Anfragen, indem sie Datenquellen wie APIs, Websites oder interne Dateien selbständig analysieren. Sachbearbeiter gewinnen so Zeit für komplizierte Aufgaben und Entscheidungen.

Integration von AI Agents und die Rolle von Mendix

Die targenio Assistenten-Plattform bietet eine No-Code-Lösung, um AI Agents einfach und schnell zu erstellen und zu implementieren. Unterstützt durch beispielsweise der Low-Code-Plattform Mendix können neue Skills, vor allem spezielle und komplexe, unkompliziert entwickelt und unmittelbar in die Agents integriert werden. Diese  Skills ermöglichen eine schnelle Anbindung relevanter Schnittstellen.

targenio Assistentenplattform mit echtem Branchenfokus

Die targenio Assistentenplattform präsentiert in diesem Zusammenhang entscheidende Features:

  • Flexibilität bei Large Language Models
    Unternehmen können frei entscheiden, ob sie Cloud-basierte, hybride oder On-Premise-Lösungen nutzen möchten. Selbst anspruchsvolle Anforderungen an Datenschutz und Sicherheit werden dabei erfüllt.
  • Branchenfokus
    Die Plattform ist von Anfang an auf spezifische Anforderungen bei Airlines, Automotive und im Maschinen- und Anlagenbau ausgerichtet. Dies reduziert den Implementierungsaufwand erheblich und steigert die Effektivität der AI Assistenten deutlich.

Transparenz dank gezieltem Process Mining

Obwohl die Assistenten dynamisch und eigenständig arbeiten, bleibt der Überblick stets gewahrt. Mit gezieltem Process Mining stellt unsere Software sicher, dass alle Abläufe transparent sind. Die Prozesse sind jederzeit nachvollziehbar, sodass Unternehmen sowohl Effizienz als auch Compliance sichern können.

AI Agents sind ein starker Hebel für effizienten Kundenservice

AI Agents sind weit mehr als reine Kommunikationshelfer. Sie handeln aktiv, verstehen komplexe Anfragen und optimieren Prozesse kontinuierlich. Die Integration solcher Assistenten in bestehende Servicestrukturen bietet Unternehmen einen entscheidenden Wettbewerbsvorteil – gerade in Zeiten zunehmenden Fachkräftemangels und finanzieller Unsicherheiten.

Die grenzenlose Welt der Large Language Models – wie grenzenlos sind sie wirklich?

Seit zwei Jahren sind sie das Hauptthema der digitalen Welt: Large Language Models (LLMs). Ob beim Beantworten von Fragen, dem Komponieren von Liedern, der Generierung von Code oder der automatisierten Textanalyse – ihre Einsatzmöglichkeiten scheinen nahezu unbegrenzt.

Doch wie grenzenlos sind LLMs wirklich? Und wo kommen sie eigentlich her?

Ein Buch mit 500 Seiten enthält etwa 250.000 Tokens

Zwei technologische Durchbrüche verhalfen in den letzten Jahren zum Erfolg. Large Language Models lesen Texte nicht wie Menschen. Damit die Technologie versteht, was wir wollen, wandelt sie die Texte in so genannte Tokens um. Tokens sind Zahlenfolgen, anhand derer das Sprachmodell Zusammenhänge erkennt und clustert. Diese Tokens können ganze Wörter, Silben oder häufige Zeichenfolgen sein.

Je nach Schriftgröße und -art enthält ein 500-seitiges Buch etwa 250.000 Tokens. Diese Umwandlungstechnik erhöht die Effizienz und macht die Verarbeitung großer Textmengen robuster – insbesondere bei unbekannten oder neuen Wörtern.

Next-Level-Sprachverarbeitung mit Transformer

Frühere Sprachmodelle waren langsam und hatten ein begrenztes Erinnerungsvermögen. Der Transformer-Ansatz, den es seit 2017 gibt, bringt zwei wesentliche Vorteile mit sich:

  • Self-Attention: Der Transformer setzt jedes Wort in Beziehung zu allen anderen Wörtern im Text. Dadurch kann das Modell kontextabhängige Bedeutungen besser erfassen.
  • Parallele Verarbeitung: Anstatt jedes Wort einzeln zu analysieren, verarbeitet der Transformer den gesamten Satz gleichzeitig. Das führt nicht nur zu einer schnelleren Verarbeitung langer Texte, sondern verbessert auch das Verständnis von Zusammenhängen über längere Passagen hinweg.

Woher weiß ein Large Language Modell so viel?

Ein LLM muss – ähnlich wie ein Mensch – erst „zur Schule“ gehen. Während des Pretrainings liest die KI Milliarden von Texte aus Wikipedia, Büchern, Nachrichtenseiten, Foren und Code-Datenbanken. Jede Information wird analysiert und in einen entsprechenden Kontext eingeordnet.

Über die Methode der Next-Token-Prediction gewinnt das Modell zunehmend Sicherheit in seinen Annahmen. Dabei erhält es unvollständige Sätze und soll das wahrscheinlichste nächste Wort vorhersagen. Beispielsweise wäre bei dem Satz „Die Sonne geht im Westen …“ die wahrscheinlichste Vorhersage „unter“. Je häufiger die KI diesen Prozess erfolgreich wiederholt, desto präziser werden ihre Wahrscheinlichkeitsannahmen.
Fehlannahmen werden durch einen Algorithmus namens Backpropagation korrigiert. Dieser schickt die Fehler eines LLMs rückwärts durch das Netzwerk und korrigiert die Gewichtung der Fehlaussage, um die Vorhersagequalität iterativ zu verbessen. So passt das neuronale Netz seine Vorhersagen kontinuierlich an.

Das abschließende Fine-Tuning ermöglicht es dem Modell, spezifische Anwendungsfälle abzudecken. Dadurch kann es beispielsweise unangemessene oder gefährliche Inhalte filtern, sich auf bestimmte Sprachstile einstellen oder Fachgebiete wie Medizin oder Recht professionell abdecken.

Eine weit verbreitete Methode ist das Reinforcement Learning from Human Feedback (RLHF). Hierbei bewerten Menschen verschiedene KI-Antworten und helfen dem Modell, bessere Ergebnisse zu liefern. Diese Technik wird auch genutzt, um unsere Skills während ihrer Laufzeit kontinuierlich zu verbessern.
So wächst das Wissen der LLM in kürzester Zeit exponentiell.

Die Grenzen und Herausforderungen von LLMs

Trotz ihres Fortschritts unterliegen LLMs einigen Herausforderungen und Limitierungen, die Nutzer kennen sollten:

  • Halluzinationen: Da Large Language Modelle auf Wahrscheinlichkeiten und nicht auf echtem Wissen basieren, können sie falsche oder erfundene Inhalte generieren. Eine Lösung hierfür ist die Retrieval-Augmented Generation (RAG), bei der externe, verifizierte Datenquellen zur Faktenprüfung herangezogen werden.
  • Vorurteile (Bias): LLMs spiegeln die gesellschaftlichen Vorurteile ihrer Trainingsdaten wider. Beispielsweise könnte ein Modell den Satz „Ein Arzt ist…“ eher mit „männlich“ als mit „kompetent“ vervollständigen. Um Bias zu reduzieren, nutzen Entwickler vielfältigere Trainingsdaten und setzen Methoden wie RLHF ein.
  • Eingeschränktes Langzeitgedächtnis: Obwohl die Sprachmodelle den Kontext über lange Textpassagen erfassen können, besitzen sie kein echtes Langzeitgedächtnis. Alle Informationen einer Sitzung sind nach deren Ende verloren.
    Zwei Entwicklungen wirken dieser Schwäche entgegen:

    • Erweiterung des Kontextfensters: Es bestimmt, wie viele Tokens das Modell gleichzeitig speichern und analysieren kann.
    • Memory-Augmented LLMs: Diese speichern Nutzerdaten über mehrere Interaktionen hinweg.
  • Hoher Energieverbrauch: Large Language Models sind extrem rechenintensiv. Allein die Anfragen für ChatGPT verbrauchen jährlich 226,82 Millionen kWh – das Doppelte des Energiebedarfs für Bitcoin-Mining. Forschende arbeiten bereits an effizienteren Hardware-Lösungen, um diesen Verbrauch zu senken.

Aktuelle Trends und Forschung: Die Zukunft der Large Language Modelle

Aktuell forscht man an kompakteren Modellen, die leistungsfähig und zugleich ressourcenschonend sind. Ein Beispiel ist Mistral 7B, das mit nur sieben Milliarden Parametern eine Leistung bietet, die mit GPT-3 (175 Milliarden Parameter) vergleichbar ist. Solche Entwicklungen ermöglichen das direkte Ausführen der Modelle direkt auf Smartphones oder Laptops.

Auch das Gedächtnis rückt zunehmend in den Fokus. Künftige Modelle sollen sich langfristig an Nutzer und frühere Konversationen erinnern können. Das ist ein bedeutender Schritt hin zu personalisierten KI-Assistenten.

Ein weiteres Forschungsfeld ist die Multimodalität. Neuere Modelle verarbeiten nicht nur Text, sondern auch Bilder, Videos und Audio, können diese verknüpfen und neu generieren.

Ansätze wie Tree-of-Thoughts und Chain-of-Thoughts verbessern das logische Denken der Modelle. Hierbei rückt die bloße Wahrscheinlichkeitsberechnung in den Hintergrund, während valide Informationen stärker gewichtet werden. Zudem ermöglichen Kombinationen mit Mathematik-Engines wie Wolfram Alpha präzisere Berechnungen in Wissenschaft und Technik.

Der Markt wird derzeit von Closed-Source-Modellen wie ChatGPT dominiert. Doch es zeichnet sich eine Verschiebung zu Open-Source-LLMs ab. Diese bieten mehr Transparenz und Anpassungsmöglichkeiten – bei gleichzeitig geringeren Kosten für Unternehmen und Forschende. Namen wie LLaMA 3, Mistral 7B und Falcon werden in Zukunft eine immer größere Rolle spielen.

Foto von Google DeepMind auf Unsplash

Mit starker Kundenbindung zum Unternehmenshelden werden

Ein Leiter im Kundenservice hat oft einen vollen Terminkalender. Die Aufgaben sind vielfältig und komplex, sodass wenig Zeit für tiefgehende Themen bleibt. Informationen müssen sofort erkennbar sein, und Kundenprobleme sollten klein gehalten werden, um Eskalationen zu vermeiden.

Warum ist es trotz Zeitmangel wichtig, sich mit den Kunden zu beschäftigen?

Die Antwort liegt auf der Hand:

Kennt er seine Kunden gut, kann er seine Abteilung besser unterstützen, ihre Arbeit erleichtern und einen größeren Service-Umsatz machen. Das entspannt seinen Arbeitsalltag.

Bestandskunden langfristig binden

Im letzten Artikel haben wir die wichtigste Kundengruppe für ein Unternehmen hervorgehoben. Für den Leiter Kundenservice ist es sinnvoll, sich auf Bestandskunden zu konzentrieren. Wir sprechen im Folgenden allerdings immer von der Kunden-Verbundenheit, die eine stärkere und belastbarere Bindung zum Unternehmen bedeutet, als es beispielsweise über eine vertragliche, finanzielle oder technische Gebundenheit der Fall ist.

Ein guter Service kann verhindern, dass Kunden verloren gehen. Noch besser: Hervorragender Service kann Kunden zu echten Fans machen. Das erhöht den Customer Lifetime Value (CLV) und den Wert jedes einzelnen Kunden für das Unternehmen. Dafür ist es hilfreich, interne und externe Kundenverhalten zu analysieren.

Externes Kundenverhalten: Was der Kunde braucht

Eine einfache Möglichkeit, auf Kundenbedürfnisse einzugehen und gleichzeitig Verbesserung im Service anzustoßen ist Kundenfeedback. Kunden geben gerne offenes und ehrliches Feedback, das blinde Flecken verhindern kann.

Feedback hilft, die Bedürfnisse und Erwartungen der Kunden besser zu verstehen. Wenn der Leiter weiß, dass die richtigen Dienstleistungen angeboten werden, kann sein Team die Kundenerwartungen erfüllen oder sogar übertreffen. Das reduziert nicht nur Beschwerden, sondern erhöht die Zufriedenheit auf beiden Seiten, gefolgt von einer besseren Kundenbindung und mehr Umsatz.

Wenn Kunden sich an reibungslose, freundliche und kompetente Interaktionen erinnern, kommen sie eher wieder. Sie sind zufriedener und empfehlen das Unternehmen weiter.

Interne Kundenverhalten im ganzen Unternehmen leben

Für eine entspannte Customer Journey ist es wichtig, diese gut zu tracken. Versteht ein Leiter die verschiedenen Berührungspunkte und deren Qualität, kann er sicherstellen, dass jede Phase ein Highlight für die Kunden wird.

Personalisierung ist eine Möglichkeit. Je persönlicher die Servicemitarbeiter auf Probleme eingehen, desto wertschätzender wirkt es auf die Kunden. Das beginnt bei der passenden Sprachwahl und endet bei umfassendem Vorwissen zum Problem. Niemand mag es, sich am Telefon ständig neu erklären zu müssen. Fällt das weg, ist der erste Schritt zur Kundenorientierung gemacht.

Gelingt es dem Leiter Kundenservice, Kommunikation und Dienstleistungen individuell anzupassen, stehen die Chancen gut, eine bessere Beziehung zum Kunden aufzubauen. Diese Einstellung muss jedoch das ganze Unternehmen teilen. Denken alle Mitarbeiter im Sinne der Kundenbedürfnisse, finden sie schneller und effizienter Lösungen. Das danken die Kunden mit Vertrauen und Loyalität.

Kundenbindung als Gamechanger

Warum ist es sinnvoll, sich Gedanken über Kundenbindung zu machen?

Es gibt mindestens vier Gründe, die den Erfolg eines Unternehmens stark beeinflussen.

  • Mit höherer Kundenbindung steigt die Effizienz und Effektivität des Kundenservice-Teams, da es weniger Beschwerden gibt. Je nach Bearbeitungsqualität kann Feedback sogar in Lob umschlagen.
  • Das fördert einen positiven Trend, der das Unternehmen von anderen abhebt. Auf einem Verdrängungsmarkt ist das oft das Quäntchen zum Erfolg.
  • Positives Feedback zieht potenzielle Kunden an, die sich intensiver mit den Produkten oder Dienstleistungen befassen. Sie schätzen die Wertschätzung der Kundengruppe und sind eher bereit, zu kaufen. Bestehende Kunden verzeihen hingegen oft Preiserhöhungen.
  • Die Markenwahrnehmung steigt fast ohne Marketingaufwand, und das Unternehmenswachstum lässt nicht lange auf sich warten.

Insgesamt bedeutet das höheren Umsatz für das Unternehmen – und wer will das nicht?

Wer die Kundenbeziehung stärkt, ist der Unternehmensheld

Zusammengefasst: Ein vorausschauender Leiter Kundenservice positioniert sich im Sinne seiner Kunden. Das erleichtert ihm die Arbeit und steigert den Umsatz des Unternehmens. Das macht ihn zum Unternehmenshelden.

Die Kunden lieben ihn für seine Kundenzentrierung und die Manager schätzen sein betriebsbewusstes Denken.

Was bedeutet Kunde eigentlich?

Als Unternehmen, das sich seit Jahrzehnten mit Kundenservicesoftware befasst, haben wir täglich mit dem Begriff „Kunde“ zu tun. Wir wissen, wie wir mit unseren Kunden umgehen wollen und welche Ziele diese mit ihren Kunden verfolgen.

Deshalb haben wir uns zum Ziel gesetzt, diesen Begriff detaillierter zu beleuchten und was man verstehen muss, wenn man gemeinsam vom Kunden spricht.

Wir wühlten uns durch verschiedene Lektüren, sprachen mit Experten und fragten Kundenservicemitarbeiter.

Woraus hat sich „Kunde“ entwickelt?

Laut Wikipedia kommt das Wort „Kunde“ vom althochdeutschen „kundo“, das etwa um 870 nach Christus zum ersten Mal auftaucht. Übersetzt in die heutige Sprache bedeutet das soviel wie „Einheimischer“, „Bekannter“ oder „Kundiger“. Das heißt, die Person war für den Verkäufer in gewisser Weise bekannt. Eine Eigenschaft, die auch heute noch relevant ist, wenn wir herausfinden, welche Zielgruppe wir haben.

Im kommerziellen Sinn taucht der Begriff erstmals im 16. Jahrhundert auf. Kunde ist „wer (regelmäßig) ein Geschäftsangebot wahrnimmt, einen Laden, Dienstleistungsbetrieb (wiederholt) in Anspruch nimmt“ (Pfeifer 1997, S. 744).

Wie wird Kunde definiert?

Hans Heinrich Path definierte im 20. Jahrhundert den Kunden so: „Ein Kunde ist die jeweils wichtigste Person in dem Betrieb. Er ist nicht von uns abhängig, sondern wir von ihm. Er bedeutet keine Unterbrechung unserer Arbeit, sondern ist ihr Inhalt. (…) Ein Kunde ist eine Person, die uns ihre Wünsche mitteilt. Unsere Aufgabe ist es, diese zu seiner Zufriedenheit auszuführen.“

Im Gespräch mit zwei unserer B2B-Kunden erfuhren wir eine ähnliche Definition: „Der Kunde ist eine Person, die den eigenen Lohn zahlt.“ Deshalb bieten sie die bestmögliche Kundenerfahrung an, inklusive Serviceerlebnis.

Der Kunde ist jemand, der kauft?

Einen Unterschied gibt es: Während Path den Kunden als eine Person definiert, die einen Wunsch äußert, gehen unsere Ansprechpartner weiter. Bei ihnen ist der Kunde jemand, der zahlt – den eigenen Lohn. Das heißt, hier ist der Kunde jemand, der bereits eine vertragliche Beziehung mit einem kaufrechtlichen Verhältnis eingegangen ist. Prof. Matthias Gouthier für Marketing und digitale Services von der Uni Koblenz sagt dazu: „Kauf und Nutzung einer Leistung bilden die Kernelemente des Kundenverständnisses.“

Der Kunde im eigenen Lebenszyklus

Für unsere Ansprechpartner aus dem Automotive Ersatzteilbereich haben Kunden einen hohen Wert, weshalb sie alles daran setzen, diese glücklich zu machen. Der Kundenwert kann, je nach Stadium, hoch oder niedrig sein. In diesem Lebenszyklusmodell verorten Unternehmen ihre Kunden, um sie einzuordnen und passende Maßnahmen zu ergreifen.

Nicht-Kunden sind vielleicht noch ahnungslos

Der Lebenszyklus eines Kunden beginnt beim Nicht-Kunden. Dieser hat noch keinen Kontakt zum Unternehmen. Er unterteilt sich in Kunden, die das Unternehmen noch nicht wahrgenommen haben und jene, die das Unternehmen kennen, aber noch nicht interagiert haben.

Diese Form von Kunde muss erst auf das Unternehmen, und im Zweifelsfall auch auf das Bedürfnis, das sie haben, aufmerksam gemacht werden. Mit dem Herausarbeiten einer zum Produkt passenden Zielgruppe, können sich Unternehmen dieser Kundenform sukzessive nähern.

Potenzielle Kunden stehen dem Bestandskunden sehr nahe

Potenzielle Kunden beschäftigen sich eingehender mit dem Unternehmen. Sie waren vielleicht schon auf der Website, haben auf eine Werbeanzeige reagiert oder folgen dem Unternehmen auf den Sozialen Medien. Die Wahrscheinlichkeit, dass sie kaufen, ist höher als in der vorhergehenden Gruppe. An der Stelle lohnt sich das Investment, die Kunden immer wieder auf das Unternehmen aufmerksam zu machen, bis sie ein Kaufinteresse äußern. Nach dem ersten Kauf betreten Sie den Bereich der Neukunden.

Bestandskunden gleichen einer Goldgrube, die gepflegt sein will

Hat der Kunde schon einmal bestellt, wechselt er die Sparte zu den Bestandskunden. Diese Kunden haben den höchsten Wert, der weiter wachsen kann. Je häufiger der Kunde mit dem Unternehmen agiert, desto wertvoller wird er. Sei es, wenn er erneut kauft oder Feedback gibt.

Die Interaktion mit dem Unternehmen ist eine Goldgrube und bedarf besonderer Aufmerksamkeit. Geben die Kunden über Bewertungen oder den Kundenservice Feedback, bieten sich dem Unternehmen zwei große Chancen.

  1. Die Servicemitarbeitenden können den Kunden mit ihrer schnellen und individuellen Antwort begeistern. Ein begeisterter Kunde wird leicht zum Fan und macht kostenlos Werbung.
  2. Feedback öffnet den Blick von außen auf das Unternehmen. Wenn diese Rückmeldungen genutzt werden, um besser zu werden, gehen sie auf die Wünsche der Kunden ein und beseitigen blinde Flecken.

In dieser Phase entscheidet sich, ob der Kunde bleibt oder geht. Deswegen ist es ratsam, die Kommunikation schnell, effizient und qualitativ hochwertig zu gestalten. Stellst Du Nachbesserungsbedarf fest, melde Dich gerne bei uns und wir schauen gemeinsam, wie wir die Prozesse für Dich und Deine Kunden mit unserer Software unterstützen können.

Verlorene Kunden haben das Interesse verloren

Ist die Kommunikation nicht gut gelaufen, sinkt der Kundenwert. Der Kunde ist enttäuscht und wendet sich ab. Er ist verloren und kommt vermutlich nie wieder zurück.

Das ist schmerzvoll und geschäftsschädigend. Der Rückholprozess ist teuer und langwierig, wenn er überhaupt funktioniert. Deswegen ist es besser, passend auf den Kunden eingehen und ihn so lange wie möglich zu begeistern.

Die Definition passt nicht immer zu jedem Unternehmen

Im Gespräch mit Andreas Schöler, Professor für Dienstleistungsmanagement, Konsumentenpsychologie und Marketing an der Hochschule für angewandtes Management, ist die Standarddefinition richtig, hat aber Tücken. Es gibt je nach Unternehmen Unterschiede. Der Grad zwischen Nicht-Kunden und potenziellen Kunden ist fließend. Auch die Frage, ab wann Kunden nicht mehr aus dem Bereich der verlorenen Kunden zurückzuholen sind, kann man nicht allgemeingültig definieren.

Deshalb ist es wichtig, sich als Unternehmen darüber klar zu sein, worauf man den Fokus legen möchte und wann man welche Grenzen zwischen den Übergängen ziehen will.

Für uns als Dienstleister im Kundenservicesektor ist das Thema ebenfalls sehr wichtig. Wenn wir unsere Kunden genau verstehen, können wir die passende Lösung bieten. Deswegen freuen wir uns immer auf Experten in diesem Gebiet, die ihre aktuellen Erkenntnisse und Forschungen mit uns teilen möchten.

Ein Besuch auf der BVL Supply Chain CX

Was für ein Auftakt! Als Mitglied der Bundesvereinigung für Logistik (BVL) hatten wir von targenio die Gelegenheit, als Teil der 2500 Besucher an der BVL Supply Chain CX teilzunehmen. Unser Ziel? Neue Kontakte knüpfen, ein besseres Gefühl für die Logistikbranche – insbesondere im Maschinenbau, Automotive und Aftermarket – entwickeln und herausfinden, wie bereit die Supply-Chain-Community für zukunftsweisende Kundenkommunikation ist.

Erfahrungen und Eindrücke von targenio auf der BVL Supply Chain CX 2024

Der frühere Deutsche Logistik-Kongress trat dieses Jahr zum ersten Mal im neuen Format auf. Kai Althoff formulierte bei der Eröffnung den Grund klar: „Wir wollen jünger, direkter, internationaler und vielfältiger werden. Wir wollen alles vereinen, was die Logistik ausmacht. Als größtes Logistik-Netzwerk Deutschlands müssen wir uns weiterentwickeln und auch unterstützt werden.“

Neben dem Kongress fand auf der BVL Supply Chain CX erstmals eine Expo statt, auf der sich Interessierte mit Ausstellern austauschen konnten. Um die Ausstellungsräume lebendig zu gestalten, installierten die Veranstalter verschiedene Bühnen, auf denen sich Unternehmen präsentieren konnten. Innovationen für neu gedachte Logistikkonzepte, von KI-Software bis hin zu automatisierter Warenverteilung, fanden besonders auf der LogTech Stage ihren Platz.

Supply Chain CX: Moderne Ansätze für Logistik und Innovation

Auf der BVL Supply Chain CX wurde uns besonders klar: Die Branche bewegt sich nicht nur physisch, sondern auch gedanklich in Richtung digitale Transformation, KI, Big Data und Automatisierung.

Führende Akteure der Branche denken über digitale Plattformen nach, die höhere Datensicherheit und weniger Angriffsflächen für Cyberattacken bieten. Das bestätigt uns in unserer Annahme, dass eine anpassbare Plattform für verschiedene Assistenten  einen enormen Mehrwert schaffen kann.

Durch die Vernetzung von Daten können Unternehmen sich nicht nur besser verständigen, sondern auch ihren Kunden einen größeren Mehrwert bieten, da sie transparenter und schneller werden. Marco Schäfer, Vorstand von Edeka Rhein-Ruhr, brachte es bei der Diskussion über digitale Plattformen auf den Punkt: „Effizienzsteigerung findet nur durch digitale Vernetzung statt!“

Aftermarket und Ersatzteillogistik: Insights führender Unternehmen

Im Track „Forum Ersatzteillogistik“ beschäftigten sich die Kongressteilnehmenden intensiv mit Themen aus dem Aftermarket. Experten von CLAAS, Geis Global Logistics GmbH, Seifert Logistics GmbH und Rolls-Royce Holdings diskutierten, ob das Outsourcing der Ersatzteillieferung an Dienstleister sinnvoll ist – und wenn ja, welche Schritte dafür erforderlich wären.

Die Flexibilität in der Lagerhaltung sowie die Qualität der Lieferung sprechen für ein Outsourcing. Doch in Bezug auf Transparenz und Wissenshoheit zeigen sich die Unternehmen eher zurückhaltend. Das erarbeitete Wissen soll im produzierenden Unternehmen beheimatet sein und bei einem Wechsel der Dienstleister nicht verloren gehen.

Diese Zurückhaltung beeinflusst maßgeblich die Wahl der Software. Die produzierenden Unternehmen bevorzugen überwiegend ihre eigene Software und lehnen die Software von Dienstleistern ab – selbst wenn die Dienstleister damit eine bessere Performance erzielen könnten.

Effiziente Kundenkommunikation: die targenio Assistentenphilosophie

Was wäre, wenn die vorhandene Software durch digitale Assistenten ergänzt wird, die als Schnittstelle zwischen Unternehmen, Dienstleister und Kunde fungieren? Genau das ist eine der Ideen, die wir mit unserer Assistentenphilosophie verfolgen.

Die Assistenten erhöhen nicht nur den Automatisierungsgrad in der logistischen Abwicklung, sondern schaffen auch umfassende Transparenz für den Kunden, was zu einer gesteigerten Zufriedenheit durch verlässliche Informationen führt.

Beim Wissensaufbau unterstützen die Assistenten sowohl interne Mitarbeiter als auch die Mitarbeitenden des Dienstleisters. Sie sammeln relevante Informationen beider Seiten und halten das Wissen stets aktuell. Bei einem Wechsel des Dienstleisters bleibt das Wissen erhalten – und auch der Dienstleister kann sein aufgebautes Wissen bewahren.

Das Ergebnis ist eine Win-Win-Situation für beide Geschäftspartner.

 

Wie wir unser Team für Künstliche Intelligenz begeistern

Künstliche Intelligenz (AI) hat sich in der Gesellschaft zu einem geflügelten Wort entwickelt. Doch sie ist mehr als nur ein Schlagwort – sie entpuppt sich zu einer transformativen Kraft, die Branchen revolutioniert und Arbeitsweisen neu definiert. Bei targenio sind wir fest entschlossen, diesen Wandel aktiv mitzugestalten. Deshalb haben wir uns vorgenommen, interessierte Teammitglieder auf dem Weg in Richtung AI zu begleiten.

AI-Workshops: Alle zwei Wochen, freiwillig und praxisorientiert

Jeden zweiten Mittwoch nehmen wir uns freiwillig Zeit, uns mit den neuesten AI-Tools, -Trends und -Technologien auseinanderzusetzen. Diese Sessions haben wir informativ und interaktiv gestaltet. Das Ziel: Unser Team soll die Möglichkeiten von AI nicht nur theoretisch verstehen, sondern praktisch erleben und anwenden können.

Begeisterung wecken und greifbar machen

AI ist disruptiv[1] und kann auf den ersten Blick überwältigend wirken. Deshalb legen wir großen Wert darauf, AI greifbar und verständlich zu machen. In unseren Sessions zeigen wir KI-Tools, die in den Arbeitsalltag integriert werden können, und welche konkreten Vorteile dies für jeden Einzelnen und das gesamte Unternehmen mit sich bringt.

Ein zentraler Bestandteil, um das Team für Künstliche Intelligenz zu begeistern, ist der Wissenstransfer. Implizites Wissen im Unternehmen sichtbar und zugänglich zu machen, ist entscheidend.

Unsere KI-Jams bieten nicht nur eine Plattform für das Kennenlernen neuer Technologien, sondern auch Raum für Innovation. Jeder im Team hat die Möglichkeit, persönliche Interessen einzubringen und an der Lösung konkreter Probleme mitzuwirken.

Wir wollen Begeisterung im Team für Künstliche Intelligenz wecken – und das gelingt uns am besten durch praktische Beispiele und gemeinsame Erlebnisse.

Kickoff-Session und weitere Schritte

Unser Programm begann mit einem Kickoff-Workshop, in der wir alle Wünsche und Erwartungen zusammengefasst haben. Daraus haben wir einen Fahrplan entwickelt, der den Bedürfnissen und Interessen unseres Teams gerecht wird. Von der Auflistung und Nutzung der besten AI-Tools über das Erlernen von Prompting-Techniken bis hin zur Entwicklung von Prototypen – jede Session ist darauf ausgelegt, praktisches Wissen zu vermitteln und die Anwendung im Arbeitsalltag zu fördern.

Teaming with AI – Erfahrungen aus der Unconference

Ein weiterer Bestandteil unserer Workshops sind die externen Events, an denen unsere Teammitglieder bei Interesse teilnehmen können. Dabei lernen sie neue Tools kennen, die Eingang in die Session finden, um alle auf einen neuen Wissensstand zu heben. Darüber hinaus haben sie Möglichkeiten, die Erkenntnisse in ihren persönlichen Workflow einzubinden.

So zog es sechs Mitarbeiterinnen und Mitarbeiter zu einem Unconference-Event in Nürnberg. Unsere Teammitglieder teilten dabei verschiedene Erfahrungen. Beispielsweise nahm Andreas, unser UX-Designer, den ethischen Aspekt, den er kennenlernte als besonders wichtig wahr: „Im ersten Moment erscheint das Konzept „Doing evil for doing good“ in unserem Bereich eher unvorstellbar. Anhand des Beispiels der Vitaltracker wurde mir das dann aber klar. Diese wurden erstmal nur gemacht, damit sich Menschen mehr bewegen. Nun kann es aber sein, dass Krankenkassen Patienten, die eben schlechte Werte haben, ablehnen. Sowas sollten wir unbedingt in unseren Überlegungen beachten.“

Im Hinblick auf den ethischen Aspekt stimmt Nicolas, einer unserer Entwickler, die sich intensiv mit dem Aspekt KI auseinandersetzen, absolut zu. Aber auch der interdisziplinäre Austausch verschaffte ihm einen Blick über den Tellerrand, der ihm neuen Input für seine Arbeit lieferte.

Ein Fazit: Unser Engagement für die unternehmerische Zukunft

Unser Engagement für AI und kontinuierliches Lernen zeigt sich in der positiven Resonanz während der Sessions. Die Begeisterung ist spürbar. Die Bereitschaft, neue Technologien zu erkunden, ebenso. Wir sind überzeugt, dass wir durch diese Initiative nicht nur unsere Arbeitsprozesse verbessern. Wir leisten auch einen wertvollen Beitrag zur persönlichen und beruflichen Entwicklung jedes teilnehmenden Teammitglieds.

Natürlich gibt es auch Zweifel und Bedenken, die ernst genommen werden müssen. Gerade diese versuchen wir mit dem Format der Session zu beseitigen. Deshalb bleiben wir dran – für eine Zukunft, in der AI ein integrales Werkzeug unserer täglichen Arbeit werden soll. Gemeinsam wollen wir den Weg ins KI-Zeitalter gestalten und targenio fit für die Herausforderungen und Chancen von morgen machen.


[1] Disruptive Innovationen ersetzen häufig auf tiefgreifende Weise bestehende Technologien oder Geschäftsmodelle. Das kann unter Umständen zu eine Art „Zerstörung“ von Märkten führen.