Kategorie: News

Chatbots enttäuschen, aber Sprach-KIs boomen

Autor: Fabian Schladitz, Head of Center of Excellence Artificial Intelligence bei Capgemini in Deutschland

Noch vor wenigen Jahren war das Thema Chatbots mit Künstlicher Intelligenz in aller Munde. Das Versprechen: Als Nutzer spreche ich einfach mit der KI, wie mit einem Menschen, und sie löst das Problem für mich. Mittlerweile ist es ruhiger geworden um die Technologie – vor allem, weil die hohen Erwartungen enttäuscht wurden. Viel Arbeit ist notwendig, um die KIs mit Wissen zu füttern, und dennoch fragen Nutzer häufig ins Leere.

An anderer Stelle allerdings begeistern ähnliche Systeme und schaffen echten Mehrwert. Welche Anwendungsfälle funktionieren und wo sind die Grenzen?

Chatbots überzeugen nicht auf ganzer Linie

Chatbot-Systeme sind an verschiedenen Stellen nützlich: die Möglichkeit Fragen zu komplexen Sachverhalten zu stellen, das Potential einfach Workflows mit Rückfragen zu automatisieren oder einfacher Kundendienst im 24/7-Betrieb.

Leider bleibt es aufwendig diese Systeme mit Wissen zu füllen. Fragestellungen – so genannte „Intents“ – werden meist einzeln modelliert. Das liegt am fehlenden Allgemeinwissen unserer Chatbots. Die Sprach-KI kann zwar aus vielen verschiedenen Sätzen herausarbeiten, welchen Intent die Nutzer haben, aber was die Frage wirklich bedeutet, bleibt verborgen.

Ein für viele Tutorials genutztes Beispiel ist der Chatbot zum Bestellen einer Pizza. Diesem muss man nicht nur beibringen, dass „Bestellungen angenommen“ werden sollen, sondern auch, dass es verschiedene Böden gibt, eine Soße obendrauf kommt, und dann verschiedene Beläge.

Die Intelligenz, welche wir hinter einer künstlichen Intelligenz vermuten, ist also eher eindimensional. Sie versteht Sprache, aber nicht was gesagt wird.

Sprach-KIs punkten bei Zusammenfassungen und Textgenerierung

Die gleiche Art von Sprach-KI, welche dem Chatbot die Möglichkeit gibt, sowohl „Ich will eine Pizza bestellen“ als auch „Kann ich bitte eine Pizza bestellen“ in denselben Intent umzuwandeln, haben noch weitere Fähigkeiten.

Mit der Zusammenfassung langer Texte kann KI uns helfen einen Überblick über Dokumente zu erlangen oder die wichtigsten Sachverhalte aus langen Abhandlungen zu extrahieren. Derzeit funktioniert das besonders gut bei englischsprachigen Texten, allerdings noch deutlich schlechter mit deutschen.

Beim Generieren von Texten bekommt die KI einen kleinen Text vorgelegt und erstellt auf dieser Basis den Rest eines Satzes oder Absatzes. Die Systeme können aber auch einen Satz paraphrasieren oder Autoren beim Schreiben helfen.

In diesem Fall nutzen Menschen die Fähigkeiten der KI kreativ. Die Erwartungshaltung reduziert sich auf das, was große Sprachmodelle wirklich gut können: Sprache „verstehen“ und statistisch relevante Kombinationen von Wörtern kreieren.

Besteht also keine Hoffnung auf spannende Konversationen mit KI?

Neue Entwicklungen überraschen mit Flexibilität und Eloquenz

Vor kurzem machte die Geschichte von LaMDA die Runde – eine KI aus der Entwicklungsabteilung von Google, welche so clevere Antworten gibt und Rückfragen stellt, dass ein Mitarbeiter überzeugt war, es mit einer KI mit eigenem Bewusstsein zu tun zu haben. Die Konversationen, die LaMDA generiert, sind so eloquent und realistisch, dass man mindestens beeindruckt sein kann.

Weiterhin hat Googles Deepmind vor kurzem „Gato“ vorgestellt. Das KI-Modell, welches ähnlich wie die großen Sprachmodelle trainiert wurde, zeigt sich als äußerst vielseitig. Es kann Aufgaben aus der Sprach-Theorie lösen, etwa Fragen mit Fakten beantworten. Das gleiche Modell kann aber auch Computerspiele lösen oder Bildunterschriften generieren.

Auch wenn die Leistungsfähigkeit bei einzelnen Aufgaben noch nicht dem aktuellen Stand der Technik entspricht, ist die Entwicklung doch erstaunlich. Und sie öffnet den Weg zu noch leistungsfähigeren KIs, die weniger Training benötigen, um eine Aufgabe zu meistern. Sie bringen in gewisser Weise endlich das Allgemeinwissen mit.

Die Kombination aus diesen beiden Entwicklungen lädt zu Spekulationen ein: Vielleicht ist es doch bald nicht mehr unwahrscheinlich, dass wir einfach bei einem Chatbot eine Pizza Margherita bestellen können und der Bot versteht, was wir damit meinen. Können wir im nächsten Schritt einer KI in normaler Sprache erklären, was wir brauchen und sie wird per Roboter-Arm das Richtige tun? Das mag noch Zukunftsmusik sein, doch mit den aktuellen Entwicklungen befinden wir uns zumindest auf dem Weg dorthin.

 

 

Verfasst in: Frontpage, News

Der letzte Meter ist der schwerste | Mit einer MLOP-Abteilung die Geschwindigkeit erhöhen

Von Dr. Christian Essling, Chief Data Officer, E.ON Energie Deutschland GmbH

Die Energiebranche ist bereits seit vielen Jahren im Wandel. Der Umstieg auf erneuerbare Energien auf der einen und die stetig steigenden Anforderungen der Kund:innen auf der anderen Seite haben für ein Umdenken gesorgt. Auch der Blick auf die technische Seite und die Prozesse, die hinter dem stecken, was die Kund:innen im täglichen Kontakt mit uns erleben und wahrnehmen, ist herausfordernd. Aber es sind diese Herausforderungen, denen wir uns stellen und – mehr noch – die uns anspornen.

Vor etwa zwei Jahren habe ich dazu mit meinem Team an einer Vision gearbeitet. Eine Vision für eine vollständig datengetriebene Version der E.ON Energie Deutschland, unserer deutschen  Vertriebsgesellschaft im E.ON Konzern, zuständig für rund 14 Millionen Kund:innen. Unsere Leitgedanken: erstklassige und zugleich personalisierte Kundenerlebnisse, erlebbar durch weitgehend automatisierte Prozesse sowie die Demokratisierung der Daten. Mit diesen Zielen fest im Blick haben wir eine Datenstrategie abgeleitet, die uns heute als Nordstern für die Priorisierung unserer Engagements dient.

Mit der Vision beginnen
Unsere Datenstrategie basiert, wie ein solide gebautes Haus, auf vier tragenden Wänden. Eine davon heißt „Automate & Accelerate“.Hierbei geht es darum, Prozesse, die einen hohen manuellen Aufwand bedeuten, zu verschlanken, zu automatisieren und in der Konsequenz um ein Vielfaches im Sinne der Kund:innen zu beschleunigen. Diese Projekte sind aus zwei Gründen meine Favoriten: Zum einen sparen sie Zeit, Geld und Ressourcen für unser Unternehmen. Gleichzeitig beschleunigen sie die Prozesse für unsere Kunden, die in ihrem heutigen Nutzerverhalten auch zunehmend das von ihrem Energieanbieter erwarten, was sie von anderen Online-Anbietern gewohnt sind. Mit Blick auf die Fortschritte der letzten zwei Jahre haben hierbei unsere Data Scientists große Arbeit geleistet. Von  bestmöglich zugeschnittenen Tarifen über die Automatisierung von Kundenanliegen bis hin zu KI-basierten Validierungen sind in den letzten zwei Jahren erstklassige Algorithmen entstanden. Und dennoch gab es oftmals noch Verbesserungspotenzial abseits der inhaltlichen Ebene. Etwa bei der Geschwindigkeit, mit der diese Projekte den Weg ins Ziel gefunden haben.

Der archetypische Prozess
Wenn wir ein neues Projekt starteten, war das Muster typischerweise das gleiche. Die Phase der Ideation geht schnell voran und wir kommen zügig zu einem abgestimmten Bild dessen, was wir erschaffen wollen. Auch der pragmatische Datenabzug für einen ersten Prototypen ist kein großes Hindernis, sodass der Beweis der Machbarkeit seitens unserer Data Scientists erbracht werden kann. Die Ergebnisse sehen gut aus, wir diskutieren diese mit unseren Kolleg:innen und kommen zu dem Schluss, dass wir das Modell produktiv nehmen sollten.

Was für den Laien aussieht wie ein einsatzbereites Produkt, ist in der technologienahen Realität allerdings leider oftmals nicht mehr als ein erster Entwurf. Zwischen diesem Entwurf und dem produktiven Algorithmus stehen Themen wie Datenstreaming, APIs und Microservices. Nun geht es daher im nächsten Schritt an die schwierigen Aufgaben. Für den Proof of Concept reichten vielleicht die Daten der letzten paar Wochen. Um ein belastbares Modell zu trainieren, wollen wir aber idealerweise alle verfügbaren Daten nutzen. Für den Anfang reichte es aus, dass man uns die wenigen benötigten Daten in Form einer Exceldatei zur Verfügung stellte. Nun müssen wir allerdings einen Weg finden, das Quellsystem anzubinden und die Daten über einen gesicherten Weg in unsere Datenbank zu befördern.

Parallel kommt die Frage auf, wie wir unseren Algorithmus in die Systeme integriert bekommen. Klar ist, dass Mehrwert nur dann entstehet, wenn Prozesse automatisiert verarbeitet werden. Dies wiederum bedingt, dass gewisse Abläufe im System ohne menschliches Zutun ausgelöst werden. Nehmen wir beispielsweise die Abgabe eines Opt-in im Service. Der Opt-in wird vom Kunden abgegeben und bedarf nun der Validierung. Was früher ein Mensch übernommen hat, muss nun systemseitig erfolgen. Dies erfordert, dass das System erkennt, dass ein neuer Opt-in vorliegt und dieses Audiofile an unseren Algorithmus übergibt. Der Algorithmus bewertet die Tonspur und kommt zu einer Entscheidung über die Validität des Opt-ins. Diese wird nun wiederum an das Quellsystem übergeben, wo sie abgespeichert und etwa fünf Minuten nach Abgabe zur werblichen Nutzung verfügbar ist.

Der Teufel steckt im Detail
Soweit die Theorie. In der Praxis mussten wir vor etwa eineinhalb Jahren feststellen, dass uns dieser gefühlte letzte Meter bis zur Produktivsetzung sehr schwer fiel. Aus heutiger Sicht aus gutem Grund: Als wir vor dreieinhalb Jahren unser Data Science Team aufgebaut und die ersten Kolleg:innen an Bord geholt haben, setzten wir unseren Fokus auf eine möglichst generelle Ausbildung.

Diese ermöglichte die Bearbeitung von vielen verschiedenen statistischen Problemen unseres Unternehmens. Jedoch mussten wir nun anerkennen, dass es weder der Präferenz noch den Fähigkeiten unserer Data Scientists entspricht, Streamingpipelines zu entwickeln, Microservices hinter APIs zu legen oder Modelle in eine bestehende IT-Landschaft zu integrieren.

Hierbei geht es um Softwareentwicklung und nicht mehr um statistische Modellierung. Dementsprechend haben wir zwei große Potenziale für unsere Data-Abteilung identifiziert. Die Zufriedenheit der Data Scientists steigern und die Dauer von der Idee bis zur Produktivsetzung unserer KI-Projekte deutlich reduzieren. Die Antwort auf beide Herausforderungen war die Schaffung einer neuen Abteilung namens MLOps (kurz für Machine Learning Operations). Der Name könnte auf den ersten Blick suggerieren, dass es lediglich um den Betrieb der Modelle geht. Der Umfang ist in unserem Fall allerdings weit größer.

Eine neue Abteilung bringt die Lösung
Unsere MLOps Engineers sind der ADAC unseres Data Science Teams. Immer dort, wo es um die Anbindung, die Integration oder die Interaktion mit externen Systemen geht, kommen die Kolleg:innen ins Spiel und beschleunigen den Prozess. Konkret hat sich dieses Team seit dem Aufbau vor einem Jahr um drei Dinge gekümmert: Schaffung einer Data-Science-Entwicklungsplattform, Anbindung von externen Systemen sowie die Produktivsetzung von KI-Algorithmen.

Die Schaffung einer Plattform war seit langer Zeit ein großer Wunsch unserer Data Scientists. Sich nicht mehr um Computer Instanzen oder Datenextraktion kümmern zu müssen, war und ist für viele der Kolleg:innen ein großer Mehrwert. Unsere MLOps Engineers haben zu diesem Zwecke eine cloudbasierte Plattform geschaffen. Diese Plattform bietet rechtlich und IT-Security-seitig abgesicherte Verbindungen in verschiedene Quellsysteme, aus denen Daten für das Training der Modelle abgezogen werden können. Wird für ein neues Projekt eine noch nicht angebundene Datenquelle benötigt, wird der Zugang einmal entwickelt und dauerhaft über die Plattform für alle zugänglich gemacht.

So konnten wir in kleinem Umfang schnell starten und sukzessive mit größer angelegten Projekten den Einflussbereich vergrößern. Ganz nebenbei haben wir diese Plattform in reduziertem Umfang dem  ganzen Unternehmen zugänglich gemacht. Wir glauben nämlich daran, dass in einem zukunftsorientierten Unternehmen jeder Mitarbeitende Zugriff auf die für seine Arbeit erforderlichen Daten haben sollte, um eigene Dashboards, Analysen und Modelle entwickeln zu können. Das ist ein wesentlicher Teil unserer strategischen Säule „Data Democracy“, entlang welcher wir neben dem reinen Zugriff auch Trainings für die Nutzung, das Verständnis und die Interpretation unserer Daten anbieten. Nachdem sich die Data Scientists nun dank der Plattform vollends auf die Entwicklung von KI-Algorithmen konzentrieren können, füllt sich das Backlog unseres MLOps Teams, um diese Modelle auch in die Produktion zu überführen. Im Zuge der Produktivsetzung entsteht heute maßgeschneiderte Software, welche Events in den Quellsystemen, beispielsweise unser CRM-System Salesforce, entgegennimmt, über eine API an den Algorithmus leitet, welcher dann zu einer Entscheidung kommt, z. B. ob der Kunden-Opt-in valide ist oder nicht. Diese Entscheidung wird dann ebenfalls wieder in die Quellsysteme zurückgeschrieben. All das passiert nahezu in Echtzeit und so dauert dieser Prozess im Falle einer Opt-in Validierung nur wenige Minuten.

Fazit und Ausblick
Abschließend muss man sagen, dass die Schaffung dieses Teams ein echter Quantensprung auf dem Weg in die zunehmend digitalisierte Vertriebswelt der E.ON Energie Deutschland war. Nicht nur die Zufriedenheit der Data Scientists ist sprunghaft angestiegen, auch die Geschwindigkeit der Umsetzung der Projekte ist heute deutlich höher als noch vor einem Jahr. Das Stichwort heißt Arbeitsteilung und ist ehrlicherweise eine Erkenntnis, die Adam Smith bereits im 18. Jahrhundert hatte. Im Bereich Data allerdings ist MLOps noch kein vollständig verbreitetes Konzept und so kann ich mit diesem Impuls zu mehr Arbeitsteilung entlang der Datenwertschöpfungskette nur ermutigen, die vorhandenen Möglichkeiten zu prüfen und sich ebenfalls auf die Reise zu machen. Denn am Ende werden alle profitieren: die Data Scientists durch Fokussierung auf ihre eigentliche Arbeit, das Unternehmen durch schnellere Realisierung der Mehrwerte aus den Modellen und die Kund:innen durch stabile Prozesse, die ein erstklassiges Kundenerlebnis ermöglichen.

 

Verfasst in: Frontpage, News

DAS E-3 MAGAZIN

Ausgabe Juni 2022

E-3 ist Informations- und Bildungsarbeit für die SAP-Community. Als Kommunikationsplattform bedient E-3 die betriebswirtschaftliche, technische und lizenzrechtliche Berichterstattung aller Aspekte eines SAP-Systems. Mit durchschnittlich 33.000 Unique-Web-Visitors pro Woche und einer Auflage von 35.000 Monatsmagazinen erreicht die E-3 Plattform DACH alle wichtigen Entscheidungsträger, Experten, die Mitglieder deutschsprachiger SAP-Anwendergruppen und die SAP-Bestandskunden und Partner.

Jetzt herunterladen
Verfasst in: Frontpage, News

Roboter in der Pflege – Soziale Kompetenzen von KI-Systemen

Roboter in der Pflege – Soziale Kompetenzen von KI-Systemen

Von Elisabeth André, Universität Augsburg / Plattform Lernende Systeme

Über vier Millionen Menschen sind in Deutschland aktuell auf Pflege angewiesen, in den kommenden Jahren wird ihre Zahl infolge der demografischen Entwicklung deutlich steigen. Schätzungen des Instituts der deutschen Wirtschaft zufolge fehlen bis 2035 rund 500.000 Pflegekräfte. Einige Aufgaben in der Pflege könnten künftig Assistenzroboter übernehmen. Dabei ist bereits bei der Entwicklung von Pflegerobotern darauf zu achten, dass ihr Einsatz zum Wohle von Fachkräften und Pflegebedürftigen gleichermaßen geschieht.

Weiterlesen

Verfasst in: Frontpage, News

KI im Kundenservice: Wieso ein KI-Chatbot gerade jetzt so wichtig ist & inwiefern Unternehmen davon profitieren

Es gibt kaum einen Bereich in dem künstliche Intelligenz aktuell nicht für Umbrüche, Veränderungen und Optimierungen sorgt. Einer dieser Bereiche ist der Kundenservice / Kundensupport von Unternehmen. In diesem Artikel erfahren Sie, warum KI im Kundenservice heutzutage so elementar ist.

So gibt es mehrere „Brandbeschleuniger“, beziehungsweise Gründe, die den Einsatz von künstlicher Intelligenz im Kundenservice nahezu unverzichtbar machen:

COVID-19-Pandemie: Der Ausbruch der Covid-19-Pandemie hat Privatpersonen als auch Unternehmen vor bisher unbekannte Herausforderungen gestellt. Gleichzeitig führten die mit Corona einhergehenden Probleme zu neuen Lösungswegen – auch in Unternehmen. Es gab einen direkten Anstoß für mehr Digitalisierung und Automatisierung, schlichtweg, weil es nicht mehr so weitergehen konnte, wie zuvor. Hinzu kam, dass die Anfragen (potenzieller) Kunden an Unternehmen sich häuften – es kam zu Peak-Phasen, die manche Unternehmen kaum mehr handhaben konnten. Energieanbieter hatten beispielsweise zu Beginn der Corona-Krise mit einer ungewohnt hohen Anzahl von Nachrichten zu kämpfen. Inwiefern in diesem Fall ein KI-basierter Chatbot unterstützen kann, zeigt der Energieanbieter TEAG. Dieser agierte schnell und implementierte ein KI-basiertes Dialogsystem, das im Kundenservice eingesetzt wird. Auf diesem Weg schaffte TEAG es innerhalb weniger Wochen das Kundenservice-Team zu unterstützen und vornehmlich wiederkehrende Anfrage zu automatisieren, sodass dem Service-Team mehr Zeit blieb, um komplexe Anfragen zu beantworten.

Gestiegene Erwartungshaltung: Unternehmen können sich einen schlechten, digitalen Service sowie ein nicht optimale User Experience kaum mehr leisten. Zu stark ist der digitale Wettbewerbsdruck, während gleichzeitig die Erwartungen (potenzieller) Kunden immer weiter steigen. Menschen sind es inzwischen aus ihrem Privatleben gewohnt, dass sie einfach per Chat kommunizieren können und dabei i.d.R. nicht lange auf eine Antwort warten müssen. Diese Kommunikation hat sich inzwischen auch im Arbeitskontext gefestigt und so auch im B2C-Bereich. Die Kommunikation ist einfacher und schneller geworden.
Unternehmen können dieser gestiegenen Erwartungshaltung ideal mit einem intelligenten Chatbot begegnen. Denn auch, wenn das Kundenservice-Team im Feierabend ist, bleibt der Chatbot auf der Website, den Social-Media-Kanälen oder auch in der Unternehmens-App präsent und ist jederzeit ansprechbar für Kunden oder Interessenten. Er ist also eine „24/7/365-Anlaufstelle“, die stets zur Verfügung steht und in Sekundenschnelle Lösungswege, Hilfestellung oder die Navigation zu passenden Inhalten liefert.

KI im Kundenservice: Die Vorteile eines intelligenten Chatbots auf einen Blick

 

  • Erhöhte Kundenzufriedenheit

Nicht nur Produktqualität, sondern auch der Service rund um Produkte oder Dienstleistungen ist eine relevante Stellschraube für die Kundenzufriedenheit. Je eher ein Kunde eine Antwort auf seine Frage bekommt und je besser diese Antwort ist, desto zufriedener ist er. Ein intelligenter Chatbot kann eben dies rund um die Uhr bieten. Zudem ist der demografische Wandel nicht zu vernachlässigen. Sowohl Generation Y als auch Generation Z – kurz um Digital Natives – sind zu potenziellen Kunden herangewachsen, die von Unternehmen in Bezug auf die Kommunikationsstrategie mit bedacht werden sollten. Insbesondere diese Zielgruppe, die in den kommenden Jahren immer wichtiger wird, greift sehr gerne auf digitale Chat-Möglichkeiten zurück und bringt eine hohe Erwartungshaltung mit, was die Schnelligkeit des Service betrifft.

  • Skalierbarer Kundenservice

Ganz gleich, wie viele Anfragen auf einmal den KI-Chatbot erreichen, er kann tausende Nachrichten gleichzeitig beantworten und lernt dabei sogar mit jeder Nachricht selbstständig dazu ein. Eine wahre Win-win-Situation für Kunden, das Unternehmen sowie die Service-Mitarbeiter und auch den Chatbot selbst. Während eine dauerhafte Erweiterung des Kundenservice-Teams immer mit steigenden Kosten einhergeht, ist dies bei einem Chatbot nicht der Fall – er wächst parallel mit Wachstum des Unternehmens ohne, dass zusätzliche Kosten anfallen.

  • Entlastung der Service-Mitarbeiter

Chatbots werden auch als digitale Assistenten bezeichnet, die genau dafür eingesetzt werden – sie assistieren Nutzern, aber auch dem Service-Team. So ist der Sinn von KI-basierten Chatbot nicht menschliche Mitarbeiter zu ersetzen, sondern sie zu ergänzen und insbesondere wiederkehrende und repetitive Aufgaben zu übernehmen – deren Bearbeitung häufig zeitraubend und ermüdend sind. Chatbots arbeiten mit Mitarbeitern Hand in Hand, nehmen ihnen viele Aufgaben ab, sodass in Peak-Phasen der Stress reduziert wird und dem Service-Team gleichzeitig mehr Zeit bleibt, um komplexe oder emotional aufgeladene Anliegen zu bearbeiten.

  • Beschleunigung von Prozessen bei gleichbleibender Qualität

Ein KI-basierter Chatbot bietet einen hohen Grad an Automatisierung. Das bedeutet in Kurzform, dass Prozesse stark beschleunigt werden, so kann zum Beispiel die Beantwortung von immer wiederkehrende Fragen in Sekunden abgearbeitet werden – und das tausendfach – während es einen Service-Mitarbeiter deutlich mehr Zeit kosten würde. Ein weiterer wichtiger Punkt ist die gleichbleibende Qualität der Antworten des Chatbots. Egal, wie häufig ein Chatbot die immer gleichen Fragen erhält – er gibt stets die gleiche Antwort, sodass Informationen nicht variieren oder unvollständig sind – auch in Peak-Phasen.

 

Verfasst in: Frontpage, News

Vielfältig wie Ihre Zielgruppe: Marketing mit Daten und KI erreicht Menschen ganz persönlich

Fabian Schladitz, Head of CoE Artificial Intelligence, Vice President, Capgemini

Wie viele Menschen lesen heute den genau gleichen Newsletter wie Sie?

In wie vielen Varianten erzeugen Sie eigentlich ihr Marketingmaterial? Wie viele Sprachen decken Sie ab und wie schaffen Sie es, die verschiedenen Personas ihrer Kunden gezielt anzusprechen? Findet jede Person Ihrer Zielgruppe sich in Ihrem Content wieder – und bei Ihnen, was sie sucht?

Weiterlesen

Verfasst in: Allgemein, Frontpage, News

Versicherung künstlicher Intelligenz

Versicherung künstlicher Intelligenz

von Dr. Michael Berger, Head of AI Insurance, Munich Re

Der Einsatz künstlicher Intelligenz (KI) kann für Unternehmen viele Vorteile bieten, wie etwa eine Steigerung der Effizienz und die Einsparung von Kosten. Ein KI-Projekt bringt aber zugleich enorme Einführungs- und laufende Betriebskosten mit sich. Um langfristig ein auch monetär erfolgreiches KI-Projekt zu implementieren, muss der Nutzen wohlüberlegt mit diesen Kosten abgeglichen werden.

Weiterlesen

Verfasst in: Frontpage, News