banner

Blog

Aug 05, 2023

6 Herausforderungen beim maschinellen Lernen für Unternehmen

Getty Images/iStockphoto

Maschinelles Lernen verspricht Erkenntnisse, die Unternehmen dabei helfen können, den Kundensupport zu verbessern, Betrug zu bekämpfen und die Nachfrage nach Produkten oder Dienstleistungen vorherzusehen.

Aber der Einsatz der Technologie – und die Realisierung der erwarteten Vorteile – kann sich gelinde gesagt als schwierig erweisen. Bei der Einführung eines neuen Tools kommen die heiklen Probleme ins Spiel: Unzureichende Investitionen und mangelnde Benutzerakzeptanz zählen zu den Hindernissen. Aber Organisationen, die maschinelles Lernen (ML) einsetzen, müssen sich mit einem noch breiteren Spektrum von Bedenken auseinandersetzen, von Ethik bis hin zu epistemischer Unsicherheit.

Hier sind sechs ML-Herausforderungen, die Unternehmen berücksichtigen sollten:

Organisationen gehen ein gewisses Risiko ein, wenn sie neue Technologien verfolgen. Im Fall von ML sind die potenziellen Gefahren groß und tendenziell mehrdimensional.

„Die größten Herausforderungen, die wir sehen und an denen alle Organisationen arbeiten, hängen tatsächlich mit ethischen Bedenken, Sicherheitsbedenken, wirtschaftlichen Bedenken und rechtlichen Überlegungen zusammen“, sagte Zakir Hussain, Amerikas Datenleiter beim Beratungsunternehmen EY. „Diese vier sind typischerweise diejenigen, nach denen viele unserer Kunden ständig fragen.“

Die Verzerrung in ML-Modellen zählt zu den wichtigsten ethischen Problemen. Beispielsweise umfassen die zum Trainieren solcher Modelle verwendeten Daten möglicherweise nicht repräsentative Daten für alle Personengruppen innerhalb einer bestimmten Bevölkerungsgruppe. Das resultierende Modell wird systemisch voreingenommene Ergebnisse liefern.

Was die Sicherheit betrifft, müssen sich ML-Anwender mit mehreren Problemen auseinandersetzen. Dazu gehören Datenwissenschaftler, die möglicherweise Malware zusammen mit den Open-Source-Modellen herunterladen, die sie anpassen möchten, sowie schnelle technische Angriffe, sagte David Frigeri, Geschäftsführer bei Slalom und Leiter der KI/ML-Praxis in Philadelphia. Slalom ist ein Beratungsunternehmen mit den Schwerpunkten Strategie und Technologie.

Er verwies auch auf Data Poisoning, einen Angriff, bei dem ein Bedrohungsakteur in die Trainingsdaten eines Unternehmens eindringt, um Analyseergebnisse oder Modellergebnisse zu beeinflussen.

Sicherheitsprobleme gehen mit umfassenderen Vertrauensbedenken einher, insbesondere mit dem Aspekt der Inhaltserstellung generativer KI. „In manchen Fällen kann man den Inhalten, die [KI] für Sie erstellt hat, nicht immer vertrauen“, sagte Frigeri. „Es muss eine gewisse Kontrolle geben, um herauszufinden, worauf man vertrauen kann und worauf nicht.“

Wirtschaftliche Bedenken drehen sich unterdessen um Arbeitsplatzprobleme und die geschätzten 300 Millionen Arbeitsplätze, die KI voraussichtlich beeinträchtigen wird, sagte Hussain. Er wies darauf hin, dass einige Unternehmen bereits aufgehört haben, Mitarbeiter für Positionen einzustellen, bei denen sie glauben, dass KI diese Aufgabe erfüllen kann.

Und im juristischen Bereich verwies Hussain auf den Fall eines New Yorker Anwalts, der sich bei der Erstellung eines Schriftsatzes auf ChatGPT verließ. Das KI-Tool hat juristische Zitate erstellt, was unterstreicht, wie die Technologie Halluzinationen hervorrufen und Fehler einführen kann.

Organisationen, die ML einsetzen, müssen solche Probleme direkt angehen, sagte Hussain. Zu den Maßnahmen, die zur Risikominderung beitragen, gehören die Festlegung klarer ethischer Richtlinien und Governance, die Priorisierung der Datenqualität, die Betonung der Fairness bei der Modellentwicklung und die Sicherstellung der Erklärbarkeit von Modellen, fügte er hinzu.

In der Eile, Modelle zu erstellen, umgehen Unternehmen möglicherweise die schwierige Aufgabe, ein Problem zu formulieren, das mit ML gelöst werden kann.

„Wir beginnen das Gespräch mit unseren Kunden mit der einfachen Vorstellung, das Problem zu lieben“, sagte Frigeri. „Allzu oft sind Menschen von der Lösung begeistert, bevor sie qualitativ und quantitativ vollständig verstehen, wo das Problem liegt.“

Projekte verschwinden, wenn es Organisationen nicht gelingt, einen starken Problemkandidaten für ML auszuwählen. Wenn das gewählte Problem die sprichwörtliche Nadel nicht bewegt, werden Proofs of Concept nicht ausreichend mit Ressourcen ausgestattet und liefern keine „Lernen oder Operationalisierung“, bemerkte Frigeri.

Organisationen, die Schwierigkeiten haben, das Problem zu formulieren, werden auch Schwierigkeiten haben, geeignete Anwendungsfälle zu finden, was die Bereitstellung behindert. Mehr als die Hälfte der 200 von Gartner befragten Unternehmensstrategen nannten „die Festlegung eines klaren Anwendungsfalls“ als größtes Hindernis bei der Implementierung neuer Technologien. Im Bericht des Marktforschungsunternehmens vom Juli 2023 wurde festgestellt, dass nur 20 % der Strategen KI-bezogene Tools wie ML nutzten.

Die Identifizierung von Anwendungsfällen „steht traditionell nicht im Mittelpunkt der Unternehmensstrategie“, sagte David Akers, Forschungsdirektor bei Gartner.

Daten müssen vorbereitet, bereinigt und strukturiert werden, bevor Unternehmen effektive ML-Tools entwickeln können. Viele Unternehmen möchten diesen Schritt des Data Engineering jedoch überspringen und in die Modellentwicklung einsteigen, sagte Matt Mead, CTO bei SPR, einem Technologiemodernisierungsunternehmen in Chicago. Als zentrale ML-Herausforderung nannte er den organisatorischen Widerstand gegen Dateninvestitionen.

„Jedes Unternehmen muss diese Vorabinvestition tätigen“, sagte Mead. „Aber es ist eine Art Investition ohne konkreten greifbaren Geschäftswert.“

Datenentwicklungsergebnisse, so wichtig sie auch sind, beeindrucken Topmanager außerhalb des IT-Bereichs zunächst möglicherweise nicht. Aus diesem Grund ist es für ML-Projektleiter wichtig, sicherzustellen, dass die C-Suite-Führungskräfte die Notwendigkeit erkennen, in Qualitätsdaten zu investieren, bevor sie sich auf die Reise in die Datenwissenschaft begeben, betonte Mead.

Wird die Datenaufbereitung vernachlässigt, kommt es im späteren Verlauf eines Projekts häufig zu Problemen.

„Was wir sehen, ist, dass fast 90 % der Arbeit, die geleistet wird, um herauszufinden, warum ein KI- oder ML-Modell nicht funktioniert, tatsächlich mit Daten zusammenhängt“, sagte Hussain.

Er listete einige Überlegungen zu Daten auf: Woher kommen die Daten und wie? Wie hoch ist das aktuelle Qualitätsniveau? Und wie verwalten Unternehmen die Datenqualität?

Ein gut geplanter ML-Einsatz ist natürlich wichtig. Eine zielstrebige Verfolgung dieser Projektphase könnte jedoch das ultimative Ziel der Technologieeinführung behindern.

Die meisten Organisationen konzentrieren sich ausschließlich auf die Umsetzung, sagte Mead. Sie werden jedoch keine Ergebnisse erzielen, wenn Mitarbeiter die ML-Tools nicht wie vorgesehen – oder überhaupt nicht – nutzen. Mead führte das Beispiel eines Kunden an, der ML in einem Callcenter einführte, um Agenten bei ihren Gesprächen mit Kunden zu unterstützen. Aber die ML-Funktion war drei oder vier Klicks tief im Software-Stack des Callcenters vergraben.

„Aus datenwissenschaftlicher Sicht wurde es wunderbar umgesetzt“, sagte Mead. „Aus Integrationssicht war es grauenhaft. Die Akzeptanz war null, und daher bot das Tool nie den geschäftlichen Nutzen.“

Frigeri betonte, dass das Veränderungsmanagement, die Befähigung und die Akzeptanz der Mitarbeiter für die Verwirklichung des Werts von ML von entscheidender Bedeutung seien.

„Wenn Mitarbeiter es im Regal liegen lassen, bekommen Sie es nicht zurück“, sagte er.

Zugänglichkeit und Benutzerfreundlichkeit stehen ganz oben auf der Liste der Akzeptanztreiber, sagte Frigeri. Er verwies auf das Beispiel von ChatGPT und würdigte den Chat-Aspekt für die Steigerung der KI-Prävalenz in der breiten Öffentlichkeit.

Innerhalb von Organisationen beruht die Barrierefreiheit auf der Einbindung der Benutzer. Mead empfahl, Benutzer und „Champions“ in den ML-Prozess einzubeziehen – und „früh und oft“ Feedback von ihnen einzuholen. Zu den Champions könnten Manager gehören, die motiviert sind, die Einführung von ML voranzutreiben, sowie Mitarbeiter mit Einfluss in der Organisation, unabhängig von ihrer Position, die dazu beitragen können, dass Benutzer eine Implementierung annehmen, sagte er.

Funktionsübergreifende Projektteams tragen auch dazu bei, sicherzustellen, dass ML effektiv in eine Organisation integriert und präsentiert wird, fügte Mead hinzu.

„Data-Science-Teams beherrschen die Mathematik und die Modelle fantastisch“, sagte er. „Aber sie haben keine Kenntnisse in den Bereichen Benutzererfahrung und Schnittstellendesign und wissen nicht, wie man belastbare Unternehmenssysteme aufbaut“, sagte Mead.

Ein weiteres Problem bei der Akzeptanz: Laut Frigeri könnten Mitarbeiter vor der Verwendung von ML zurückschrecken, wenn sie sich seit ihrer College-Zeit nicht mehr auf einem anspruchsvollen Niveau mit Statistiken befasst haben. Tatsächlich müssen Organisationen beim Einsatz von ML die Datenkompetenz als Überlegung berücksichtigen.

„Manchmal trauen sich Mitarbeiter einfach nicht, [ML] einzusetzen, weil sie vielleicht entdeckt werden – sie verstehen nicht wirklich, was es ist“, sagte Frigeri.

Unternehmen können Change-Management-Dienste von Drittanbietern in Anspruch nehmen, um die Mitarbeiterakzeptanz zu fördern. Aber der primäre geschäftliche Stakeholder sollte die Partei sein, die für die Einführung verantwortlich ist – mit Unterstützung von IT- und internen Change-Management-Büros, betonte Frigeri.

„Wir haben herausgefunden, dass es am effektivsten ist, wenn das Unternehmen tatsächlich die Verantwortung für die Einführung trägt“, fügte er hinzu.

Unternehmen müssen bereit sein, das Risiko einzugehen, in ein ML-Projekt zu investieren, das nie Früchte trägt.

Traditionell seien Softwareentwicklungsprojekte deterministisch gewesen, sagte Mead. Organisationen müssen oft Verzögerungen und Kostenüberschreitungen überwinden, aber meistens erhalten sie am Ende eine Software, die ihre Anforderungen umsetzt. „Im Großen und Ganzen denke ich, dass die Leute dort ankommen, wo sie hin müssen“, sagte er.

Das gleiche Maß an Sicherheit gibt es bei ML jedoch nicht.

„Sie wissen nicht sicher, ob Sie in der Lage sein werden, das zu tun, was Sie sich vorgenommen haben“, sagte Mead. „Und das liegt in der Natur der Datenwissenschaft.“

Ein Unternehmen könnte ein Drittel des Projektbudgets ausgeben, bevor es erkennt, dass der geplante Anwendungsfall nicht geeignet ist oder dass ein Vorhersagemodell nicht mindestens 75 % Genauigkeit erreicht, sagte er.

„Ich denke, viele Menschen verstehen die Risiken nicht“, sagte Mead. „Sie müssen zunächst eine vorläufige Modellentwicklung durchführen, um zu sehen, wo die Dinge stehen und ob Sie den beabsichtigten Geschäftswert erzielen können oder nicht.“

David Frigeri
AKTIE