Risiken am Horizont, wie DALL-E sie sieht
Lassen Sie uns über ChatGPT und andere Tools sprechen. Jeden Tag kommen neue Anwendungen auf den Markt und verändern unser Geschäftsleben. Viele Unternehmen sehen die Chancen und fürchten gleichzeitig, dass Konkurrenten künstliche Intelligenz nutzen, um in den eigenen Markt einzudringen.
Es ist jedoch keine gute Idee, überstürzt zu handeln. Bevor wir KI im Unternehmen einsetzen, sollten wir einen Blick auf die möglichen Risiken werfen und überlegen, wie wir ihnen begegnen können.
Inhalt
Künstliche Intelligenz hat verschiedene Branchen revolutioniert, und ihr Einfluss auf Wirtschaftspraktiken wächst immer noch in rasantem Tempo.
Einige Vorteile dieser Technologie sind:
Kein anderes Tool hat die Wirtschaftswelt je so schnell erobert wie ChatGPT. 100 Millionen Nutzer in nur einem Monat.
Das ist verständlich. Das Senden einer kurzen Anfrage an das System – Prompt genannt – liefert in fast jedem Bereich ein recht vernünftiges Ergebnis. Die Art und Weise, wie Large Language Models (LLM) wie ChatGPT arbeiten, fühlt sich menschlich an, und sie ist hilfreich. Autor:innen und Softwareentwickler:innen stehen an der Spitze der Nutzenden und profitieren von einem enormen Produktivitätsschub.
Generative KI ist ein Bereich innerhalb der künstlichen Intelligenz, der sich auf die Erstellung neuer Inhalte wie Bilder, Texte oder sogar Musik konzentriert. Dabei werden neuronale Netze in einer sogenannten Transformer-Architektur (das T in GPT) genutzt, um Muster aus Daten zu lernen, mit denen sie zuvor trainiert wurden (pretrained, das P in GPT), und neue Inhalte zu generieren (das G in GPT).
Der grundlegende Prozess besteht darin zu imitieren, wie Menschen entsprechende Inhalte erstellen würden. Die Systeme ahmen den Stil und die Eigenschaften der Trainingsdaten nach.
Im Jahr 2019 habe ich erstmals einen Artikel beschrieben, wie diese Art von KI unsere Wirtschaftswelt verändern wird. Nur wenige stimmten damals meiner Ansicht zu. Jetzt hat sie sich als eine drastische Untertreibung herausgestellt.
Wegen der Bedeutung, die die generative KI in so kurzer Zeit erlangt hat, werde ich mich auf die mit ihr verbundenen Risiken konzentrieren.
Bei all dem Rummel um GenAI dürfen wir nicht vergessen, dass andere, nämlich analytische KI- und Machine Learning (ML)-Systeme eine lange Tradition haben und die Grundlage für viele Geschäftsanwendungen bilden. Es gibt zahlreiche Fälle, in denen sie wesentlich bessere Leistungen erbringen, weniger Energie verbrauchen und daher auch weniger kostspielig sind.
Generative KI dort einzusetzen, wo maschinelles Lernen erforderlich ist, nur weil es einfacher erscheint, ist ein häufiger Fehler und birgt entsprechende Risiken.
Auch wenn die Vorteile von KI beträchtlich sind, ist es wichtig, sich der potenziellen Risiken und Herausforderungen bewusst zu sein. Nur einige von ihnen sind technischer Natur, viele haben einen psychologischen Hintergrund, der durch Information, Kommunikation und Schulung vermieden werden kann.
Gehen wir diese sicherlich unvollständige Liste einmal durch:
Der am meisten diskutierte Risikofaktor sind die ChatGPT-Halluzinationen, d.h. erfundene Informationen (Falschbehauptungen), die mit unschlagbarer Überzeugungskraft vermittelt werden.
Die Ergebnisse von Large Language Models können auf den ersten Blick sehr vernünftig erscheinen, aber oft sind sie falsch, vorurteilsbehaftet oder verzerrt, wie viele Beispiele gezeigt haben.
Weitreichende Entscheidungen, die auf solchen falschen Aussagen beruhen, sind mit Gewissheit ein Risiko.
Ich stimme zu, es ist nicht nur ein Problem, das diese Systeme aufweisen. Auch Menschen neigen dazu, von Zeit zu Zeit falsche Inhalte zu generieren. Ein großes Problem ist jedoch, dass die Ergebnisse von Bard, ChatGPT etc. so überzeugend klingen. Menschen sind eher geneigt, einer halluzinierenden Maschine zu vertrauen als einem Angeber. Hier sehen wir, dass der psychologische Aspekt nicht unterschätzt werden sollte.
Gegenmaßnahmen:
Einige Ergebnisse von LLMs sind nicht halluziniert, aber auch nicht korrekt. Sie können kleinere Fehler, Vorurteile, Verzerrungen oder falsche Schlussfolgerungen enthalten. Der Risikofaktor mag geringer sein als bei Halluzinationen, sollte aber ebenfalls minimiert werden. Leider lässt er sich nie ganz ausschalten. Deshalb sollte das Bewusstsein dafür bei Mitarbeitenden hoch gehalten werden.
Gegenmaßnahmen:
Hier haben wir es mit einem rein psychologischen Risikofaktor zu tun, der völlig verständlich ist, aber unter Kontrolle gehalten werden sollte. Menschen versuchen, effektiv zu sein. Oft sind sie gestresst und stehen unter Zeitdruck. Wenn in einer solchen Situation generative KI einen Text erstellt, der sich wunderbar liest, dann verleitet es dazu, ihn so zu nehmen, wie er ist, und auf eigentlich notwendige Überprüfung zu verzichten.
Das Verhalten ist verständlich, aber auch äußerst kritisch.
Gegenmaßnahmen:
es ist ein Risiko, das der Aufstiegsdynamik großer Sprachmodelle innewohnt. Sie sind gut in dem, was sie tun, nicht brillant, aber gut. Immer mehr Menschen setzen diese Technologie ein, um ihre Schreib- oder Programmierfähigkeiten zu verbessern. Und es funktioniert!
Das Ergebnis ist, dass immer mehr gute Texte und Software auf der Bildfläche erscheinen. Sie sind gut, nicht brillant, aber gut. Gut wird das neue Mittelmaß.
Gegenmaßnahmen:
Generative KI kann für anspruchsvolle Aufgaben wie Marktforschung, Generierung von Ideen und Geschäftskonzepten, Planung von Einführungskampagnen, Problemlösung, Entdeckung von Best Practices und vieles mehr eingesetzt werden. Wenn wir bedenken, dass auch diese fortgeschrittenen Anwendungsbereiche für die genannten Fehler anfällig sind, ist klar, dass wir sehr vorsichtig sein müssen, um nicht die falschen Optionen zu wählen.
Um es klar zu sagen: Risiken entstehen nicht nur durch den Einsatz von KI. Auch Menschen können erratischen Strategien entwickeln. Das Problem ist aber auch hier, dass ChatGPT & Co. so überzeugend wirken.
Gegenmaßnahmen:
Ich habe bereits erwähnt, dass große Sprachmodelle nicht immer die beste Lösung sind. Ja, sie liefern bei fast jeder Anfrage verblüffende Ergebnisse, aber manchmal ist das auch nur Augenwischerei.
Ein Unternehmen, das auf einem Schatz gespeicherter Daten sitzt, ist oft besser dran, wenn es traditionelle Algorithmen für maschinelles Lernen anwendet. Tabellen zum Beispiel sehen für uns so natürlich und verständlich aus. Leider nicht für KI und schon gar nicht für Large Language Models.
Die Wahl der richtigen Methodik für die Auswertung von Daten erfordert ein tieferes Wissen über maschinelles Lernen. Wenn wir auf tabellarische Daten ein Large Language Model (das dafür nicht gemacht ist), einen Random Forest, einen einfachen Entscheidungsbaum, eine logistische Regression oder eine Support Vector Machine loslassen, werden wir in jedem Fall ein anderes Ergebnis erhalten.
Es gibt keine Lösung für jede Anforderung, auch wenn generative KI manchmal vorgibt, genau das zu sein. Die Wahl des falschen Systems und Algorithmus führt im besten Fall nur zu nutzlosen Ausgaben, im schlimmsten Fall zu gravierenden Fehlinterpretationen von Daten.
Gegenmaßnahmen:
Nur wenige größere Unternehmen werden die Last auf sich nehmen, KI-Systeme selbst zu hosten, zu trainieren und warten. Die meisten setzen auf KI als Service. Dann ist es wie bei jedem anderen SaaS. Die Daten werden an ein Rechenzentrum übertragen, über das Sie keine Kontrolle haben.
Es kann passieren und es wird passieren: Daten, die mit einem Prompt übermittelt wurden, landen in den Händen von Menschen, die schlechte Absichten verfolgen.
Gegenmaßnahmen:
Unternehmen, die ein Chatsystem öffentlich zugänglich machen, müssen das System gegen sogenannte Prompt Injections schützen, bei denen Angreifer versuchen, Schadcode einzufügen, um das System zu manipulieren.
Gegenmaßnahmen:
Bei all den genannten Risiken sollte klar sein, dass auch Haftungsfragen auftreten können. Generierte Inhalte können zu Urheberrechtsverletzungen führen, Verzerrungen durch einen Algorithmus zu Diskriminierung, und jede falsche Entscheidung kann Ansprüche Dritter nach sich ziehen.
Gegenmaßnahmen:
Der unreflektierte Einsatz von generativer KI kann schwerwiegende Folgen haben. Mittelmäßigkeit, Oberflächlichkeit und ein ständiger Strom von kleinen Fehlern können das Vertrauen in ein Unternehmen untergraben. Datenschutzverletzungen und schwerwiegendere Fehler können das Vertrauen sogar in Sekundenschnelle zerstören.
Gegenmaßnahmen:
Es ist eine Kombination aus allen bisher genannten Maßnahmen. Der wichtigste Teil ist das kontinuierliche Monitoring, wie das Unternehmen und seine Marken wahrgenommen werden. Mitarbeiter sollten über den Einsatz von Künstlicher Intelligenz Bescheid wissen und über Fertigkeiten auf professionellem Niveau verfügen. Auch ethische Überlegungen spielen eine Rolle.
Der wohlüberlegte Einsatz von KI-Technologien wird zu erheblichen Vorteilen und stabilen Wettbewerbspositionen führen. Eine gut durchdachte Strategie hat das Potenzial, den Geschäftsbetrieb zu revolutionieren und neue Möglichkeiten zu eröffnen. Allerdings ist es wichtig, die damit verbundenen Risiken zu verstehen und zu minimieren.
Uwe Weinreich ist einer der KI-Experten, deren Kompetenz über Prompt-Engineering hinausgeht. Sein breites Wissen über verschiedene Architekturen und Algorithmen in Kombination mit seinem unternehmerisch-strategischen Hintergrund machen ihn zu einem wertvollen und wertschaffenden Berater auf Ihrem Weg zu Künstlicher Intelligenz im Business.
Einen persönlichen Call buchen KI-Workshop für Mitarbeitenden