Mann tippt mit digitalem Stift auf Tablet-Bildschirm auf grün beleuchteter Brücke.

Wie die ethische Nutzung von KI heute Vertrauen für morgen schafft

Der EY Global Integrity Report 2024 betont die Notwendigkeit einer umfassenden KI-Nutzungsstrategie.


Überblick:

  • Über die Hälfte der Unternehmen nutzt bereits KI oder plant, diese in den nächsten zwei Jahren einzuführen.
  • Allerdings haben nur 40 Prozent der Unternehmen Maßnahmen ergriffen oder geplant, um den Einsatz und die Nutzung von KI in der gesamten Organisation zu steuern.
  • Organisationen benötigen einen ethisch fundierten Ansatz für den Einsatz von KI.

Die Nutzung künstlicher Intelligenz (KI) steht im Zentrum eines tiefgreifenden Wandels in Unternehmen. Es gibt zahlreiche bedeutende Fortschritte, die sich positiv auf tägliche Geschäftsaktivitäten und Prozesse auswirken. Doch mit dem Fortschritt gehen auch neue Risiken einher. Falsch trainierte Algorithmen, soziale und ethische Vorurteile sowie aktive Fraud-Angriffe können Unternehmen, Mitarbeitenden und Nutzenden schaden und zu Benachteiligungen führen.

Um das volle Potenzial von KI auszuschöpfen und die damit verbundenen Risiken zu managen, müssen Organisationen eine ethisch fundierte KI-Nutzungsstrategie entwickeln und implementieren. Diese Strategie sollte positive Verhaltensweisen in Bezug auf effektive Governance, robuste Compliance- und Ethikkontrollen sowie Erkenntnisse aus qualitativen und quantitativen Daten fördern und eine integritätsorientierte Unternehmenskultur unterstützen.

Laut dem Edelman Trust Barometer 2024 haben Menschen mehr Vertrauen in Unternehmen (59 Prozent) als in Nichtregierungsorganisationen (NGOs; 54 Prozent) oder die Regierung (50 Prozent), wenn es darum geht, Innovationen sicher, verständlich, vorteilhaft und zugänglich zu gestalten. Dennoch zeigt das Vertrauensniveau von 59 Prozent in Unternehmen, dass es viel Raum für Verbesserungen gibt. Sowohl private als auch öffentliche Organisationen müssen aktiv daran arbeiten, das Vertrauen in den ethischen Einsatz von KI zu stärken.

Wachsende Nutzung von KI

Viele Unternehmen setzen KI weiterhin in rasantem Tempo ein. Die Ergebnisse unseres EY Global Integrity Report 2024 zeigen, dass sich zahlreiche Organisationen strukturell mit der Entwicklung und dem Einsatz von KI auseinandersetzen, um ihre Geschäftsprozesse zu transformieren. Etwas mehr als ein Viertel (29 Prozent) der Organisationen nutzt bereits KI-gestützte Tools in ihren Abläufen, ein weiteres Viertel (25 Prozent) plant, dies in den nächsten zwei Jahren zu tun.

Die Nutzung von KI in Organisationen
der global Befragten gaben an, dass sie KI-gestützte Tools nutzen oder planen, dies in den nächsten zwei Jahren zu tun.

Innerhalb von Unternehmen ist die IT-Abteilung der früheste Anwender von KI, wobei 42 Prozent der Befragten bereits KI-gestützte Tools nutzen. Auch die Compliance- (31 Prozent) und Finanzabteilungen (33 Prozent) machen mutige Fortschritte bei der Implementierung dieser Technologien. Im Gegensatz dazu hinken die Interne Revision (23 Prozent) und die Rechtsabteilungen (14 Prozent) laut Umfrage bei der aktiven Nutzung von KI hinterher. Dennoch planen viele dieser Abteilungen, in den nächsten zwei Jahren innovative Lösungen einzuführen.

Schwellenländer: führend im Management und im Schutz der KI-Nutzung

Unabhängig davon, ob sich Unternehmen noch in der Planungsphase befinden oder bereits aktiv KI nutzen, haben etwa vier von zehn Organisationen Maßnahmen ergriffen oder geplant, um den Einsatz und die Nutzung risiko- und potenzialbasiert zu steuern. Interessanterweise scheinen Schwellenländer ein reiferes Verständnis und ein höheres Verantwortungsbewusstsein gegenüber dem Einsatz von KI zu haben. So geben 51 Prozent der Führungskräfte in Schwellenländern an, von ihrer Organisation Schulungen oder Richtlinien zu den erlaubten und ethischen Nutzungen von KI erhalten zu haben; in den entwickelten Märkten bestätigen dies nur 35 Prozent der Führungskräfte. Die Quoten im Nahen Osten, Indien und Nordafrika (60 Prozent), in Fernost (59 Prozent) und in Südamerika (54 Prozent) sind deutlich höher als in Westeuropa (35 Prozent), Nordamerika (32 Prozent) und Ozeanien (28 Prozent).

Eine mögliche Erklärung dafür liegt in der Forschung und der Anwendungsentwicklung von KI-Lösungen. Talente zur Programmierung, Anlernung und Entwicklung von KI-Tools beginnen zwar häufig in reifen Märkten, die Umsetzung erfolgt jedoch oft mit Fachkräften in Schwellenländern. Darüber hinaus haben Schwellenländer häufig eine ausgeprägtere Start-up-Mentalität und sind geschickt darin, neue Technologiekonzepte zu nutzen.

Schwellenländer führend bei der Bereitstellung von Leitlinien für die Nutzung von KI
Der Befragten in Schwellenländern erhielten Schulungen oder Richtlinien zur ethischen Anwendung von KI, während es in entwickelten Märkten nur 35 Prozent der Führungskräfte waren.

Strategie für den ethischen Einsatz von KI und Compliance

Angesichts der wachsenden Erwartungen von Regulierungsbehörden, insbesondere in den USA und der EU, müssen Unternehmen zunehmend ihr Risikomanagement überdenken. Der Übergang von manuellen Berichten und Prozessen zu digitalisierten Lösungen mit KI-Komponenten ermöglicht es Unternehmen, Risikobereiche schneller zu identifizieren, zu benchmarken und ihre Strategie entsprechend anzupassen.

 

Das Volumen der generierten Daten, kombiniert mit dem Bedarf an Echtzeitinformationen zur Steuerung der Geschäftsstrategie und den zunehmend komplexen regulatorischen Anforderungen, macht KI-gestützte Tools bald zu einer Notwendigkeit für Organisationen. Gleichzeitig müssen Unternehmen angesichts der verstärkten behördlichen Durchsetzung und der Rechtsstreitigkeiten im Zusammenhang mit KI einen Plan zur Verwaltung der damit verbundenen Risiken entwickeln und umsetzen.

 

Grundlage hierfür ist ein AI Governance Framework, das das übergreifende Management für den ethischen und ökonomischen Einsatz von KI im Unternehmen strukturiert, operationalisiert und überwacht. Für viele der im Rahmen des EY Global Integrity Report 2024 Befragten stellt dies jedoch angesichts der schnellen Entwicklung von KI und der entsprechenden Regulierung eine Herausforderung dar. Mit einem AI-Governance-Ansatz können Unternehmen zeitnah daran arbeiten, durch Risikoanalysen, Richtlinien und operative Qualitätsprozesse ihre KI-Strategie effizient zu unterstützen.

EY Global Integrity Report 2024

Dieser Artikel ist Teil der Artikelreihe zum EY Global Integrity Report 2024.

1

Kapitel 1

Rechts- und Compliance-Abteilungen erkennen Risiken und Potenzial von KI

Die Befragten aus den Bereichen Recht und Compliance sind von den Vorteilen des intelligenten Einsatzes von KI überzeugt, haben aber Schwierigkeiten, die Integrität der KI-Einführung zu gewährleisten.

Rechts- und Compliance-Abteilungen stehen vor einem strukturellen Problem: Die Akzeptanz der Notwendigkeit, KI zu integrieren, wird durch den hohen Arbeitsaufwand in den operativen Bereichen beeinträchtigt. Es ist unbestritten, dass Unternehmen rechtskonform arbeiten müssen, unterstützt durch ein wirksames Compliance- und Integritätsmanagement. Dennoch erscheinen Unternehmensprozesse oft bürokratisch, beinhalten zahlreiche Schnittstellen und führen zu einer gewissen Ermüdung in Bezug auf das Thema.

Trotz dieser Herausforderungen sind Rechts- und Compliance-Abteilungen zunehmend von den Vorteilen des intelligenten Einsatzes von KI in Unternehmensprozessen überzeugt.

Allerdings deutet die insgesamt geringe Akzeptanz und Integration von KI in den Bereichen Recht, Compliance und Interne Revision darauf hin, dass die sogenannten Second und Third Lines der Organisation nicht mit der Nutzung von KI im Rest der Organisation Schritt halten. Diese Situation erinnert an die langsame Anpassung der Rechts- und Compliance-Abteilungen sowie der Internen Revision an die Nutzung von Datenanalysen beim Aufkommen von Big Data und Robotic Prozess Automation (RPA) in den vergangenen Jahren.

Wo Rechts- und Compliance-Abteilungen Potenzial für den KI-Einsatz sehen

Im Rahmen unseres EY Global Integrity Report 2024 identifizierten die Befragten aus den Rechts- und Compliance-Abteilungen die kontinuierliche Verbesserung, die laufende Überwachung und Risikobewertungen als die wichtigsten routinemäßigen Compliance-Aktivitäten, die sich für den Einsatz von KI eignen. Für sie liegt das größte Nutzungspotenzial für datenfokussierte KI-Lösungen im Compliance-Bereich in der Zusammenführung und dem Abgleich unterschiedlicher Datenquellen für Review-Zwecke (40 Prozent), der aktiven Überwachung und Echtzeitanalyse von Daten (37 Prozent) und in der Risikobewertung von Transaktionen (34 Prozent).

Der Einfluss von KI auf die Compliance-Funktion
Die Befragten aus den Rechts- und Compliance-Abteilungen sehen das größte Nutzungspotenzial von KI im Compliance-Bereich in der intelligenten Zusammenführung und dem Abgleich unterschiedlicher Datensätze zu Review-Zwecken.

Basierend auf unserer Erfahrung als Prüfer und Berater haben wir bereits verschiedene KI-Anwendungen in Rechts-, Compliance- und Revisionsabteilungen erlebt und mitgestaltet. Beispielsweise können generative KI-Tools (GenAI) schnell große Mengen an Informationen recherchieren, intelligent auswerten und zusammenfassen, Verträge entwerfen oder erste Überprüfungen von Dokumenten und Vorgängen vornehmen. Dies steigert die Genauigkeit und Effizienz bei der Ausführung von Routineaufgaben erheblich.

Darüber hinaus kann KI Führungskräften helfen, schnellere Übersichten über Rechtsthemen oder Entscheidungshilfen zu erstellen, die im Tagesgeschäft effizienter und mit einem ausreichenden Risikofokus genutzt werden können. Hier einige Beispiele:

  • Screening von sich ändernden Rechtsvorschriften in unterschiedlichen Jurisdiktionen zur Rechtsregisterpflicht und der Legal- und der Compliance-Strategie
  • Analyse von Compliance-Benchmarks, Peers und Newsfeeds
  • Digitalisierung und Steuerung des Due-Diligence-Prozesses durch Automatisierung, Hintergrundüberprüfungen Dritter, Workflows und Datenanreicherungen aus internen Data Lakes
  • Verbesserung der Risikobewertung durch automatisierte Analyse von Transaktionen innerhalb des Unternehmens (Finanzbuchhaltung, sonstige Transaktionen) und internen Datenbanken, insbesondere zur Erkennung von Risiken, Mustern und Anomalien
  • Generierung von Echtzeitwarnungen bei verdächtigen Aktivitäten und Priorisierung von Fällen potenziellen Fehlverhaltens (Live Monitoring)
  • erhebliche Reduzierung der Kosten und der Zeit für die Analyse großer Datensätze durch den Einsatz prädiktiver Modelle zur Durchführung von E-Mail- und Dokumentenüberprüfungen, beispielsweise als Reaktion auf Fehlverhalten oder basierend auf behördlichen Anfragen, Vorladungen und Rechtsstreitigkeiten (AI-Enabled Investigation)
  • automatische Identifizierung personenbezogener Daten sowie Extraktion oder Schwärzung privater, vertraulicher oder anderweitig schützenswerter Informationen in großen Datensätzen
  • Bereitstellung von Antworten auf Compliance-Anfragen von Mitarbeitenden oder Geschäftspartnern sowie Verweis auf Unternehmensrichtlinien und Bereitstellung von Anleitungen durch KI-Chatbots (inklusive Workflow-Automatisierung; Integrity Self Service)

„AI Wishing“ und „AI Washing“: digitale Ethik und robustes Risikomanagement zentral

KI hat die Geschäftsführungen und Vorstandsbüros erreicht – denn ohne den digitalen Wandel fühlen sich Unternehmen im Hintertreffen.

Da KI zunehmend auf Vorstandsebene diskutiert wird und das Potenzial hat, für Organisationen ebenso relevant zu werden wie beispielsweise Datenschutz, Produktsicherheit und Compliance, liegt die Verantwortung für die Integrität und das Vertrauen in den Einsatz von KI weitgehend auf den Schultern der Rechts- und Compliance-Abteilungen. Diese werden dabei durch die Zusammenarbeit funktionsübergreifender Teams unterstützt. Die Rechts- und Compliance-Abteilungen sind nicht nur dafür verantwortlich, die eigenen Risiken im Zusammenhang mit KI zu managen, sondern auch die Einhaltung und Sicherstellung der Qualität der Compliance-Standards in der Organisation zu überprüfen, während KI im gesamten Unternehmen implementiert wird. Diese Aktivitäten sollten in einen holistischen und trotzdem handhabbaren operativen Prozess innerhalb eines KI-Governance-Rahmens eingebettet werden.

Wenn jedoch Rechts- und Compliance-Abteilungen Schwierigkeiten haben, den Überblick über das Qualitätsmanagement von KI-Lösungen zu behalten und insbesondere die verbundenen Compliance-Risiken in ihrem eigenen Bereich zu berücksichtigen, deutet dies auf erhebliche Herausforderungen hin. Das Unternehmen muss sicherstellen, dass KI-gestützte Tools im gesamten Unternehmen gemäß dem internen KI-Governance-Rahmen und den sich entwickelnden, teils komplexen und möglicherweise globalen gesetzlichen Vorschriften und rechtlichen Anforderungen verwendet werden. Dies ist besonders relevant bei der Umsetzung des EU Artificial Intelligence Act (EU AI Act).

Diese Herausforderungen können zu dem genannten „AI Wishing“ führen – einem Zustand, in dem das Management die (rechtskonforme) Nutzung von KI falsch bewertet, weil es hofft oder glaubt, aber nicht verifizieren kann, wie die Organisation KI tatsächlich einsetzt. Darüber hinaus besteht das ernstere Risiko des „AI Washing“, bei dem die Organisation absichtlich falsche Darstellungen darüber abgibt, wie sie KI nutzt. Ob unbeabsichtigt oder absichtlich, „AI Wishing“ und „AI Washing“ können zu ernst zu nehmenden Rechts- und Reputationsrisiken führen. Bereits jetzt werden zahlreiche Ansprüche geltend gemacht. So hat die US-amerikanische Securities and Exchange Commission (SEC) kürzlich zwei Anlageberater wegen falscher und irreführender Aussagen über ihre gemeldete Nutzung von KI angeklagt. Beide Firmen stimmten einem Vergleich zu und zahlten insgesamt 400.000 US-Dollar zivilrechtliche Strafen.

Während es verlockend ist, sich dem Hype um das Potenzial von KI hinzugeben, ist eine starke Compliance- und Ethikkultur unerlässlich, um sicherzustellen, dass Fehlverhalten und Risiken – sei es absichtlich oder unabsichtlich – im Zusammenhang mit dem Einsatz von KI in der Organisation die Ausnahme und nicht die Regel sind.

Tempo der KI-Entwicklung stellt die Regulierung in den Fokus

In der EU planen einige Mitgliedstaaten, den Einsatz von Gesichtserkennungstechnologien bei ihren Polizeikräften zu verstärken. Das Europäische Parlament hat jedoch kürzlich strengere Beschränkungen im Rahmen des EU AI Act verabschiedet. Dieses Gesetz, das am 1. August 2024 in Kraft getreten ist, ist die weltweit erste umfassende KI-Regulierung. Es hat extraterritoriale Wirkung und sieht bei Verstößen hohe Geldstrafen vor, was es für alle Organisationen, die Geschäfte in oder mit europäischen Ländern tätigen, relevant macht.

China, eines der ersten Länder, die KI-Regulierungen implementiert haben, erweitert derzeit seine verschiedenen Vorschriften und Richtlinien, die für spezifische KI-Anwendungen gelten. Dabei hat China auch die Empfehlungen der UNESCO zu den ethischen Aspekten von KI übernommen und ist Unterzeichner der KI-Prinzipien der OECD.

In Indien fordert die Regierung Technologieunternehmen auf, vor der öffentlichen Einführung von KI-Tools eine ausdrückliche Genehmigung einzuholen. Zudem hat sie Unternehmen davor gewarnt, KI-Produkte zu verwenden, die Antworten generieren könnten, die „die Integrität des Wahlprozesses bedrohen“. Dies stellt eine Abkehr von der im Jahr 2023 erklärten Position dar, einen zurückhaltenden Ansatz gegenüber KI zu verfolgen.


In den USA lässt sich seit dem Amtsantritt von Präsident Donald Trump ein Richtungswechsel im Bereich der KI-Regulatorik auf Bundesebene erkennen.


In den USA lässt sich mit Amtsantritt von Präsident Donald Trump ein Richtungswechsel im Bereich der KI-Regulatorik auf Bundesebene erkennen. Die von Präsident Joe Biden verabschiedete Executive Order 14110, die auf eine sichere und vertrauenswürdige Entwicklung und Nutzung von KI abzielte, wurde von Präsident Trump am Tag seines Amtseintritts widerrufen und drei Tage später durch eine neue Executive Order ersetzt, die die Entwicklung von KI in den USA fördern soll. Was dies konkret bedeutet, wird sich in den kommenden Monaten zeigen. Zudem gibt es in den USA vielfältige Regulierungen in den verschiedenen Behörden und Bundesstaaten. So hat beispielsweise die Federal Trade Commission (FTC) auf öffentliche Bedenken hinsichtlich der Auswirkungen von generativer KI reagiert, indem sie umfassende Untersuchungen zu einigen KI-Plattformen eingeleitet hat. Es gibt auch viele Regulierungen in US-Bundesstaaten und lokal spezifische Gesetze, die bereits in Kraft sind oder diskutiert werden, beispielsweise in Kalifornien und New York.

Nach der EU hat Südkorea im Dezember 2024 mit dem AI Basic Act das zweite formale Gesetz zur Regelung von KI verabschiedet. Dieses weist Parallelen zum EU AI Act auf und verfolgt wie dieser einen risikoorientierten Ansatz. Jedoch ist die mögliche Höhe einer Strafe bei einem Verstoß mit bis zu circa 20.000 Euro (30 Millionen koreanische Won) im Vergleich zum EU AI Act mit bis zu 35 Millionen Euro oder 7 Prozent des jährlichen globalen Umsatzes gering.


Der schnelle technische Fortschritt im Bereich der KI stellt die Regulierungsbehörden vor große Herausforderungen, mit dieser Entwicklung Schritt zu halten. In diesem Kontext tragen Unternehmen eine umso größere Verantwortung, ethische und moralische Werte sowie die Rechte der Betroffenen bei der Entwicklung und Implementierung von KI zu berücksichtigen. Um dieses Ziel zu erreichen, ist eine entsprechende KI-Compliance-Kultur in den Organisationen erforderlich.

Unternehmen sollten mehr tun, als lediglich die Einhaltung von Vorschriften sicherzustellen. Ein wirkungsvolles Mittel hierfür ist die Schaffung von KI-Taskforces zum Thema „Responsibility“, die eine interdisziplinäre Gruppe von Mitarbeitenden umfassen und sich mit dem ethischen und verantwortungsvollen Einsatz von KI befassen. Dieses Thema sollte in entsprechende Richtlinien sowie in zugehörige Prozesse und Kontrollen integriert werden.

Die Sicherstellung der Compliance sowie der ethischen und moralischen Nutzung von KI kann für Organisationen eine Herausforderung darstellen, da sich die Fähigkeiten der Rechts- und Compliance-Organisation parallel zum technologischen Fortschritt weiterentwickeln müssen. Während Organisationen eine stärker auf KI ausgerichtete Agenda vorantreiben, lässt sich beobachten, dass sich der Bedarf an traditionell im Backoffice oder in der IT angesiedelten technischen Fähigkeiten in andere Geschäftsbereiche verschiebt.

Organisationen müssen in der Lage sein, die häufig vorhandene Lücke zwischen technischer Expertise und den Anwendungsanforderungen der Geschäftsbereiche zu überbrücken. Beispielsweise könnten KI-Technologie-Fachleute eng mit der Rechts- oder Compliance-Abteilung zusammenarbeiten, um Wissen über die technischen Vorteile und die wichtigsten Risiken in verständlicher Weise anhand spezifischer Anwendungsfälle oder Prozesse zu teilen.

2

Kapitel 2

Sechs Strategien für integritätsorientierte KI-Nutzung in Unternehmen

Unternehmen müssen einen umfassenden Plan und einen systematischen Ansatz für die ethische und gesetzeskonforme Nutzung von KI haben.

Angesichts des erheblichen Potenzials von KI, die Geschäftswelt grundlegend zu verändern, müssen Organisationen einen ganzheitlichen Plan entwickeln und einen systematischen Ansatz für den ethischen und regelkonformen Einsatz von KI verfolgen.

Im Folgenden sind sechs Wege dargestellt, wie Organisationen einen integritätsorientierten Ansatz für die Nutzung von KI implementieren können:

1. Bewertung der KI-Nutzungsstrategie

Unabhängig davon, ob die Organisation bereits KI implementiert hat oder dies in naher Zukunft plant, ist es wichtig, ihren aktuellen Reifegrad im Umgang mit der Nutzung von KI zu verstehen. Eine KI-Reifegradbewertung kann helfen, kritische Lücken zu identifizieren. Beispielsweise stellte ein globales Pharmaunternehmen bei einer Compliance-Bewertung der KI-Nutzung fest, dass eine der größten Lücken das Fehlen eines konsistenten KI-Governance-Rahmens war.

2. Entwicklung einer formellen KI-Nutzungsstrategie

Governance ist der Anker für eine sichere, nachhaltige, verantwortungsvolle und transparente Nutzung von KI. Obwohl die Erstellung eines KI-Governance-Rahmens nützlich sein kann, wird er oft als nicht verpflichtend eingeführt oder inkonsistent angewendet. Um dies zu verbessern, sollten anwendbare KI-Prinzipien formalisiert und ausreichende Mittel zu deren Implementierung, Umsetzung und Überwachung bereitgestellt werden. Eine solche KI-Richtlinie sollte besondere Aufmerksamkeit auf die Definition ethischer KI-Prinzipien für die Organisation legen, Richtlinien zur Achtung der Rechte, der Sicherheit und der Privatsphäre der Menschen festlegen, die Fairness, Genauigkeit („accuracy“) und Zuverlässigkeit („reliability“) der KI-Ergebnisse sicherstellen und den Schutz der zugrunde liegenden Daten und Modelle gewährleisten.

3. KI-Management durch funktionsübergreifende Teams

Um die Effektivität einer KI-Richtlinie zu optimieren, müssen verschiedene Abteilungen wie IT, Datenschutz und Informationssicherheit, Compliance, Recht, Risikomanagement, Innovation, Finanzen, Einkauf und Interne Revision gemeinsam die mit KI-Anwendungsfällen verbundenen Risiken und die risikoreduzierenden Maßnahmen bewerten. Organisationen sollten ein Governance-Komitee einrichten, um sicherzustellen, dass die KI-Anwendungsfälle aus diesen unterschiedlichen Perspektiven heraus bewertet werden. Zudem kann ein solches funktionsübergreifendes Team die konsistente Anwendung des Governance- und Risikomanagementansatzes in der gesamten Organisation überwachen. Jedes Team spielt dabei eine wichtige Rolle im KI-Lebenszyklus. Nur durch gute Zusammenarbeit können die entsprechenden KI-Risiken effektiv von Anfang bis Ende gemanagt werden.

4. AI Risk Response Management: Erstellung eines Ansatzes für Sofortmaßnahmen

Ein Ansatz für das Risikomanagement bei KI-Compliance-Vorfällen, der die regulatorischen und rechtlichen Anforderungen berücksichtigt, ist der nächste Schritt in der Governance-Planung. Angesichts der zunehmend herausfordernden rechtlichen und regulatorischen Umgebung speziell im Hinblick auf KI sollten Organisationen mit einem Ansatz für Sofortmaßnahmen auf mögliche KI-Krisenereignisse vorbereitet sein. Dies ist sowohl bei einem Ausfall der KI als auch bei Verstößen gegen rechtliche und regulatorische Vorgaben wie etwa „AI Wishing“- oder „AI Washing“-Ansprüchen gegen die Organisation von großer Bedeutung.

Sollte es zu Verstößen kommen, werden der Einsatz der KI und der Rahmen, in dem er erfolgt, genauestens beleuchtet. Um entsprechend reagieren zu können, müssen Unternehmen daher wissen, wer einbezogen werden muss, wo welche Daten gespeichert sind, wer dafür verantwortlich ist und wer Zugriff auf diese Daten hat. Sie müssen vorbereitet sein, im Rahmen der Sofortmaßnahmen die Ein- und Ausgaben der KI einschließlich etwaiger generierter Dateien zu sichern und die Verwendung wie auch die Verarbeitung der Daten aus technischer Sicht nachvollziehbar zu dokumentieren.


Angesichts der zunehmend herausfordernden rechtlichen und regulatorischen Umgebung speziell im Hinblick auf KI sollten Organisationen mit einem Ansatz für Sofortmaßnahmen auf mögliche KI-Krisenereignisse vorbereitet sein.


Die Aufarbeitung von KI-Vorfällen ist ein kostspieliger Prozess, der neben der Involvierung von Anwälten auch die Überprüfung der KI-Modelle und Log-Dateien sowie die Aufbereitung und Erklärung all dieser Aufzeichnungen umfasst. Dies ist nur bedingt mit traditionellen Sachverhaltsaufklärungen vergleichbar. Während bislang möglicherweise Buchungen oder E-Mails vorgelegt werden mussten, müssen bei KI-Rechtsstreitigkeiten KI-Algorithmen und ­Modelle sowie die Grundlagen ihrer Entwicklung und Evolution zur Verfügung gestellt werden.

5. Optimierung der Data Governance

Im EY Global Integrity Report 2024 nannten Führungskräfte inkonsistente oder unvollständige Datengrundlagen für KI-Modelle als größte Herausforderung bei der Implementierung von KI im Compliance-Bereich. Damit Rechts- und Compliance-Verantwortliche – und möglicherweise alle Mitarbeitenden – den Daten und damit der KI vertrauen können, müssen Organisationen ein klares und umfassendes Verständnis ihrer Daten entwickeln.

Hierzu ist eine entsprechende Data Governance nötig, die häufig Überschneidungen mit der KI-Governance aufweist. Eine solche Data Governance sollte auch eine klare Datenstruktur, die Dokumentation der Datenherkunft sowie die Sicherstellung der Datenqualität und der Nutzbarkeit der Daten umfassen.

6. Erstellung eines Inventars aller verwendeten KI-Tools

Organisationen sollten ein Inventar aller verwendeten KI- und Machine-Learning-Tools erstellen und kontinuierlich pflegen. Mit zunehmendem Reifegrad kann dieses Inventar in ein KI-Verwaltungssystem überführt werden, das dazu beiträgt, eine skalierbare, flexible und sichere Infrastruktur für KI-Anwendungen aufzubauen.

Das Tempo, in dem sich KI weiterentwickelt, nimmt stetig zu. Angesichts der zahlreichen Konzepte und Komponenten, die Organisationen berücksichtigen müssen, um KI nicht nur zu implementieren, sondern auch Vertrauen in diese Lösungen zu schaffen, ist es unerlässlich, einen ganzheitlichen und integritätsorientierten Ansatz für die Nutzung von KI zu entwickeln.

Ad-hoc-Bemühungen, die mit KI einhergehenden Risiken und Herausforderungen im Nachhinein zu bewältigen, werden nicht ausreichen. Um KI langfristig entsprechend den rechtlichen und sozialen Anforderungen im Unternehmen einzusetzen und das volle Potenzial von KI auszuschöpfen, bedarf es mehr: einer robusten KI-Nutzungsstrategie, die auf einem starken Governance-Rahmen mit klar definierten Richtlinien und Prozessen basiert, Kontrollen, die den Governance-Anforderungen entsprechen und auf einer soliden Data Governance fußen, sowie eines funktionsübergreifenden Teams, das nicht nur die Implementierung von KI vorantreibt.

Fazit

Der EY Global Integrity Report 2024 zeigt, dass Führungskräfte Schwierigkeiten haben, mit der schnellen Entwicklung von KI Schritt zu halten und zu verstehen, wo und wie KI innerhalb der Organisation implementiert und genutzt wird. Daher ist es entscheidend, dass Führungskräfte eine ganzheitliche und integritätsorientierte KI-Nutzungsstrategie entwickeln, die auf einem starken Governance-Rahmen basiert. Dies ist notwendig, um das Potenzial der KI zu maximieren, Risiken zu mindern und durch einen ethischen Einsatz von KI Vertrauen aufzubauen.

Mehr zum Thema

EU AI Act – ein Fahrplan

Der EU AI Act: Was das für Sie heißt und welche Schritte Sie einleiten sollten.

Datenklaustudie 2025: Wie Unternehmen mit Cybergefahren umgehen

EY-Datenklaustudie 2025: Lesen Sie hier, wie sich Unternehmen vor Datenklau schützen und wo dringender Handlungsbedarf besteht.

KI-Einsatz im Unternehmen: Welche Rolle spielt die Compliance?

KI-Einsatz im Unternehmen: Welche Rolle spielt die Compliance-Funktion?

Zukunftsprognose: potenzielle Entwicklungen in der KI-gestützten internen Untersuchung

Zukunftsprognose: potenzielle Entwicklungen in der KI-gestützten internen Untersuchung

    Über diesen Artikel

    Autoren

    Co-Autoren