5 Minuten Lesezeit 1 April 2018
human hand robot

Warum Künstliche Intelligenz beides ist: Risiko und Risikomanagement

Von Jeanne Boillet

EY Global Assurance Innovation Leader

Innovation driver in audit services. Client-centric. Strong advocate for diversity and the advancement of women in business.

5 Minuten Lesezeit 1 April 2018

Bei der Implementierung von KI-Technologie müssen wichtige Aspekte berücksichtigt werden.

Künstliche Intelligenz (KI) kann komplexe Entscheidungsprozesse optimieren und ist darum in allen Branchen ein wichtiger Katalysator für die Transformation. KI bewältigt aufwendige und zeitintensive Aufgaben effizienter und effektiver und liefert dem Management dazu tiefgehende Erkenntnisse, die so noch nie verfügbar waren.

Das maschinelle Lernen als eine Form der KI, bei der Algorithmen durch die Nutzung von Daten immer präziser arbeiten, spielt im Risikomanagement von Unternehmen eine zunehmend wichtigere Rolle. Mit KI können ausgeklügelte Werkzeuge zur Analyse und Überwachung von Verhaltensweisen und Aktivitäten in Echtzeit entwickelt werden. Da diese Systeme sich an ändernde Risikobedingungen anpassen können, verbessern sie kontinuierlich alle Monitoring-Funktionen in Bereichen wie der Einhaltung gesetzlicher Bestimmungen oder der Unternehmenssteuerung. Solche Systeme können sich außerdem von Frühwarnsystemen zu Frühlernsystemen entwickeln, die potentielle Gefahren sofort abwenden. Denn auch wenn sich die Künstliche Intelligenz nach wie vor in der Entwicklungsphase befindet, kann sie in einigen Bereichen bereits zur Risikominimierung eingesetzt werden.

Risikobegrenzung

Denn auch wenn sich die Künstliche Intelligenz nach wie vor in der Entwicklungsphase befindet, kann sie in einigen Bereichen bereits zur Risikominimierung eingesetzt werden. So unterstützt das maschinelle Lernen zum Beispiel Vorhersagen zur Wahrscheinlichkeit des Ausfalls eines Darlehens oder einer Zahlung bei Einzelpersonen oder Unternehmen. Außerdem kann KI zur Erstellung variabler Ertragsprognosemodelle genutzt werden.

Schon seit vielen Jahren kommt das maschinelle Lernen bei der Aufdeckung von Kreditkartenbetrug zum Einsatz. Die Systeme, die Banken hierfür verwenden, haben aus Zahlungsdaten Erkennungsmuster entwickelt und überprüfen anhand derer Vorgänge nach möglichen betrügerischen Aktivitäten. Verdächtige Transaktionen werden in der Folge blockiert. Finanzinstitute nutzen außerdem automatisierte Systeme, um ihre Händler zu überwachen. Dafür werden Trading-Daten mit anderen Informationen kombiniert, z.B. mit E-Mail-Verkehren, Kalendereinträgen, Ein- und Auscheckzeiten im Bürogebäude und sogar mit Telefongesprächen.

KI-basierte Analyseplattformen können Lieferantenrisiken managen, indem sie eine ganze Reihe unterschiedlicher Informationen über die Lieferanten zusammenführen. Dazu gehören Angaben über deren geographisches und geopolitisches Umfeld bis zu ihrem Kreditrisiko, zu ihrer Zukunftsfähigkeit sowie der sozialen Verantwortung des Unternehmens.

Schließlich können KI-Systeme auch darin trainiert werden, Cyberattacken zu erkennen, zu überwachen und abzuwehren. Sie identifizieren Software mit verdächtigen Eigenschaften – zum Beispiel enormen Arbeitsspeicherverbrauch oder große Datenmengenübertragung – und blockieren dann die Attacke.

Risiken bei der KI-Einführung

Trotz all dieser Vorteile bringt KI auch völlig neue Risiken mit sich, die gemanagt werden müssen. Daher ist es wichtig, die Risiken jeder individuellen KI-Anwendung in jedem Geschäftsbereich zu kennen.

Zu den hauptsächlichsten Risiken im Zusammenhang mit KI gehören:

  • Algorithmische Verzerrungen: Algorithmen identifizieren Datenmuster und verarbeiten diese zu Vorhersagen, Regeln und Entscheidungen. Stecken in diesen Mustern einige Verzerrungen, ist es wahrscheinlich, dass diese von den Algorithmen noch weiter verstärkt werden. Dementsprechend können in der Folge Ergebnisse produziert werden, die bestehende Beurteilungsmuster untermauern.
  • Überschätzung der Leistungsfähigkeit: Da KI-Systeme die an sie gestellte Aufgabe nicht verstehen, sondern einzig auf Basis der erlernten Daten arbeiten, sind sie alles andere als unfehlbar. Die Verlässlichkeit ihrer Ergebnisse kann durch Verzerrung, Unvollständigkeit oder Minderwertigkeit beeinträchtigt werden.
  • Programmierungsfehler: Existieren Programmierungsfehler, können Algorithmen nicht wie erwartet funktionieren und irreführende Ergebnisse mit schwerwiegenden Konsequenzen hervorbringen.
  • Risiko für Cyberattacken: Auf der Suche nach persönlichen Daten oder vertraulichen Unternehmensinformationen greifen immer häufiger Hacker KI-Systeme an.
  • Juristische Risiken und Haftung: Bisher gibt es nur wenige Gesetz zur Regulierung von KI, doch das wird sich ändern. Systeme, die große Mengen Verbraucherdaten analysieren, entsprechen möglicherweise nicht bestehenden und kommenden Datenschutzbestimmungen, insbesondere der EU-Datenschutz-Grundverordnung.
  • Reputationsrisiken: KI-Systeme verarbeiten große Mengen an sensiblen Daten und treffen kritische Entscheidungen über Individuen in zahlreichen Bereichen, zum Beispiel bei der Einschätzung der Kreditwürdigkeit, in der Bildung, im Arbeitsleben und im Gesundheitswesen. Jedes System, das Verzerrungen, Fehler und Hacks ermöglicht oder aufweist und für unmoralische Zwecke genutzt werden kann, stellt ein signifikantes Risiko für den Ruf des Unternehmens dar.

Versteht der Vorstand die möglichen Auswirkungen von KI auf das Geschäftsmodell, die Unternehmenskultur, die Strategie und Branche?

Was Vorstände wissen müssen

Zuallererst müssen Vorstände verstehen, wie KI-Technologien im Unternehmen und außerhalb eingesetzt werden. Dann sollten sie sicherstellen, dass ihr Unternehmen alle notwendigen Strukturen aufweist, um ethische Fragen und algorithmische Verzerrungen zu managen.

Zusätzlich müssen Vorstände entstehende Rahmenbedingungen, Gesetze und Richtlinien im Auge haben, um sicherzustellen, dass ihr Unternehmen die richtige Balance zwischen algorithmischer Transparenz und Rechenschaftspflicht hält. Schlussendlich braucht es vor allem Vertrauen in die Widerstandsfähigkeit ihrer „Black Box“ – der verbreitete Name für ein maschinelles Lern-System. Dieses Vertrauen erzeugen Unternehmen durch eine gründliche Überprüfung, die Auskunft darüber gibt, ob die Ergebnisse des Systems den Erwartungen entsprechen und ob es geeignete Kontrollmechanismen gibt, die das System in seiner gesamten Evaluation überwachen.

Die zentralen Fragestellungen, die Vorstände überlegen sollten, sind:

  • Versteht der Vorstand die möglichen Auswirkungen von KI auf das Geschäftsmodell, die Unternehmenskultur, die Strategie und Branche?
  • Welche Direktiven gibt der Vorstand an das Management aus, um sowohl die Chancen als auch die Risiken von KI strategisch auszurichten?
  • Wie verwendet das Unternehmen KI und neue Datensets für die Führung und das Risikomanagement? Inwieweit verändert das die Dashboards des Vorstands und des Prüfungsausschusses?
  • Verfügt das Unternehmen über eine Talent-Strategie, um Mitarbeiter mit den nötigen Fähigkeiten einzustellen und zu halten, die KI-Projekte betreuen?
  • Gibt es einen Auftrag an das Management, die Auswirkungen einer KI-Implementierung hinsichtlich Finanzierungsfunktion und Finanzberichte zu überprüfen?

Digitale Wirtschaftsprüfung von EY

Welche strategischen Werte schafft die digitale Wirtschaftsprüfung im Zeitalter der Transformation?

Mehr erfahren

Fazit

Künstliche Intelligenz (KI) eröffnet zahlreiche Chancen, wenn sie gut angewendet wird und birgt Risiken, wenn nicht. Jeanne Boillet von EY betrachtet beide Seiten der Medaille und arbeitet wichtige Aspekte von KI heraus, die Unternehmensvorstände unbedingt beachten sollten.

Über diesen Artikel

Von Jeanne Boillet

EY Global Assurance Innovation Leader

Innovation driver in audit services. Client-centric. Strong advocate for diversity and the advancement of women in business.