Wie kann KI Werte schaffen, ohne menschliche Kosten zu verursachen?

Autoren

Prianka Srinivasan

EYQ Technology Insights Associate Director

Thought leader. Student of the future. Focused on technology disruption, innovation and impact on the human experience. Wife, runner and dog lover with a strong case of wanderlust.

EYQ

EYQ is EY’s think tank.

By exploring “What’s after what’s next?”, EYQ helps leaders anticipate the forces shaping our future — empowering them to seize the upside of disruption and build a better working world.

9 Minuten Lesezeit 15 Februar 2019

Weitere Materialien

Der KI-Hype hält schon eine ganze Weile an. Wie können Unternehmen gewährleisten, dass ihre neuesten KI-Investitionen mit Blick auf langfristige Auswirkungen betrachtet werden und nicht nur hinsichtlich ihrer kurzfristigen Kosten?

KI wird bereits als die „neue Elektrizität“ gehandelt, denn man geht davon aus, dass sie jede Branche von Grund auf verändern wird – sie wird neue Produkte und Dienstleistungen hervorbringen, ein neues Maß an Effizienz ermöglichen, neue Geschäftsmodelle auf den Weg bringen, neue Gewinngemeinschaften vorantreiben und einen beträchtlichen finanziellen und menschlichen Mehrwert schaffen. Im Bereich der KI haben sowohl die Erwartungen als auch die Begeisterung ein neues Rekordhoch erreicht. Auf den Führungsetagen von Unternehmen und auch im öffentlichen Sektor gewinnt der Themenkomplex im Rahmen einer weiter gefassten Digitalisierungsagenda zunehmend an Bedeutung.

Aktuell ist für KI selbst das Intelligenzlevel eines sechsjährigen Kindes noch in weiter Ferne, ganz zu schweigen von einer vollständig ausgebildeten allgemeinen menschlichen Intelligenz.
Oren Etzioni
Professor an der University of Washington und CEO des Allen Institute for AI

Der „KI-Winter“

Diesen Hype um KI erleben wir jedoch nicht zum ersten Mal. Bereits in ihrer Anfangszeit in den 1950er Jahren bis Mitte der siebziger Jahre und daraufhin von 1980 bis 1987 hatte KI eine solche Wirkung. Auf beide Phasen folgte jeweils ein „KI-Winter“ – eine Zeit, in der die Finanzierungen zurückgingen, das Interesse schwand und die Forschung auf diesem Feld aus der öffentlichen Wahrnehmung verschwand.

In Anbetracht der geschichtlichen Entwicklung und des aktuell vorherrschenden Optimismus um KI drängt sich eine Frage auf: Steht für KI bald der nächste „Winter“ bevor – werden wir ein Déjà-vu erleben? Und wie können Wirtschaft und Politik in diesem Fall ihre KI-Investitionen schützen und sicherstellen, dass KI für die Menschen einen Mehrwert schafft, ohne menschliche Kosten zu verursachen?

Schutz Ihrer KI-Investitionen

Um das Risiko zu verringern, dass eine KI-Investition oder ein Projekt inmitten kostspieliger und schwerwiegender Auswirkungen eingefroren wird, sollten Sie folgende Punkte im Gedächtnis behalten:

  1. Entwickeln Sie ein Verständnis für die aktuellen Fähigkeiten von KI
  2. Machen Sie sich den Preis eines Fehlers bewusst
  3. Zügeln Sie Ihren Enthusiasmus: KI ist (noch) nicht mit einem menschlichen Gehirn vergleichbar
Innovation Realized hanging chairs meeting

Innovation verwirklichen

Im Rahmen des Innovation Realized Summit 2019, dem Gipfel zur Verwirklichung von Innovationen, haben wir brillante Köpfe versammelt, um gemeinsam das Jetzt zu lösen, das Danach zu erforschen und eine Vorstellung dafür zu entwickeln, was nach dem Danach sein wird.

Mehr erfahren

 Skifahrende Person auf dem Schneefeld
(Chapter breaker)
1

Kapitel 1

Verstehen, wozu KI heute in der Lage ist

Ein kurzer Blick in die Geschichte: AGI oder ANI?

Mit der Dartmouth Konferenz aus dem Jahr 1956 fiel der Startschuss für ein goldenes Zeitalter intensiver KI-Forschung – mit dem Ziel, „in einer Maschine ein Verhalten zu erzeugen, das man beim Menschen als intelligent bezeichnen würde.“2

Die beeindruckenden Fortschritte der Anfangsphase veranlassten KI-Pioniere wie Marvin Minsky zu gewagten Behauptungen: „In unserer Lebenszeit noch wird es Maschinen gelingen, uns auf dem Gebiet der allgemeinen Intelligenz zu überflügeln.“3 Begrenzte und teure Rechenleistung und Speichermöglichkeiten waren neben einem Datenmangel dafür verantwortlich, dass frühe Lösungen lediglich rudimentäre Probleme beheben konnten. Diese technologischen Begrenzungen führten zum ersten KI-Winter. Damals versiegten die Finanzierungsquellen und das Interesse ließ nach. Der zweite KI-Winter zwischen 1980 und 1987 ereignete sich, als Expertensysteme zunehmend teuer in der Pflege wurden und sich bei ungewöhnlichen Szenarien als fehleranfällig erwiesen.

  • Frühe KI-Versionen: Was sind Expertensysteme?

    Expertensysteme erlangten in den 1980er Jahren Bekanntheit. Dabei handelte es sich um Softwaresysteme, die für die Lösung spezieller Probleme entwickelt worden waren, für die andernfalls ein menschlicher Experte erforderlich gewesen wäre. Expertensysteme sind für eine Vielzahl an Bereichen entwickelt worden, zu denen u. a. Medizin, Luftfahrt, Finanzen und Unternehmensplanung und -optimierung zählen. Ein klassisches Expertensystem bestand aus einem wissensbasierten Kern aus Fakten und Gesetzmäßigkeiten, die von menschlichen Experten stammten, und einer Interferenzeinheit, die die Gesetzmäßigkeiten und Fakten praktisch anwendet.

    Obschon Expertensysteme die erste kommerziell erfolgreiche Form von KI darstellen, hatten diese Technologie und der Ansatz doch einige Schwächen. Als regelbasierte Funktionseinheiten müssen Expertensysteme regelmäßig mit neuen Fakten und Gesetzmäßigkeiten aktualisiert werden; Wissen von gefragten Experten war jedoch zunehmend schwierig zu erhalten. Hinzu kam, dass sich Expertensysteme als immer instabiler erwiesen, da sie sich auf stark kodiertes Wissen stützten. Aus diesem Grund waren sie äußerst fehleranfällig, sobald sie auf ungewöhnliche Probleme stießen, für die in der Wissensdatenbank des Systems noch kein Präzedenzfall existierte.

    So könnte beispielsweise ein Expertensystem, das auf die Diagnose von Tumoren ausgerichtet ist und sich dafür auf eine Reihe an Informationen stützt, versagen, wenn diese Informationen auch nur geringfügig von den vorhandenen Referenzinformationen abweichen. Anders als ein menschlicher Experte ist ein Expertensystem nicht dazu in der Lage, aus früheren oder ähnlichen Erfahrungswerten zu schöpfen, um einen ungewöhnlichen oder neuen Fall zu lösen.

Noch verheerender in diesem Zusammenhang war sicher, die Schwierigkeiten bei der Entwicklung menschenähnlicher oder künstlicher allgemeiner Intelligenz (Artificial General Intelligence, AGI) zu unterschätzen.

Das aktuelle Wiederaufleben von KI ist hauptsächlich auf die Überwindung technologischer Hürden zurückzuführen, die vergangene Anläufe ausgebremst haben. Dennoch sind aus dem Lager der KI-Experten heute keine Ankündigungen über AGI-Realisierungen zu vernehmen. Trotz signifikanter Meilensteine erklärt Oren Etzioni, Professor an der University of Washington und CEO des Allen Institute for AI: „Aktuell ist für KI ... selbst das Intelligenzlevel eines sechsjährigen Kindes noch in so weiter Ferne, ganz zu schweigen von einer vollständig ausgebildeten allgemeinen menschlichen Intelligenz ...“4

Artificial Narrow Intelligence (ANI)

AGI ist vielleicht für einige Branchenexperten nach wie vor das langfristige Ziel, der derzeitige Fokus und Enthusiasmus liegt jedoch auf Artificial Narrow Intelligence (ANI) – ein enger gefasster KI-Begriff, der sich auf bestimmte Anwendungszwecke beschränkt.

Günstige und in großen Mengen verfügbare Rechenleistung, eine Fülle an digitalen Daten, die durch die Verbreitung des Internets generiert wurden, Geoffrey Hintons bahnbrechende Erkenntnisse im Bereich Deep Learning – all dies hat zur raketenartigen Zunahme von ANI-Anwendungen geführt. Diese Anwendungen führen bestimmte Aufgaben in einem eng definierten Kontext außerordentlich gut aus, teilweise besser als Menschen. Heute verschaffen ANI-Algorithmen der Gesellschaft zahlreiche Vorteile. Sie ermöglichen digitale Sprachassistenten, steuern Produktbewertungen und unterstützen beim Erkennen von Krebserkrankungen. Darüber hinaus weiten sie die Grenzen menschlichen Wissens aus, indem sie z. B. neue Planeten entdecken und aus genetischen Daten von Menschen Informationen ableiten. Womöglich ist es die bloße Zahl und Vielfalt an kommerziellen ANI-Anwendungen, die diese dritte Optimismuswelle im Bereich KI von früheren abhebt.

Bei so vielen Errungenschaften auf dem Konto, bedeutet das nun der Beginn des ewigen „Frühlings“ für ANI?

 Wanderer auf einem Berg mit Blick gen Sonnenuntergang
(Chapter breaker)
2

Kapitel 2

Machen Sie sich den Preis eines Fehlers bewusst

Ihre ANI floriert. Doch schlummern in ihr menschliche Vorurteile, die uns noch teuer zu stehen kommen werden?

Aktuelle KI-Technologien lassen sich auf ein breites Spektrum an Problemstellungen anwenden, von denen jede ein anderes Risikoprofil aufweist. Der Anwendungsfall und der Kontext sollten stets mit Sorgfalt der passenden Technologie zugeordnet werden.
Cathy Cobey
EY Global Trusted AI Advisory Leader

ANI-Systeme erfreuen sich in Konzernen, im öffentlichen Sektor und unter Unternehmern wachsender Beliebtheit. Kein Wunder – alle Beteiligten blicken auf immer größere digitale Datenbestände, die zum Greifen nah sind und nur darauf warten, genutzt zu werden. Doch unter all den Vorzügen, mit denen ANI in puncto Produktivität und Effizienz aufwarten kann, sollten Stakeholder auch die Risiken, die durch die Schwachstellen von ANI entstehen, und potenzielle unbeabsichtigte menschliche Kosten im Blick haben.

Die häufigsten Kritikpunkte von ANI richten sich auf ihr fehlendes Urteilsvermögen jenseits der Übungsdaten und auf ihre Tendenz, im Laufe ihres Lernprozesses mit menschlich generierten Daten die natürlichen Vorurteile der Menschen weiterzuverbreiten. Natürlich ist keine Technologie frei von Fehlern. Doch ein ANI-bedingter Fehler kann ernsthafte Konsequenzen nach sich ziehen. Das gilt insbesondere für Situationen, in denen der Algorithmus mit seiner Entscheidung das Schicksal eines Menschen maßgeblich mit beeinflusst.

Es gibt Situationen, in denen sind Algorithmusfehler im schlimmsten Fall ärgerlich. Nehmen wir z. B. digitale Sprachassistenten: Obwohl es mit ihnen gelegentlich zu einem Fauxpas kommt, der für die Anwender auch einmal peinlich oder unangenehm werden kann, nehmen ihre Akzeptanz und Verwendung weiterhin rasant zu. In einem Umfeld großen öffentlichen Interesses hatten Algorithmusfehler hingegen auch schon katastrophale Auswirkungen, wodurch das öffentliche Vertrauen stark in Mitleidenschaft gezogen wurde. Ein Beispiel hierfür sind die Todesfälle der jüngeren Vergangenheit als Folge selbstfahrender Autos – ein erheblicher Dämpfer für die enthusiastischen Stimmen, unter dem das Vertrauen der Verbraucher sehr gelitten hat: Laut einer Studie aus dem Jahr 2018 würden 73 % der US-amerikanischen Autofahrer einem vollständig autonomen Fahrsystem nicht mehr vertrauen. Im Jahr 2017 traf dies erst für 63 % zu.

Mit dem allmählichen Einzug ANI-abhängiger Entscheidungsprozesse in weitere bedeutende Bereiche wie das Strafrechtssystem, Bildung und Einstellungsverfahren wird auch der Preis für Fehler immer höher – irrtümliche Verhaftungen, rassistisch begründete Vorurteile und Geschlechterdiskriminierung. Sollten sich solche Fehler häufen, könnte dies schließlich zu einem vollständigen Vertrauensverlust in diese Technologie führen und die Wahrscheinlichkeit erhöhen, dass auch diese Gruppe von ANI-Anwendungen bald einen „Winter“ erlebt.

Das soll nicht heißen, dass der gesamte ANI-Bereich dadurch ins Wanken gerät. Stefan Heck, Mitbegründer und CEO von Nauto und Mitglied von EYQ, schlägt hierzu vor: „Vielleicht brauchen wir eine weitere Kategorie zwischen ANI und AGI, um auch all jene Situationen abzudecken, in denen durch Fehler das gesellschaftliche Vertrauen verspielt werden würde.“

Definitionen von KI und ihren verschiedenen Varianten konzentrierten sich in der Vergangenheit meist darauf, ob die Technologie physische oder kognitive Fähigkeiten von Menschen übertreffen kann. Wenngleich sich dieser Rahmen als geeigneter Maßstab für den Entwicklungsfortschritt dieser Technologie erwiesen hat, so lässt er doch viele algorithmusbedingte Risiken bei Anwendung in anderen Kontexten außer Acht.

Wie fehleranfällig ist Ihre KI?

Anhand der nachfolgenden Tabelle können Unternehmen und Behörden ihre vorhandenen und zukünftigen KI-Anwendungen einordnen und klassifizieren.

 

Artificial Narrow Intelligence –

Transactional (ANI-T)

Artificial Narrow Intelligence –

Consequential (ANI-C)

Artificial General Intelligence

(AGI)

Artificial
⏎Superintelligence

(ASI)

Definition Isolierte Aufgabe in begrenztem Kontext zu gut wie oder besser als ein Mensch Isolierte Aufgabe in dynamischem Kontext so gut wie oder besser als ein Mensch Mehrere Aufgaben in dynamischen Kontexten so gut wie ein Mensch Übertrifft sämtliche menschlichen intellektuellen Fähigkeiten in bekannten und unbekannten Kontexten
Wirkungsgrad Begrenzt und von kurzer Dauer Weitreichend und langfristig Alles! Unvorstellbar!
Beispiel

Digitale Sprachassistenten

Autonome Fahrzeuge HAL 9000 Jenseits der menschlichen Vorstellungskraft
Risikoprofil Gering Hoch Nicht bekannt Nicht bekannt

Quelle: Stefan Heck und EYQ

Mit dieser Orientierungshilfe ist es Unternehmensleitern und öffentlichen Behörden möglich, das Risikoprofil ihrer ANI-basierten Anwendungsfälle, Strategie und Investitionen zu beurteilen. Die Behandlung der Risiken, insbesondere bei ANI-C-Anwendungen, wird nicht nur für den Erfolg von Digitalisierungsbestrebungen maßgeblich sein, sondern auch dafür, die Glaubwürdigkeit und das Vertrauen von Unternehmen und Behörden unter ihren Kunden und Bürgern zu wahren. In der Folge ermöglicht ihnen das, das erhebliche Potenzial von ANI für die Steigerung von Produktivität, Effizienz und die generelle Lebensqualität auszuschöpfen.

Eine breite Palette an neuen Initiativen soll künftig die technologischen Grenzen von ANI überwinden und unerwünschte Konsequenzen von Algorithmusfehlern eindämmen: Neue algorithmische Verfahren, Rahmenbedingungen für „ethische KI“ und die Verfügbarkeit von Open-Source-Tools zur Überprüfung von Algorithmen auf Voreingenommenheit sind nur einige Beispiele. Die Verantwortlichen auf Führungsebene sollten bei diesen Initiativen eine aktive Rolle einnehmen und gemeinsam mit dem öffentlichen Sektor darauf hinarbeiten, mehr ethische, gerechte, präzise und transparente Algorithmen zu entwickeln. Um das Risiko eines bevorstehenden „Winters“ für ANI-C-Anwendungen erfolgreich zu mindern, ist es unerlässlich, das Vertrauen in diese Technologie zu stärken.

An Ende wird sich der Erfolg daran messen lassen, ob es Unternehmen und Behörden gelingt, menschliche Interessen und menschliche Werte bei der Entwicklung sämtlicher ANI-Lösungen im Fokus zu behalten und den Preis für einen Algorithmusfehler, der weitreichende Folgen für das kommerzielle Auftreten oder das menschliche Wohlergehen haben könnte, zu verhindern.

 Mann beim Eis-Bouldern am Sankt-Lorenz-Strom in Kanada
(Chapter breaker)
3

Kapitel 3

Zügeln Sie Ihren Enthusiasmus: KI ist (noch) nicht mit einem menschlichen Gehirn vergleichbar

Mythos, Erwartungen und Wirklichkeit

Vielleicht sind unsere Erwartungen an einen KI-Frühling zu hoch.
Susan Etlinger
Industry Analyst, Altimeter Group

Ob bewusst oder unbewusst, kulturelle Artefakte von Pygmalion bis Frankenstein haben unsere Vorstellung von KI und was sie im Kern ausmacht geprägt – eine künstliche Einheit mit den Empfindungen, Emotionen, dem Intellekt und den Verhaltensweisen, die üblicherweise Menschen zugeordnet werden.

Jeder technologische Durchbruch, der uns dieser Vision von KI einen Schritt näher bringt, wird verstärkt. Das damit verbundene Fehlerpotenzial bleibt in den gesellschaftlichen Erwartungen außen vor. Mit jedem gravierenden Fehler werden Hoffnungen zerschlagen und die Technologie gilt fortan als nicht mehr vertrauenswürdig. Tatsächlich ist die KI-Technologie heute noch nicht so weit, um Entscheidungen in für Menschen folgenschweren Kontexten an sie abzugeben. Ray Edwards, GM ICT Business Development und Venture Capitalist bei Yamaha Ventures, gibt zu Bedenken: „Für einige Anwendungsfälle bedarf es auch weiterhin in hohem Maße der Mitwirkung und des Urteilsvermögens eines Menschen, bevor sie irgendwann einmal in großem Stil kommerziell eingesetzt werden können.“

Die Brücke zwischen unseren Erwartungen und der Wirklichkeit zu schlagen, ist der Weg, über den ein weiterer „Winter“ für jede ANI-Variante (ANI-T oder ANI-C) abgewendet werden kann. Doch wie Nigel Duffy, Global Innovation Artificial Intelligence Leader bei EY bemerkt, „hat ein Abgleich unserer Erwartungen mit der Realität in der Vergangenheit nicht stattgefunden und es ist ungewiss, ob uns das jetzt gelingt. Daher ist die Gefahr eines weiteren ‚KI-Winters‘ unverändert hoch.“

Den „Winter“ verhindern

Wirtschaft und Politik, die signifikante Investitionen in ANI getätigt haben, können die Gefahr eines weiteren „Winters“ mit verschiedenen Maßnahmen minimieren:

  • Pflegen eines ausgewogenen öffentlichen Diskurses
  • Anerkennung der Schwachstellen von ANI
  • Versierter Umgang mit Kundenerwartungen
  • Sorgfältige Entwicklung und Umsetzung von ANI-C-Anwendungen zur Förderung vertrauenswürdiger, gerechter und ethischer Ergebnisse

Sogar mit den aktuellen Rückschlägen birgt ANI noch immer ein immenses Potenzial für die Verbesserung der Lebensqualität heute. Wenn wir unrealistische Erwartungen auf ANI projizieren, kann uns das den Blick auf ihre Vorteile versperren.

Roy Amara, ehemaliger Leiter des Institute for the Future, bemerkte hierzu: „Wir neigen dazu, die kurzfristigen Effekte einer Technologie zu überschätzen und ihre langfristige Wirkung zu unterschätzen.“ Auch wenn sich ANI in naher Zukunft vermutlich nicht in AGI manifestieren wird, besteht eine große Aufgabe für Unternehmensleiter und öffentliche Behörden darin, die Möglichkeiten von ANI angemessen und sicher zu erschließen. Das hätte zur Folge, dass in den nächsten Jahrzehnten über neue Innovationen ein beispielloser Mehrwert für die Gesellschaft geschaffen würde.

Die Digitalisierung aus jedem Winkel betrachten

Unsere Erkenntnisse über die Digitalisierung können Ihnen dabei helfen, neue Werte zu schaffen und das Unternehmen der Zukunft zu schaffen.

Mehr erfahren

Fazit

Der beste Weg, künftigen „KI-Wintern“ das Wasser abzugraben, besteht vielleicht darin, unsere Erwartungen an die Realität der heute existierenden Möglichkeiten von KI anzugleichen.

Über diesen Artikel

Autoren

Prianka Srinivasan

EYQ Technology Insights Associate Director

Thought leader. Student of the future. Focused on technology disruption, innovation and impact on the human experience. Wife, runner and dog lover with a strong case of wanderlust.

EYQ

EYQ is EY’s think tank.

By exploring “What’s after what’s next?”, EYQ helps leaders anticipate the forces shaping our future — empowering them to seize the upside of disruption and build a better working world.