Die Bedeutung einer verantwortungsbewussten KI in unserer schnelllebigen Welt

AI

Matthew Nolan, Senior Director für Produktmarketing bei Pegasystems, erläutert die vier Kriterien für eine verantwortungsvolle Entwicklung von KI.

Künstliche Intelligenz (KI) steuert praktisch alles, was wir heute online tun. Vorhersagealgorithmen empfehlen Produkte und Dienstleistungen, diagnostizieren unsere Gesundheit, übersetzen unsere Worte und führen Berechnungen auf der Grundlage unseres Verhaltens in der Vergangenheit durch. Sie bestimmen sogar, welche Nachrichten wir sehen und welche Inhalte in unseren Social-Media-Feeds erscheinen (im Guten wie im Schlechten). Was KI von anderen Entscheidungstechnologien unterscheidet, ist, dass sie „lernt“. Und da KI immer mehr in unser Leben eingebettet wird, wird es immer mehr werden Autonom, letztlich ohne menschliche Aufsicht handelnd.

Mit zunehmendem Bedarf an KI-gesteuerten Technologien steigt auch der Druck auf Unternehmen, wettbewerbsfähig zu bleiben und Schritt zu halten. Das „KI-Wettrüsten“ war noch nie so großartig – nicht nur, wer die ausgefeiltesten Algorithmen bauen kann, es ist ein Kampf um die Kontrolle unserer Aufmerksamkeit und darum, Einfluss zu gewinnen. Wie das Sprichwort sagt, „aus großer Macht folgt große Verantwortung“, aber außerhalb der USA und Europas gibt es weitaus weniger Vorschriften zur Erfassung und Verwendung von Daten zum Schutz der Privatsphäre der Menschen. Für viele Unternehmen stellt sich die Frage: „Wie stellen wir sicher, dass unsere KI-Modelle unsere kulturellen und ethischen Werte widerspiegeln und gleichzeitig der Konkurrenz einen Schritt voraus sind?“ Da Unternehmen gezwungen sind, KI schneller zu bewegen – und vielleicht schneller, als sie bereit sind –, hat diese Geschwindigkeit ihren Preis.

Vier Mieter der verantwortlichen KI


Dieses Jahr hat den Kampf für soziale Gerechtigkeit an die Spitze des Nachrichtenzyklus gebracht. Mit Blick auf Vorurteile und Diskriminierung müssen Organisationen, die die Nutzung und Entwicklung von KI vorantreiben, unbedingt alles tun, um Vorurteile zu beseitigen, Entscheidungen zu erklären, die von ihrer Technologie getroffen werden, und Verantwortung übernehmen, wenn/wenn ihre KI abtrünnig wird. Wenn wir das Versprechen der Kundenorientierung wirklich einlösen wollen – und es nicht nur als Schlagwort verwenden –, müssen wir uns der Entwicklung dieser KI verschreiben verantwortungsbewusst, nicht nur schnell.

Responsible AI hat vier kritische Mandanten:


Gerechtigkeit.

Unternehmen müssen proaktiv und wachsam sein, wenn es um die Überwachung ihrer KI geht, um sicherzustellen, dass sie für alle fair ist. Das bedeutet, wirklich unvoreingenommene KI-Datenmodelle zu erstellen, sie proaktiv zu überwachen und ihre Ergebnisse zu analysieren. Behandelt die KI alle Geschlechter, Ethnien, Altersgruppen, Postleitzahlen, Einkommen, Religionsgruppen etc. gleich?


Faire KI steht normalerweise erst im Vordergrund, wenn ein Unternehmen einen Fehler macht – und die Ergebnisse können schädlich sein. Wenn es um Voreingenommenheit geht, muss KI in manchen Fällen „besser“ sein als die Gesellschaft, in der wir leben. Zum Beispiel Northpointes Correctional Offender Management Profiling for Alternative Sanctions (KOMPAS) KI-Tool wurde festgestellt, dass es afroamerikanische Straftäter diskriminiert – es erklärte, dass sie mit doppelt so hoher Wahrscheinlichkeit erneut straffällig würden als weiße Kriminelle. Die Wurzel des Problems bestand darin, dass die Entscheidungen auf verzerrten Daten im Justizsystem basierten, die von Natur aus voreingenommen waren und ein unfaires Stereotyp aufrechterhielten.


Transparenz.

Unternehmen müssen zeigen, wie KI zu einer Entscheidung gelangt ist, insbesondere wenn es um stark regulierte Branchen wie Finanzdienstleistungen und Versicherungen geht. Ende letzten Jahres wurde ein hochkarätiges Unternehmen dafür angegriffen Kreditkarte weil es angeblich höhere Kreditlimits für Männer im Vergleich zu Frauen mit ähnlichen finanziellen Verhältnissen und Hintergründen bot. Da das gewählte KI-Modell nicht transparent darüber war, wie es seine Entscheidungen traf – ein Zustand, der als „Black Box“ oder „undurchsichtige“ KI bekannt ist – schien das Unternehmen voreingenommen gegenüber Frauen zu sein.

Unternehmen müssen ihre Algorithmen proaktiv zertifizieren, ihre Richtlinien zur Voreingenommenheit klar kommunizieren und eine klare Erklärung dafür liefern, warum Entscheidungen getroffen wurden, insbesondere wenn es ein Problem gibt. Sie sollten auch erwägen, transparente und erklärbare Algorithmen für regulierte/risikoreichere Anwendungsfälle wie Kreditgenehmigungen zu verwenden, um es den Mitarbeitern an vorderster Front zu erleichtern, ihre Entscheidungen gegenüber Kunden zu verstehen und zu erklären.


Einfühlsam.

Die Notwendigkeit für Unternehmen, Empathie für ihre Kunden zu zeigen, war noch nie so groß. Empathie in der KI bedeutet, dass die Entscheidungen, die sie trifft, relevant und hilfreich sind und die Bedürfnisse der Kunden in den Vordergrund stellen. Es bedeutet, den gesamten Kontext eines Kunden zu betrachten, um genau zu verstehen, was er „jetzt“ im Moment braucht. Es ist zu wissen, wann man verkaufen muss – aber es ist genauso wichtig zu wissen, wann man dienen, behalten und einfach schweigen muss.

Zum Beispiel die „Commonwealth Bank of Australia“Vorteile Finder” Service informierte 600,000 seiner Kunden über den Barwert ablaufender Kreditkartenpunkte und wie sie diese einlösen können. Während die meisten Unternehmen Punkte verfallen lassen, damit ihnen die Kosten nicht entstehen, sah CBA proaktive Kommunikation als eine empathischere Art, ihre Kunden zu bedienen.

Es stellt sich heraus, dass Empathie auch gut fürs Geschäft ist. Laut einer aktuellen Total Economic Impact-Studie von Forrester kann der Einsatz von KI zur Entwicklung eines starken 1:1-Engagement-Programms erhebliche zusätzliche Einnahmen erzielen – fast 700 Millionen US-Dollar in drei Jahren – und gleichzeitig mehr als 500 Millionen US-Dollar an Verlusten durch Kundenabwanderung minimieren.


Robust.

Merken Tay? Der undurchsichtige Twitter-Bot, der vor ein paar Jahren aus den Fugen geraten ist? Die Leute wurden ermutigt, damit zu interagieren, und innerhalb von 24 Stunden wurde das Modell aufgrund der Daten, die es aus Twitter-Konversationen aufnahm, frauenfeindlich und rassistisch. Für einige wurde es zu einem großen Witz, aber es war ein Wendepunkt für den Markt – insbesondere für Unternehmen, die möglicherweise versuchen, sich zu schnell zu bewegen. Sie erkannten, dass sie eine robustere KI brauchten oder eine mit eingebautem Schutz, damit sie nicht so leicht beeinflusst werden konnte. Sie mussten sich auch die Zeit nehmen, KI-Regeln und Leitplanken festzulegen, die regeln, welche Arten von Aktionen in bestimmten Situationen wirklich „geeignet“ sind.

Die meisten von uns denken nicht über Algorithmen nach, bis sie Fehler machen – aber Unternehmen müssen Diskriminierung proaktiv verhindern, indem sie sich selbst überwachen und Entscheidungen auf der Grundlage dessen treffen, was für den Kunden am besten geeignet ist.

Fairness, Transparenz, Empathie und Robustheit sollten die vier Grundpfeiler einer verantwortungsvollen KI-Politik eines jeden Unternehmens sein. Während Unternehmen es sich nicht leisten können, langsamer zu werden, müssen wir uns um eine Reihe grundlegender Prinzipien zusammenschließen, die den Kunden respektieren und eine nachhaltige (und hoffentlich profitable) Vision für langfristigen Erfolg bieten. Das wird profitieren jedermann. Da dies nicht nur das Richtige ist, wird es letztendlich unsere Kundenbeziehungen, unsere Marken und unser Ergebnis schützen und stärken, egal mit welcher Krise wir als nächstes konfrontiert sind.


Matthäus Nolan

Matt Nolan ist Senior Director of Product Marketing bei Pegasystems. Matt hat in den letzten 20 Jahren im MarTech-Sektor gearbeitet und war in verschiedenen leitenden Positionen in den Bereichen Produktmanagement, Marketing und Analytik tätig.