NLP-Bias und seine Auswirkungen auf die KI

Natural Language Processing (NLP) kann in zwei große Bereiche unterteilt werden: Natural Language Understanding (NLU) und Natural Language Generation (NLG). NLU befasst sich mit der Verwendung von Computern, um die semantischen Beziehungen zwischen Wörtern in Texten in natürlicher Sprache zu verstehen, während NLG sich mit der Generierung von Texten befasst, die die semantische Komplexität von Texten in natürlicher Sprache nachahmen.

Diese Tools können auf verschiedene reale Geschäftsprobleme angewendet werden, z. B. Dokumentenklassifizierung und -zusammenfassung, Extraktion benannter Entitäten, maschinelle Übersetzung, Faktenprüfung und Beantwortung von Fragen. Sie können helfen, die Effizienz zu steigern, indem sie die Suchzeit verkürzen, und die Effektivität, indem sie die Relevanz verbessern. NLP kann ein hocheffizienter Weg sein, Computer zur Lösung von Problemen einzusetzen, die traditionell nur von Menschen bewältigt werden konnten.

NLP- und Spracherkennungssoftware

NLP kann sogar bei der automatischen Spracherkennung (ASR) helfen. Da ASR auf die Verarbeitung natürlicher Sprache abzielt, kann es auch als Teil der NLP-Kategorie verstanden werden, die NLU (Äußerungsverständnis) und NLG (Erzeugung von natürlicher Sprachausgabe als Transkription gesprochener Eingaben) kombiniert.

Wenn eine explizite Unterscheidung getroffen werden soll, kann NLP helfen, die Genauigkeit des akustischen Modells eines ASR-Systems zu verbessern. In diesem Fall kann ein Sprachmodell (LM) verwendet werden, um die Wahrscheinlichkeit einer bestimmten Silbe oder Wortfolge abzuschätzen. Dies kann beispielsweise helfen, Homophone zu unterscheiden, also Wörter, die gleich ausgesprochen werden, aber eine unterschiedliche Bedeutung haben.

Moderne LMs können die Kontextwörter verwenden, um Gesamtwahrscheinlichkeiten abzuschätzen. Neuere Veröffentlichungen zeigen jedoch, dass die genauesten ASR-Systeme das Problem Ende-zu-Ende angehen, dh das akustische Modell ist mit dem LM- und dem Spracherzeugungsmodell verflochten. Dadurch wird es zunehmend schwieriger, ASR von NLP zu unterscheiden.

Probleme der Voreingenommenheit in NLP und Spracherkennung

Aber es gibt Fälle von Voreingenommenheit in NLP und ASR, die das Potenzial haben, die Verwendung dieser Technologien zu entgleisen. Die Implementierung von KI mit modernem maschinellem Lernen (ML) umfasst zwei Hauptkomponenten: ein ML-Modell mit einer bestimmten Architektur und einen Datensatz, der eine oder mehrere bestimmte Aufgaben modelliert. Beide Teile können Vorurteile einführen.

Die Black-Box-Natur von ML-Modellen kann es schwierig machen, die von den Modellen getroffenen Entscheidungen zu erklären. Darüber hinaus können Modelle Datensätze überanpassen oder zu selbstsicher werden und sich nicht gut auf ungesehene Beispiele verallgemeinern lassen. In den meisten Fällen ist jedoch der für das Training und die Bewertung verwendete Datensatz der Schuldige für die Einführung von Verzerrungen.

Ein Datensatz kann von Natur aus verzerrte Informationen enthalten, wie z. B. eine unausgewogene Anzahl von Entitäten. Datensätze, die von menschlichen Annotatoren manuell annotiert wurden, sind besonders anfällig für Verzerrungen, selbst wenn die Annotatoren sehr sorgfältig ausgewählt wurden und unterschiedliche Hintergründe haben. Große Korpora, die unbeaufsichtigt aus dem World Wide Web gewonnen werden, weisen immer noch Verzerrungen auf, z. B. aufgrund von Unterschieden in der Internetverfügbarkeit auf der ganzen Welt oder Unterschieden in der Häufigkeit von Sprechern bestimmter Sprachen.

Die Auswirkungen von NLP-Bias

Die Kehrseite ist, dass Bevölkerungsgruppen, die in bestimmten Datensätzen unterrepräsentiert sind, bestenfalls nicht in der Lage sind, ein KI-System zu verwenden, um ihnen bei der Lösung der gewünschten Aufgabe zu helfen, und im schlimmsten Fall aufgrund der Art und Weise, wie die KI Ergebnisse vorhersagt, diskriminiert werden.

Diskriminierung aufgrund der Ungerechtigkeit eines künstlichen Modells wird zu einem ernsthaften Problem, sobald KI-Systeme verwendet werden, um potenziell wichtige Entscheidungen automatisch und mit begrenzter menschlicher Aufsicht zu treffen. Darüber hinaus behindern diese Probleme auch den Fortschritt und die Akzeptanz von KI aufgrund des erzeugten berechtigten Misstrauens. Infolgedessen sind diese Technologien am effektivsten, wenn sie verwendet werden, um menschliche Eingaben und Fachkenntnisse zu ergänzen, anstatt sie zu ersetzen.

Überwindung und Regulierung von Bias in der NLP-Technologie

Leider gibt es keine Wunderwaffe, um das Problem der Voreingenommenheit in NLP, ML oder KI im Allgemeinen zu lösen. Stattdessen ist eine wichtige Komponente das Problembewusstsein und ein kontinuierliches Engagement für die Entwicklung von KI-Lösungen, die die Fairness verbessern.

Technisch gesehen gibt es eine Vielzahl von Theorien und Methoden, die aktiv erforscht und entwickelt werden, um Fairness und Erklärbarkeit zu verbessern. Dazu gehören unter anderem die Messung und Reduzierung von Verzerrungen in Datensätzen, Prinzipien für ein ausgewogenes Training von Modellen, Strategien für den Umgang mit inhärenter Unsicherheit während der Inferenz und die laufende Überwachung der KI-Entscheidungsfindung.

Die Rolle der Ethik

Das neuere Feld der Ethik in der KI spielt auch eine Rolle bei der Bekämpfung von NLP-Vorurteilen. Die Herausforderung besteht darin, dass KI noch ein relativ junges und schnelllebiges Forschungs- und Anwendungsfeld ist. Obwohl es seit vielen Jahren existiert, hat sich der Einsatz erst in letzter Zeit weiter verbreitet. Wir haben noch nicht das Plateau der Stabilität erreicht, das erforderlich ist, um Verhaltensweisen und Normen zu formulieren und zu kodifizieren, um ein faires Spielfeld zu gewährleisten.

Squirro verfolgt dabei einen dreifachen Ansatz, der weitreichend sein könnte, wenn er von der gesamten Branche befolgt wird: A) kontinuierliche Bewusstseinsbildung intern und bei Kunden und Interessenten in Bezug auf das Problem der Voreingenommenheit bei der KI-Modellierung und der KI-gestützten Entscheidungsfindung. B) Aufruf und Beitrag zu Industrie- und Regierungsarbeitsgruppen, die den regulatorischen Rahmen für einen verantwortungsvollen Betrieb von KI schaffen, und C) Umsetzung – nicht nur Diskussion – von A & B.

NLP ist eine wirkungsvolle Technologie mit einer Vielzahl von Anwendungsfällen, die Unternehmen dabei helfen, effizienter und effektiver zu sein. Es ist so nützlich, dass es sich die Industrie nicht leisten kann, dass seine Verwendung durch Voreingenommenheit negativ beeinflusst wird. Solche Technologien funktionieren am effektivsten, wenn sie verwendet werden, um den menschlichen Input und die Intelligenz zu erweitern, und nicht, um sie zu ersetzen. Darüber hinaus erfordert die Bekämpfung von Vorurteilen Konzentration und branchenweites Engagement, um die negativen Auswirkungen zu mindern.

Thomas Digelmann

Thomas Diggelmann ist Machine Learning Engineer beim Augmented-Intelligence-Unternehmen Squirro, das mit Unternehmen weltweit zusammenarbeitet, um aussagekräftige und umsetzbare Erkenntnisse aus den von ihnen gespeicherten Daten zu extrahieren.

WAICF – Tauchen Sie ein in die KI und besuchen Sie eines der ...

Delia Salinas • 10. März 2022

Cannes veranstaltet jedes Jahr eine internationale Technologieveranstaltung namens World Artificial Intelligence Cannes Festival, besser bekannt unter dem Akronym WAICF. Eine der luxuriösesten Städte der Welt, an der französischen Riviera gelegen und Gastgeber der jährlichen Filmfestspiele von Cannes, der Midem und des Cannes Lions International Festival of Creativity. 

Die Evolution von VR und AR

Amber Donovan-Stevens • 28. Oktober 2021

Wir sehen uns an, wie sich die Extended-Reality-Technologien VR und AR vom reinen Gaming zu einer langsamen Integration in andere Aspekte unseres Lebens entwickelt haben.