NLP-Bias und seine Auswirkungen auf die KI

Natural Language Processing (NLP) kann in zwei große Bereiche unterteilt werden: Natural Language Understanding (NLU) und Natural Language Generation (NLG). NLU befasst sich mit der Verwendung von Computern, um die semantischen Beziehungen zwischen Wörtern in Texten in natürlicher Sprache zu verstehen, während NLG sich mit der Generierung von Texten befasst, die die semantische Komplexität von Texten in natürlicher Sprache nachahmen.

Diese Tools können auf verschiedene reale Geschäftsprobleme angewendet werden, z. B. Dokumentenklassifizierung und -zusammenfassung, Extraktion benannter Entitäten, maschinelle Übersetzung, Faktenprüfung und Beantwortung von Fragen. Sie können helfen, die Effizienz zu steigern, indem sie die Suchzeit verkürzen, und die Effektivität, indem sie die Relevanz verbessern. NLP kann ein hocheffizienter Weg sein, Computer zur Lösung von Problemen einzusetzen, die traditionell nur von Menschen bewältigt werden konnten.

NLP- und Spracherkennungssoftware

NLP kann sogar bei der automatischen Spracherkennung (ASR) helfen. Da ASR auf die Verarbeitung natürlicher Sprache abzielt, kann es auch als Teil der NLP-Kategorie verstanden werden, die NLU (Äußerungsverständnis) und NLG (Erzeugung von natürlicher Sprachausgabe als Transkription gesprochener Eingaben) kombiniert.

Wenn eine explizite Unterscheidung getroffen werden soll, kann NLP helfen, die Genauigkeit des akustischen Modells eines ASR-Systems zu verbessern. In diesem Fall kann ein Sprachmodell (LM) verwendet werden, um die Wahrscheinlichkeit einer bestimmten Silbe oder Wortfolge abzuschätzen. Dies kann beispielsweise helfen, Homophone zu unterscheiden, also Wörter, die gleich ausgesprochen werden, aber eine unterschiedliche Bedeutung haben.

Moderne LMs können die Kontextwörter verwenden, um Gesamtwahrscheinlichkeiten abzuschätzen. Neuere Veröffentlichungen zeigen jedoch, dass die genauesten ASR-Systeme das Problem Ende-zu-Ende angehen, dh das akustische Modell ist mit dem LM- und dem Spracherzeugungsmodell verflochten. Dadurch wird es zunehmend schwieriger, ASR von NLP zu unterscheiden.

Probleme der Voreingenommenheit in NLP und Spracherkennung

Aber es gibt Fälle von Voreingenommenheit in NLP und ASR, die das Potenzial haben, die Verwendung dieser Technologien zu entgleisen. Die Implementierung von KI mit modernem maschinellem Lernen (ML) umfasst zwei Hauptkomponenten: ein ML-Modell mit einer bestimmten Architektur und einen Datensatz, der eine oder mehrere bestimmte Aufgaben modelliert. Beide Teile können Vorurteile einführen.

Die Black-Box-Natur von ML-Modellen kann es schwierig machen, die von den Modellen getroffenen Entscheidungen zu erklären. Darüber hinaus können Modelle Datensätze überanpassen oder zu selbstsicher werden und sich nicht gut auf ungesehene Beispiele verallgemeinern lassen. In den meisten Fällen ist jedoch der für das Training und die Bewertung verwendete Datensatz der Schuldige für die Einführung von Verzerrungen.

Ein Datensatz kann von Natur aus verzerrte Informationen enthalten, wie z. B. eine unausgewogene Anzahl von Entitäten. Datensätze, die von menschlichen Annotatoren manuell annotiert wurden, sind besonders anfällig für Verzerrungen, selbst wenn die Annotatoren sehr sorgfältig ausgewählt wurden und unterschiedliche Hintergründe haben. Große Korpora, die unbeaufsichtigt aus dem World Wide Web gewonnen werden, weisen immer noch Verzerrungen auf, z. B. aufgrund von Unterschieden in der Internetverfügbarkeit auf der ganzen Welt oder Unterschieden in der Häufigkeit von Sprechern bestimmter Sprachen.

Die Auswirkungen von NLP-Bias

Die Kehrseite ist, dass Bevölkerungsgruppen, die in bestimmten Datensätzen unterrepräsentiert sind, bestenfalls nicht in der Lage sind, ein KI-System zu verwenden, um ihnen bei der Lösung der gewünschten Aufgabe zu helfen, und im schlimmsten Fall aufgrund der Art und Weise, wie die KI Ergebnisse vorhersagt, diskriminiert werden.

Diskriminierung aufgrund der Ungerechtigkeit eines künstlichen Modells wird zu einem ernsthaften Problem, sobald KI-Systeme verwendet werden, um potenziell wichtige Entscheidungen automatisch und mit begrenzter menschlicher Aufsicht zu treffen. Darüber hinaus behindern diese Probleme auch den Fortschritt und die Akzeptanz von KI aufgrund des erzeugten berechtigten Misstrauens. Infolgedessen sind diese Technologien am effektivsten, wenn sie verwendet werden, um menschliche Eingaben und Fachkenntnisse zu ergänzen, anstatt sie zu ersetzen.

Überwindung und Regulierung von Bias in der NLP-Technologie

Leider gibt es keine Wunderwaffe, um das Problem der Voreingenommenheit in NLP, ML oder KI im Allgemeinen zu lösen. Stattdessen ist eine wichtige Komponente das Problembewusstsein und ein kontinuierliches Engagement für die Entwicklung von KI-Lösungen, die die Fairness verbessern.

Technisch gesehen gibt es eine Vielzahl von Theorien und Methoden, die aktiv erforscht und entwickelt werden, um Fairness und Erklärbarkeit zu verbessern. Dazu gehören unter anderem die Messung und Reduzierung von Verzerrungen in Datensätzen, Prinzipien für ein ausgewogenes Training von Modellen, Strategien für den Umgang mit inhärenter Unsicherheit während der Inferenz und die laufende Überwachung der KI-Entscheidungsfindung.

Die Rolle der Ethik

Das neuere Feld der Ethik in der KI spielt auch eine Rolle bei der Bekämpfung von NLP-Vorurteilen. Die Herausforderung besteht darin, dass KI noch ein relativ junges und schnelllebiges Forschungs- und Anwendungsfeld ist. Obwohl es seit vielen Jahren existiert, hat sich der Einsatz erst in letzter Zeit weiter verbreitet. Wir haben noch nicht das Plateau der Stabilität erreicht, das erforderlich ist, um Verhaltensweisen und Normen zu formulieren und zu kodifizieren, um ein faires Spielfeld zu gewährleisten.

Squirro verfolgt dabei einen dreifachen Ansatz, der weitreichend sein könnte, wenn er von der gesamten Branche befolgt wird: A) kontinuierliche Bewusstseinsbildung intern und bei Kunden und Interessenten in Bezug auf das Problem der Voreingenommenheit bei der KI-Modellierung und der KI-gestützten Entscheidungsfindung. B) Aufruf und Beitrag zu Industrie- und Regierungsarbeitsgruppen, die den regulatorischen Rahmen für einen verantwortungsvollen Betrieb von KI schaffen, und C) Umsetzung – nicht nur Diskussion – von A & B.

NLP ist eine wirkungsvolle Technologie mit einer Vielzahl von Anwendungsfällen, die Unternehmen dabei helfen, effizienter und effektiver zu sein. Es ist so nützlich, dass es sich die Industrie nicht leisten kann, dass seine Verwendung durch Voreingenommenheit negativ beeinflusst wird. Solche Technologien funktionieren am effektivsten, wenn sie verwendet werden, um den menschlichen Input und die Intelligenz zu erweitern, und nicht, um sie zu ersetzen. Darüber hinaus erfordert die Bekämpfung von Vorurteilen Konzentration und branchenweites Engagement, um die negativen Auswirkungen zu mindern.

Thomas Digelmann

Thomas Diggelmann ist Machine Learning Engineer beim Augmented-Intelligence-Unternehmen Squirro, das mit Unternehmen weltweit zusammenarbeitet, um aussagekräftige und umsetzbare Erkenntnisse aus den von ihnen gespeicherten Daten zu extrahieren.

Neue Umfragen zur Beliebtheit von Programmiersprachen unterstreichen die Vorteile modernisierter...

Graham Morphew • 04. Mai 2023

Die Modernisierung von VxWorks bekräftigt unser Engagement, das zu liefern, was unsere Kunden am meisten wollen: die Fähigkeit, Innovationen zu beschleunigen, ohne Sicherheit, Zuverlässigkeit und Zertifizierbarkeit zu opfern. Wie auch immer Sie die digitale Transformation definieren, wo immer Sie sich auf Ihrem Weg zu modernen DevOps befinden, Geschwindigkeit ist von entscheidender Bedeutung.

Schalten Sie die Kraft von WiFi 6 frei: So nutzen Sie es ...

TBT-Newsroom • 01. März 2023

Sind Sie es leid, in der technologischen Welt zurückgelassen zu werden? Nun, keine Angst! WiFi 6 ist hier, um den Tag zu retten und Ihr Unternehmen in die Zukunft zu führen. Mit beispiellosen Geschwindigkeiten und einer Vielzahl neuer Funktionen ist WiFi 6 die unverzichtbare Technologie für jedes Unternehmen, das der Zeit voraus sein möchte.