Kann man sich auf KI verlassen, um geschäftskritische Systeme zu betreiben und Entscheidungen zu treffen?

Bedenken hinsichtlich der Zuverlässigkeit von KI-Vorhersagen nehmen zu. Die menschliche Intuition schlägt KI immer noch um Längen, wenn es darum geht, in einer Krise Urteile zu fällen. Menschen – insbesondere diejenigen, die in ihrem Fachgebiet arbeiten – sind einfach vertrauenswürdiger. Studien haben gezeigt, dass Fachleute wie Fluglotsen oder Kernkraftwerksbetreiber auch in Hochrisikosituationen höchst zuverlässig sind, da sie im Gegensatz zu KI-Systemen Fehler erkennen, eindämmen und beheben sowie improvisierte Problemlösungen üben können. Während aktuelle KI-Systeme ein hervorragendes Situationsbewusstsein bieten, sind sie weniger gut darin, Anomalien zu erkennen und Lösungen zu improvisieren. Kann KI reifen? fragt Fred Werner, Head of Strategic Engagement, ITU Telecommunication Standardization Bureau.
Bedenken hinsichtlich der Zuverlässigkeit von KI-Vorhersagen nehmen zu. Die menschliche Intuition schlägt KI immer noch um Längen, wenn es darum geht, in einer Krise Urteile zu fällen. Menschen – insbesondere diejenigen, die in ihrem Fachgebiet arbeiten – sind einfach vertrauenswürdiger. Studien haben gezeigt, dass Fachleute wie Fluglotsen oder Kernkraftwerksbetreiber auch in Hochrisikosituationen höchst zuverlässig sind, da sie im Gegensatz zu KI-Systemen Fehler erkennen, eindämmen und beheben sowie improvisierte Problemlösungen üben können. Während aktuelle KI-Systeme ein hervorragendes Situationsbewusstsein bieten, sind sie weniger gut darin, Anomalien zu erkennen und Lösungen zu improvisieren. Kann KI reifen? fragt Fred Werner, Head of Strategic Engagement, ITU Telekommunikationsstandardisierungsbüro.

Da künstliche Systeme (KI) immer komplexer werden, werden sie in immer mehr Bereichen unseres Lebens verwendet, um Vorhersagen zu treffen – oder vielmehr prädiktive Modellergebnisse zu generieren. Gleichzeitig nehmen jedoch Bedenken hinsichtlich der Zuverlässigkeit zu, da sich die Fehlermargen in aufwändigen KI-Vorhersagen ausweiten. 

Wie können wir diesen Bedenken begegnen? 

Laut Thomas G. Dietterich, emeritierter Professor und Direktor für Intelligent Systems Research an der Oregon State University, bietet die Managementwissenschaft eine Reihe von Werkzeugen, die KI-Systeme vertrauenswürdiger machen können. Während eines Webinar Auf der AI for Good-Plattform der International Telecommunication Union (ITU) sagte er unserem Publikum, dass die Disziplin, die menschliche Entscheidungsträger an die Spitze ihres Spiels bringt, auch auf Maschinen angewendet werden kann

Warum ist das wichtig? Weil die menschliche Intuition die KI immer noch um Längen schlägt, wenn es darum geht, in einer Krise Urteile zu fällen. Menschen – und vor allem diejenigen, die in ihrem Erfahrungs- und Kompetenzbereich arbeiten – sind einfach vertrauenswürdiger. Studien der University of California (UC), Berkeley, der Wissenschaftler Todd LaPorte, Gene Rochlin und Karlene Roberts haben herausgefunden, dass bestimmte Berufsgruppen wie Fluglotsen oder Kernkraftwerksbetreiber selbst in einer Hochrisikosituation sehr zuverlässig sind.

Diese Fachleute entwickeln die Fähigkeit, Fehler zu erkennen, einzudämmen und zu beheben, und üben improvisatorische Problemlösungen, sagte Dietterich. Dies liegt an ihrer „Beschäftigung mit dem Scheitern“. Sie halten ständig Ausschau nach Anomalien und Beinaheunfällen – und behandeln diese als Symptome eines potenziellen Fehlermodus im System. Anomalien und Beinaheunfälle werden dann nicht beiseite geschoben, sondern auf mögliche Erklärungen untersucht, normalerweise von einem vielfältigen Team mit weitreichenden Spezialisierungen. Menschliche Fachleute bringen ein weitaus höheres Maß an „Situationsbewusstsein“ mit und wissen, wann sie sich auf die Expertise des anderen verlassen müssen.

Diese Prinzipien sind nützlich, wenn man darüber nachdenkt, wie man ein vollständig autonomes und zuverlässiges KI-System aufbaut oder wie man Wege für die Zusammenarbeit zwischen menschlichen Organisationen und KI-Systemen entwirft. KI-Systeme können dank ihrer Fähigkeit, Daten aus mehreren Quellen zu integrieren und Risiken kontinuierlich neu zu bewerten, ein hohes Situationsbewusstsein erlangen. Allerdings sind aktuelle KI-Systeme, obwohl sie sich mit Situationsbewusstsein auskennen, weniger effektiv bei der Erkennung von Anomalien und nicht in der Lage, Anomalien zu erklären und Lösungen zu improvisieren.

Bis ein KI-System Beinahe-Unfälle zuverlässig identifizieren und erklären kann, ist weitere Forschung erforderlich. Wir haben Systeme, die bekannte Fehler diagnostizieren können, aber wie diagnostizieren wir unbekannte Fehler? Was würde es für ein KI-System bedeuten, sich auf improvisatorische Problemlösungen einzulassen, die irgendwie den Raum der Möglichkeiten über das anfängliche Problem hinaus erweitern können, für dessen Lösung das System programmiert wurde?

Wo KI-Systeme und Menschen zusammenarbeiten, braucht es ein gemeinsames mentales Modell. KI sollte ihre menschlichen Kollegen nicht mit irrelevanten Informationen bombardieren und muss auch das Verhalten menschlicher Teams verstehen und vorhersagen können. 

Eine Möglichkeit, Maschinen darauf zu trainieren, Anomalien zu erklären oder mit Spontaneität umzugehen, könnte der Kontakt mit den darstellenden Künsten sein. Forscher und Musiker der Monash University in Melbourne und der Goldsmiths University of London machten sich daran, zu untersuchen, ob KI als improvisierender Musiker in a auftreten könnte Phantom-Jam-Session. Mark d'Inverno, ein Jazzpianist und Professor für Informatik am Goldsmiths College in London, improvisierte live mit dem in Melbourne lebenden Schlagzeuger und Forscher der Monash University, Alon Ilsar. Vervollständigt wurde das Trio durch ein KI-System, das sowohl als Musiker als auch als Vermittler für die beiden Künstler, die noch nie zuvor zusammen gespielt hatten, beteiligt war. Während der Session wurden die von d'Inverno auf einem MIDI-Klavier in London gespielten Noten in einen Algorithmus eingespeist, der sie modelliert hat, um neue Noten in Echtzeit zu generieren und an Ilsar in Melbourne zu übertragen. Ilsar improvisierte als Antwort mit einem AirSticks-Gesteninstrument für elektronische Percussion.

Ihr Ziel war es, den realen Prozess der Improvisation nachzuahmen. Frei fließende, spontane Improvisationen gelten oft als der wahrste Ausdruck kreativer künstlerischer Zusammenarbeit unter Musikern. „Jamming“ erfordert nicht nur musikalisches Können, sondern auch Vertrauen, Intuition und Empathie gegenüber den Bandkollegen.

In der Studie wiederholt die erste Einstellung namens „Parrot“ alles, was gespielt wird. Das zweite System spielt autonom Noten unabhängig vom Beitrag eines menschlichen Musikers. Die dritte zeichnet sich ebenfalls durch vollständige Autonomie aus, zählt jedoch die Anzahl der vom menschlichen Musiker gespielten Noten, um die Energie der Musik zu definieren. Das vierte und komplizierteste System erstellt ein mathematisches Modell der Musik des menschlichen Künstlers. Es hört genau zu, was die Musiker spielen, und erstellt ein statistisches Modell der Noten, ihrer Muster und speichert sogar Akkordfolgen.

Zusätzlich zu diesem Mensch/KI-Jamming-Session-Ansatz sieht Professor Dietterich zwei weitere vielversprechende Ansätze zur Verbesserung und mathematischen „Garantie“ der Vertrauenswürdigkeit. Eines ist ein Kompetenzmodell, das Quantilregressionen berechnen kann, um das KI-Verhalten vorherzusagen, wobei die Methode der „konformen Vorhersage“ verwendet wird, um zusätzliche Korrekturen vorzunehmen. Dieser Ansatz erfordert jedoch viele Daten und bleibt anfällig für Fehlinterpretationen.

Der andere Weg besteht darin, autonome Systeme über die Erkennung offener Kategorien mit ihren „unbekannten Unbekannten“ umgehen zu lassen. Beispielsweise könnte ein selbstfahrendes Auto, das auf europäischen Straßen trainiert wird, in Australien Probleme mit Kängurus haben. Ein Anomaliedetektor, der unbeschriftete Daten verwendet, könnte dem KI-System helfen, effektiver auf Überraschungen zu reagieren.

 WEITERLESEN:

Da KI in immer mehr Bereichen unseres Lebens eingesetzt wird, wird deutlich, dass die einzige Möglichkeit, KI zuverlässiger und effektiver zu machen, darin besteht, weit entfernt von einem Albtraumszenario der Übernahme durch Maschinen zu sein engere denn je Symbiose zwischen menschlichen Systemen und KI-Systemen. Nur dann können wir uns wirklich auf KI verlassen.

Vergessen Sie nicht, unser tägliches Bulletin zu abonnieren, um weitere Neuigkeiten von Top Business Tech zu erhalten!

Folge uns auf  LinkedIn und Twitter

Amber Donovan-Stevens

Amber ist Inhaltsredakteurin bei Top Business Tech

Die Lebenshaltungskostenkrise.

TBT-Newsroom • 29. Juni 2022

Was Kommunikationsdienstleister tun können, um ihren Kunden bei der Bewältigung der Lebenshaltungskostenkrise zu helfen. Wir sind alle mit den reißerischen Marketing-Slogans unserer britischen Kommunikationsdienstleister vertraut – „Gemeinsam können wir“, „Die Zukunft ist hell“, „Es dreht sich alles um Sie“ … aber leider scheinen diese für die nicht mehr zu stimmen Millionen Verbraucher...