Lola, die Erkennungsmaschine für gefälschte Nachrichten, soll helfen, Online-Schäden zu bekämpfen.
An der University of Exeter Business School wird ein digitales Tool zur Erkennung von Fake News, Cybermobbing und anderen Online-Schäden entwickelt.
„LOLA“ verwendet hochentwickelte künstliche Intelligenz, um emotionale Untertöne in der Sprache zu erkennen, wie Wut, Angst, Freude, Liebe, Optimismus, Pessimismus und Vertrauen.
Es kann 25,000 Texte pro Minute analysieren und schädliches Verhalten wie Cybermobbing, Hass und Islamophobie mit einer Genauigkeit von bis zu 98 % erkennen.
LOLA nutzt die neuesten Fortschritte in der Verarbeitung natürlicher Sprache und der Verhaltenstheorie.
Benannt nach der Kinderfernsehserie Charlie und Lolawurde die Erkennungsmaschine von einem Team unter der Leitung von Dr. David Lopez von der Initiative for Digital Economy Exeter (INDEX) entwickelt.
„In der Online-Welt macht es die schiere Menge an Informationen schwieriger, missbräuchliches Verhalten zu überwachen und durchzusetzen“, sagte Dr. Lopez.
„Wir glauben, dass Lösungen zur Bekämpfung von Online-Schäden menschliches Handeln mit KI-gestützten Technologien kombinieren werden, was die Möglichkeiten zur Überwachung und Überwachung der digitalen Welt erheblich erweitern würde.
„Unsere Lösung basiert auf der Kombination aus jüngsten Fortschritten in der Verarbeitung natürlicher Sprache, um eine Engine zu trainieren, die in der Lage ist, eine Reihe von Emotionen aus menschlichen Gesprächen (Tweets) und Verhaltenstheorien zu extrahieren, um auf Online-Schäden zu schließen, die sich aus diesen Gesprächen ergeben.“
Das Potenzial von LOLA im Kampf gegen Fehlinformationen ist so groß, dass es bereits zu Kooperationen mit der spanischen Regierung und Google geführt hat.
In einem kürzlich durchgeführten Experiment wurde festgestellt, dass LOLA die Verantwortlichen für das Cybermobbing von Greta Thunberg auf Twitter ausfindig gemacht hat.
Lesen Sie mehr: Twitter will mit Deep Learning gegen Fake News vorgehen
Es wurde auch verwendet, um gefälschte Nachrichten über Covid-19 zu erkennen, die Angst und Wut aufzudecken, die so oft verwendet werden, um Fehlinformationen zu verbreiten, und die verantwortlichen Konten herauszugreifen.
LOLA stuft jeden Tweet mit einem Schweregrad ein und ordnet sie von „höchstwahrscheinlich Schaden an“ bis „am wenigsten wahrscheinlich“ an. An der Spitze stehen die Tweets, die in Bezug auf Toxizität, Obszönität und Beleidigung am besten abschneiden.
Diese Art von Analyse könnte ein wertvolles Werkzeug für Cybersicherheitsdienste sein, in einer Zeit, in der Social-Media-Unternehmen unter Druck geraten steigender Druck Online-Schäden zu bekämpfen.
Die Regierung ist dabei, eine zu schaffen neuer Rechtsrahmen für die Online-Sicherheit, indem digitalen Plattformen eine Sorgfaltspflicht gegenüber ihren Nutzern übertragen wird.
Dr. Lopez fügte hinzu: „Die Fähigkeit, negative Emotionen (Toxizität, Beleidigung, Obszönität, Bedrohung, Identitätshass) nahezu in Echtzeit in großem Maßstab zu berechnen, ermöglicht es digitalen Unternehmen, Online-Schäden zu profilieren und präventiv zu handeln, bevor sie sich ausbreiten und weiteren Schaden verursachen.“
Dr. Lopez gibt weitere Einzelheiten des Projekts im Dokument Minderung von Online-Schäden in Geschwindigkeit und UmfangWeitere Informationen zu LOLA finden Sie auf der INDEX-Website.