Bedeutung eines Zero-Trust-Ansatzes für GenAI

Es besteht kein Zweifel daran, dass sich die generative KI in ihrer Fähigkeit, immer anspruchsvollere synthetische Inhalte zu erstellen, rasant weiterentwickelt. Daher ist die Gewährleistung von Vertrauen und Integrität unerlässlich geworden. Es ist an der Zeit, dass Unternehmen, Regierungen und die Industrie einen Zero-Trust-Sicherheitsansatz verfolgen und Cybersicherheitsprinzipien, Authentifizierungsmaßnahmen und Inhaltsrichtlinien kombinieren, um verantwortungsvolle und sichere generative KI-Systeme zu schaffen. Aber wie würde Zero Trust Generative AI aussehen? Warum ist es erforderlich? Wie soll es umgesetzt werden? Und was sind die größten Herausforderungen für die Branche?

Gehen Sie niemals von Vertrauen aus

Bei einem Zero-Trust-Modell wird niemals Vertrauen vorausgesetzt. Es basiert vielmehr auf dem Prinzip, dass eine strenge Überprüfung erforderlich ist, um jeden einzelnen Zugriffsversuch und jede einzelne Transaktion zu bestätigen. Eine solche Abkehr vom impliziten Vertrauen ist im neuen Zeitalter des Remote- und Cloud-basierten Computing, in dem wir alle leben, von entscheidender Bedeutung.

Generative KI ist heute überall um uns herum und kann auf der Grundlage ihrer Trainingsdaten autonom neue, originelle Inhalte wie Texte, Bilder, Audio und Videos erstellen. Darüber hinaus ist diese Fähigkeit, neuartige, realistische Artefakte zu synthetisieren, mit den algorithmischen Fortschritten, die wir in den letzten 12 Monaten gesehen haben, enorm gewachsen.

Ein Zero-Trust-Modell würde generative KI-Modelle auf neu auftretende Bedrohungen und Schwachstellen vorbereiten, indem proaktive Sicherheitsmaßnahmen in alle Prozesse integriert werden, von der Datenpipeline bis zur Benutzerinteraktion. Dies würde einen vielfältigen Schutz vor Missbrauch in einer Zeit bieten, in der generative Modelle weltweit eine beispiellose kreative Kapazität erlangen.

Gewährleistung lebenswichtiger Schutzmaßnahmen

Da generative KI-Modelle immer ausgefeilter und realistischer werden, steigt auch ihr Schadenspotenzial, wenn sie falsch verwendet oder schlecht gestaltet werden. Schwachstellen könnten es böswilligen Akteuren ermöglichen, sie auszunutzen, um Fehlinformationen zu verbreiten, irreführende Inhalte zu fälschen oder gefährliches Material auf globaler Ebene zu produzieren.

Leider kann es selbst bei gut gemeinten Systemen schwierig sein, die Aufnahme von Verzerrungen oder Unwahrheiten bei der Datenerfassung vollständig zu vermeiden, wenn wir nicht vorsichtig sind. Darüber hinaus kann es ohne strenge Mechanismen schwierig sein, die Authentizität und Herkunft ihrer auffallend realistischen Ergebnisse zu überprüfen.

Ein Zero-Trust-Ansatz würde wichtige Schutzmaßnahmen bieten, indem er Systemeingaben gründlich validiert, laufende Prozesse überwacht, Ausgaben prüft und den Zugriff in jeder Phase nachweist, um Risiken zu mindern. Dies würde wiederum das Vertrauen der Öffentlichkeit in den gesellschaftlichen Einfluss der KI schützen.

Ein Rahmen für einen Zero-Trust-Ansatz

Der Aufbau eines Zero-Trust-Frameworks für generative KI umfasst mehrere praktische Maßnahmen in den Bereichen Architekturdesign, Datenverwaltung, Zugriffskontrollen und mehr. Um optimale Sicherheit zu gewährleisten, umfassen die wichtigsten Maßnahmen:

1. Authentifizierung und Autorisierung: Überprüfen Sie alle Benutzeridentitäten eindeutig und beschränken Sie die Zugriffsberechtigungen auf diejenigen, die für die autorisierten Rollen jedes Benutzers erforderlich sind. Wenden Sie Protokolle wie die Multi-Faktor-Authentifizierung (MFA) universell an.

2. Validierung der Datenquelle: Bestätigen Sie die Integrität aller Trainingsdaten durch detaillierte Protokollierung, Prüfpfade, Verifizierungsrahmen und Überwachungsverfahren. Bewerten Sie Datensätze kontinuierlich auf neu auftretende Probleme.

3. Prozessüberwachung: Überwachen Sie Systemprozesse aktiv mithilfe der regelbasierten Anomalieerkennung, maschinellen Lernmodellen und anderen Qualitätssicherungstools auf verdächtige Aktivitäten.

4. Output-Überprüfung: Outputs, die gegen definierte Ethik-, Compliance- oder Richtlinienleitlinien verstoßen, werden automatisch überprüft und gekennzeichnet, was die Überprüfung durch den Menschen erleichtert.

5. Aktivitätsprüfung: Protokollieren und prüfen Sie alle Systemaktivitäten gründlich und durchgängig, um die Verantwortlichkeit aufrechtzuerhalten. Unterstützen Sie die detaillierte Nachverfolgung der Herkunft generierter Inhalte.

Ganzheitliche Absicherung der Content-Ebene

Während Zugriffskontrollen die erste Verteidigungslinie in Zero Trust Generative AI darstellen, stellen umfassende Content-Layer-Richtlinien die nächste entscheidende Schutzebene dar und dürfen nicht übersehen werden. Dies erstreckt sich auch auf das, worauf Benutzer zugreifen können, auf welche Daten das KI-System selbst unabhängig von seinen Anmeldeinformationen zugreifen, sie verarbeiten oder verbreiten kann. 

Zu den wichtigsten Aspekten der Sicherheit der Inhaltsebene gehört die Definition von Inhaltsrichtlinien zur Einschränkung des Zugriffs auf verbotene Arten von Trainingsdaten, sensible persönliche Informationen oder Themen, die ein erhöhtes Risiko darstellen. Es kann auch verwendet werden, um strenge Zugriffskontrollen zu implementieren, die festlegen, auf welche Datenkategorien jede KI-Modellkomponente zugreifen kann, und dann mithilfe automatisierter Tools und Human-in-the-Loop-Prüfungen fortlaufende Content-Compliance-Prüfungen durchzuführen, um Verstöße gegen Richtlinien und Vorschriften zu erkennen. Schließlich kann die Sicherheit der Inhaltsschicht genutzt werden, um klare Prüfpfade für eine genaue Rückverfolgung der Ursprünge, Transformationen und Verwendungen von Daten zu verwalten, die durch generative KI-Architekturen fließen. Diese ganzheitliche Überwachung der Inhaltsebene festigt den umfassenden Schutz und die Verantwortlichkeit in allen generativen KI-Systemen weiter.

Herausforderungen zu bewältigen

Die Umsetzung von Zero Trust Generative AI in die Praxis ist zwar von entscheidender Bedeutung für eine verantwortungsvolle KI-Entwicklung und den Aufbau von öffentlichem Vertrauen, steht aber leider vor einer Reihe von Herausforderungen. Auf der technischen Seite wird es für Ingenieure und Forscher zweifellos nicht trivial sein, mehrschichtige Sicherheitskontrollen in weitläufigen Pipelines für maschinelles Lernen konsequent zu implementieren, ohne die Modellleistung zu beeinträchtigen. Darüber hinaus stellt das Ausbalancieren leistungsstarker Inhaltssicherheits-, Authentifizierungs- und Überwachungsmaßnahmen bei gleichzeitiger Beibehaltung der Flexibilität für fortlaufende Innovationen einen heiklen Kompromiss dar, der Sorgfalt und Überlegung bei der Ausarbeitung von Richtlinien oder Risikomodellen erfordert. Denn zu strenge Ansätze würden den Nutzen der Technologie nur einschränken.

Weitere Herausforderungen werden darin bestehen, sicherzustellen, dass die Inhaltsrichtlinien auf dem richtigen Niveau und unvoreingenommen sind. 

Zukunft sichern

In einer Zeit, in der maschinengenerierte Medien einen zunehmenden Einfluss darauf haben, wie wir kommunizieren, leben und lernen, wird die Gewährleistung der Verantwortlichkeit von größter Bedeutung sein. Die ganzheitliche Integration der Zero-Trust-Sicherheit, die Authentifizierung, Autorisierung, Datenvalidierung, Prozessüberwachung und Ausgabekontrolle umfasst, wird von entscheidender Bedeutung sein, um sicherzustellen, dass solche Systeme so weit wie möglich vor Missbrauch geschützt sind. 

Um die Zukunft zu sichern, sind jedoch nachhaltige Anstrengungen und die Zusammenarbeit zwischen Technologiepionieren, Gesetzgebern und der Gesellschaft erforderlich. Durch die Nutzung eines privaten Content-Netzwerks können Unternehmen ihren Beitrag leisten, indem sie ihre vertraulichen Content-Kommunikations-, Datenschutz- und Compliance-Risiken effektiv verwalten. Ein privates Content-Netzwerk kann inhaltsdefinierte Zero-Trust-Kontrollen bereitstellen, mit Zugriff auf die geringsten Rechte, die auf der Inhaltsebene definiert sind, und DRM-Funktionen der nächsten Generation, die Downloads aus der KI-Aufnahme blockieren. Dies wird dazu beitragen, dass die generative KI im Einklang mit den menschlichen Werten gedeihen kann.

Tim Freistein

Tim Freestone kam 2021 zu Kiteworks und bringt über 15 Jahre Erfahrung im Marketing und in der Marketingführung mit, einschließlich Nachfragegenerierung, Markenstrategie sowie Prozess- und Organisationsoptimierung. Tim war zuvor Vizepräsident für Marketing bei Contrast Security, einem expandierenden Unternehmen für Anwendungssicherheit. Vor Contrast war Tim Vizepräsident für Unternehmensmarketing bei Fortinet, einem milliardenschweren Unternehmen für Firewalls und Cloud-Sicherheit der nächsten Generation. Tim hat einen Bachelor-Abschluss in Politikwissenschaft und Kommunikationswissenschaften von der University of Montana.