Von Schatten-IT zu Schatten-KI
Das erste Gesetz für KI wurde kürzlich verabschiedet und gibt Herstellern von KI-Anwendungen zwischen sechs Monaten und drei Jahren Zeit, sich an die neuen Regeln anzupassen. Wer KI insbesondere in sensiblen Bereichen einsetzen möchte, muss die KI-Daten und deren Qualität streng kontrollieren und Transparenz schaffen – klassische Kerndisziplinen aus dem Datenmanagement.
Die EU hat Pionierarbeit geleistet und mit dem AI Act einen rechtlichen Rahmen für den derzeit dynamischsten und wichtigsten Zweig der Datenindustrie geschaffen, ebenso wie mit der DSGVO im April 2016 und mit Digital Operational Resilience im Januar 2025. Und Viele der neuen Aufgaben aus dem KI-Gesetz werden Datenschutzbeauftragten und jedem Compliance-Beauftragten bekannt sein, der an DSGVO und DORA beteiligt ist.
Das Gesetz legt eine Definition für KI fest und definiert vier Risikostufen: minimal, begrenzt, hoch und inakzeptabel. KI-Anwendungen, die Unternehmen in Bereichen des Gesundheitswesens, der Bildung und kritischer Infrastruktur einsetzen möchten, fallen in die höchste Sicherheitskategorie „hohes Risiko“. Diejenigen, die in die Kategorie „inakzeptabel“ fallen, werden verboten, beispielsweise wenn sie als eindeutige Bedrohung für die Sicherheit, den Lebensunterhalt und die Rechte der Menschen angesehen werden.
KI-Systeme müssen per Definition vertrauenswürdig, sicher, transparent, genau und rechenschaftspflichtig sein. Betreiber müssen Risikobewertungen durchführen, hochwertige Daten nutzen und ihre technischen und ethischen Entscheidungen dokumentieren. Sie müssen außerdem die Leistung ihrer Systeme aufzeichnen und Benutzer über die Art und den Zweck ihrer Systeme informieren. Darüber hinaus sollten KI-Systeme von Menschen überwacht werden, um Risiken zu minimieren und Interventionen zu ermöglichen. Sie müssen äußerst robust sein und ein hohes Maß an Cybersicherheit erreichen.
Das Potenzial der generativen KI hat zudem einen regelrechten Goldrausch ausgelöst, den sich niemand entgehen lassen möchte. Dies geht aus einer Studie von Censuswide im Auftrag von Cohesity hervor, einem globalen Anbieter für KI-gestütztes Datenmanagement und -sicherheit. 86 Prozent der 903 befragten Unternehmen nutzen bereits generative KI-Technologien.
Mark Molyneux, EMEA CTO von Cohesity, erklärt, welche Herausforderungen diese Entwicklung mit sich bringt und warum Unternehmen bei aller Begeisterung nicht alte Fehler aus der frühen Cloud-Ära wiederholen sollten.
Der Weg für Nutzer zur KI ist sehr kurz; Der Einstieg ist sanft, einfach und oft kostenlos, und das hat große Konsequenzen, die Unternehmen aus der Frühphase der Cloud kennen dürften. Deshalb ist es gerade jetzt besonders wichtig, auf folgende Aspekte zu achten:
Kontrollverlust vermeiden
In der Vergangenheit lösten öffentliche Cloud-Dienste einen Goldrausch aus, bei dem Mitarbeiter Unternehmensdaten mit nur wenigen Klicks auf externe Dienste hochluden. Die IT hatte vorübergehend die Kontrolle über die Unternehmensdaten verloren, was dazu führte, dass sie Risiken in Bezug auf Schutz und Compliance in Kauf nahm. Die Geburt der Schatten-IT.
Ähnliches erwarten die Befragten nun auch bei KI, wie die Umfrage zeigt. Compliance- und Datenschutzrisiken werden von 34 bzw. 31 Prozent als größte Bedenken genannt. 30 Prozent der Unternehmensvertreter befürchten, dass die KI auch ungenaue oder falsche Ergebnisse ausspucken könnte. Denn die meisten Nutzer wissen noch nicht, wie sie optimal mit den KI-Engines interagieren. Und nicht zuletzt sind die generativen KI-Lösungen noch neu und noch nicht alle ausgereift.
In den Medien wird häufig über Unternehmen berichtet, die diese Erfahrung gemacht haben. Im April 2023 haben Ingenieure bei Samsung haben Unternehmensvertraulichkeiten auf ChatGPT hochgeladen und sie so zum Lernmaterial einer globalen KI gemacht – der schlimmste Fall aus Sicht der Compliance und des geistigen Eigentums.
Da die Innovationszyklen in der KI extrem kurz sind, explodiert die Vielfalt an neuen Ansätzen, Konzepten und Lösungen. Für Sicherheits- und IT-Teams ist es äußerst schwierig, mit diesem Tempo Schritt zu halten und die jeweiligen Angebote auf Herz und Nieren zu prüfen. Oftmals sind sie gar nicht erst involviert, weil ein Unternehmensbereich wie die Cloud längst einen Dienst nutzt – nach der Schatten-IT entsteht nun die Schatten-KI und damit ein enormer Kontrollverlust.
Machen Sie die Menschen auf Gefahren aufmerksam
Gleichzeitig werden neue Formen möglicher KI-Missbrauchsformen bekannt. Forscher der Cornell University in den USA und des Technion Institute in Israel haben Morris II entwickelt, einen Computerwurm, der sich autonom im Ökosystem öffentlicher KI-Assistenten verbreitet. Den Forschern gelang es, den Wurm-Algorithmen beizubringen, die Sicherheitsmaßnahmen von drei bekannten KI-Modellen zu umgehen: Gemini Pro von Google, GPT 4.0 von OpenAI und LLaVA. Dem Wurm gelang es außerdem, nützliche Daten wie Namen, Telefonnummern und Kreditkartendaten zu extrahieren.
Ihre Ergebnisse teilten die Forscher den Betreibern mit, damit die Lücken geschlossen und die Sicherheitsmaßnahmen verbessert werden können. Doch hier zeichnet sich deutlich eine neue offene Flanke auf dem Cyber-Schlachtfeld ab, auf dem Hacker und Anbieter seit Jahrzehnten mit Malware, Spam und Ransomware gegeneinander kämpfen.
Geschwindigkeit ohne Eile
IT-Teams werden nicht in der Lage sein, die Zeit zurückzudrehen und KI aus Unternehmensnetzwerken herauszuhalten. Daher sind Verbote in der Regel kein angemessener Ansatz. Die IT kann und sollte sich nicht zu überstürzten und schnellen Entscheidungen verleiten lassen, sondern vielmehr die Kontrolle über ihre Daten zurückgewinnen und die KI verantwortungsvoll steuern.
Dadurch können IT-Teams das Risiko genau einschätzen und einen möglichen externen Datenaustausch ausschließen. Die KI ist eigenständig und kann kontrolliert eingeführt werden. IT-Teams können auch sehr wählerisch sein, welche internen Systeme und Datenquellen die KI-Module aktiv untersuchen. Sie können mit einem kleinen Cluster beginnen und KI auf streng kontrollierte Weise einführen.
Bereits von Dritten eingeführte KI-Modelle können gezähmt werden, indem genau festgelegt wird, auf welche Daten diese Modelle zugreifen dürfen. Ein entscheidender Vorteil, um die unkontrollierte Dynamik der KI zu bremsen, denn Datenflüsse lassen sich präzise steuern, nützliche Informationen schützen und rechtliche Vorgaben einhalten.