Home

Handlungsempfehlungen Wirtschaft

Hinweis: Im Folgenden werden ein juristischer Hauptsitz, sowie ein physischer Standort von Servern/Rechenzentren, in der Europäischen Union (EU) gefordert. Diese Formulierung wurde zur Vereinfachung angewandt. Wenn im Folgenden von der EU gesprochen wird, sind der Europäische Wirtschaftsraum (EWR) und die Europäische Freihandelszone (EFTA) mit inbegriffen (für einen Überblick der Mitglieder der EU, des EWR und der EFTA siehe hier). In diesen Mitgliedsstaaten kann sicher eine Einhaltung der DSGVO und des AI Acts gewährleistet werden. Es ist möglich, dass auch andere Länder, die nicht in den genannten Bündnissen gelistet sind, DSGVO- und AI Act-kompatibel sind. Inwiefern andere Staaten die Anforderungen erfüllen, muss im Zweifel geprüft werden.

Die Empfehlungen für wirtschaftliche Akteure zur Steigerung und Bewahrung digitaler Souveränität umfassen die folgenden drei Punkte:

  1. Auswahl eines KI-Systems
  2. Nutzung externer KI-Systeme
  3. Umgang mit erhaltenen Antworten (interne und externe KI-Systeme)

Es wird bewusst zwischen internen und externen KI-Systemen unterschieden. Dabei gilt, dass ein KI-System als intern angesehen wird, wenn dieses on-premises betrieben wird. Dazu dürfen keine Daten unwissentlich nach außen abfließen und die jeweilige Einrichtung besitzt die komplette Kontrolle über alle Daten. Externe KI-Systeme können nur über eine API aufgerufen und nicht auf eigener Hardware gehostet werden.

Generelle Empfehlungen:
  • Jedes externe KI-System sollte von einer zuständigen Abteilung geprüft werden. Dabei sollte die Einhaltung der DSGVO als auch des AI Acts beachtet werden.
  • KI-Systeme sollten immer von Vorgesetzten oder einem anderen Entscheidungsträger, auf Basis der geprüften und zugelassenen KI-Systeme, zur Nutzung für Mitarbeitende genehmigt werden.

Auswahl eines KI-Systems

Auswahl einer externen KI
  • Die Risikoklassen des AI Acts (eine übersichtliche Zusammenfassung finden Sie hier) sollten beachtet werden, wodurch bei der Auswahl direkt ersichtlich wird, worauf der jeweilige Anbieter bei der Entwicklung des KI-Systems hätte achten müssen.

Rechtsstandort und Datenhoheit

  • Der juristische Hauptsitz des Anbieters des KI-Systems sollte in der EU sein.
  • Physischer Standort des Rechenzentrums/der Rechenzentren sollten in der EU sein, wenn von das System vom KI Anbieter selbst gehostet wird.
  • Physischer Standort des Rechenzentrums/der Rechenzentren sollten in der EU sein, wenn die KI von einem Drittanbieter gehostet wird. Wobei der juristischer Hauptsitz des jeweiligen Drittanbieters wiederum auch in der EU sein sollte.

Monopolstellung des Anbieters am digitalen Markt

  • Besitzt der Anbieter des infrage kommenden KI-Systems eine Monopolstellung am digitalen Markt, so sollte ein vergleichbares KI-System als Alternative in Betracht gezogen werden, um Abhängigkeiten zu vermeiden und die eigene digitale Souveränität zu erhalten bzw. stärken.
  • Besitzt der Anbieter keine Monopolstellung am digitalen Markt, so kann die KI im Sinne der digitalen Souveränität genutzt und sollte präferiert werden.

On-Premises-Unterstützung

  • Bietet das KI-System eine vollständige On-Premises-Unterstützung, so sollte diese bevorzugt genutzt werden
  • Wird keine On-Premises-Unterstützung angeboten, so sollten die Kriterien bzgl. Rechtsstandort und Datenhoheit, sowie insbesondere die Einhaltung des AI Acts und die darin genannten Anforderungen der jeweiligen Risikoklassen beachtet werden
Auswahl einer internen KI
  • Eine On-Premises-Nutzung bietet die bestmögliche Kontrolle über alle eingegebene Daten und sollte stets bevorzugt werden
  • Besitzt das Unternehmen eigene Server bzw. ein Rechenzentrum in der EU und verfügt über das technischen Know-How, sowie die nötigen Angestellten, so sollte das KI-System auf eigener Hardware betrieben werden
  • Besitzt das Unternehmen keine eigenen Server oder ein eigenes Rechenzentrum, sollte eine Kosten-Nutzen-Rechnung durchgeführt werden, da durch den On-Premises-Betrieb die Datensouveränität gesichert wird.
  • Bei der Entwicklung einer komplett eigenen KI sollten stets die Risikoklassen des AI Acts beachtet werden, sowohl bei der Implementierung als auch der Wahl des jeweiligen Modells (wenn kein eigenes verfügbar ist). Auch hier gilt, dass der Anbieter des Modells seinen juristischen Hauptsitz in der EU haben sollte.

Nutzung externer KI-Systeme

  • Generell sollten keine sensiblen Daten weitergegeben werden. Darunter fallen bspw. Passwörter, Kundendaten, Vertrags- und Ausschreibungsdaten, Nutzernamen, (nicht allgemein auffindbarer) Quellcode - als allgemein auffindbar können bspw. Codezeilen gelten, die Standardprozesse, wie eine Textausgabe, durchführen oder einen frei verfügbaren Algorithmus implementieren -, interne Dokumente, etc.
  • KI-Systeme sollten nicht allein zu Schulungs- und Weiterbildungszwecken genutzt werden. Sie sollten als Ergänzung und Bereicherung gesehen werden, jedoch niemals den Ausbilder ersetzen. Fehlendes Know-How kann bei Prompte zu fehlerhaften Antworten führen.
  • Nutzung der KI stichprobenartig kontrollieren und überwachen, um einen Abfluss von unternehmensspezifischem Know-How zu verhindern.
  • Nutzung von KI für neue Mitarbeiter/Berufsanfänger limitieren, um Eigenständigkeit und den Aufbau einer eigenen Wissensbasis zu fördern, sowie den Verlust von Fähigkeiten zu verhindern (vgl. Artikel: Verlieren wir durch Navis unseren Orientierungssinn?)
Schulung von Mitarbeitenden
  • Mitarbeitende müssen für die Nutzung von KI sensibilisiert werden. Eine Weitergabe interner Daten, Kundendaten oder sonstiger sensibler Daten an ein KI-System kann unter Umständen einen Verstoß gegen die Verschwiegenheitspflicht des Arbeitnehmers darstellen. Ein Beispiel hierfür kann im Artikel "Samsungs ChatGPT-Leak: KI-Risiken im Berufsalltag" gesehen werden.
  • Eine Möglichkeit externe KI-Systeme zu nutzen, ohne die digitale Souveränität und die Verschwiegenheitspflicht zu verletzen, ist seitens des Arbeitgebers die Erstellung von klaren Kategorien von Daten und Informationen, die in eine solche KI eingegeben werden dürfen.
  • Mitarbeitende sollten Möglichkeiten zur Erkennung falscher Antworten beigebracht werden. Dabei ist eines der einfachsten Mittel die Sensibilisierung gegenüber suspekt wirkender Antworten und deren Überprüfung bzw. einer generell kritischen Sichtweise auf generierte Inhalte.
schulung.png

Umgang mit erhaltenen Antworten

  • Es sollte sich niemals auf die KI allein verlassen werden. Bei Unstimmigkeiten oder genereller Unsicherheit bzgl. der erhaltenen Antworten stets mehrere Quellen konsultieren. Beispielsweise kann die Frage an eine Fachabteilung gestellt, an einen Kollegen - mit mehr Erfahrung - gestellt werden oder in internen Dokumentationen geprüft werden.
  • Generierte Inhalte, die veröffentlicht werden sollen, sollten stets von Experten geprüft und freigegeben werden, bspw. sollte generierter Code auf jeden Fall von einem Senior-Entwickler geprüft werden, um Sicherheitslücken und Bad Practices zu vermeiden
  • Generierte Inhalte, die veröffentlicht werden sollen, müssen ggf. um Quellen erweitert werden. Von der KI gelieferte Quellen müssen im Zweifel geprüft werden.
  • Bei Themen, die nicht so einfach auf traditionellem Weg validierbar sind: Gleicher Prompt in einem anderen (vom Unternehmen erlaubten externen) KI-System eingeben.