Home

Handlungsempfehlungen Staat

Hinweis: Im Folgenden werden ein juristischer Hauptsitz, sowie ein physischer Standort von Servern/Rechenzentren, in der Europäischen Union (EU) gefordert. Diese Formulierung wurde zur Vereinfachung angewandt. Wenn im Folgenden von der EU gesprochen wird, sind der Europäische Wirtschaftsraum (EWR) und die Europäische Freihandelszone (EFTA) mit inbegriffen (für einen Überblick der Mitglieder der EU, des EWR und der EFTA siehe hier). In diesen Mitgliedsstaaten kann sicher eine Einhaltung der DSGVO und des AI Acts gewährleistet werden. Es ist möglich, dass auch andere Länder, die nicht in den genannten Bündnissen gelistet sind, DSGVO- und AI Act-kompatibel sind. Inwiefern andere Staaten die Anforderungen erfüllen, muss im Zweifel geprüft werden.

Die Empfehlungen für staatlichen Einrichtungen und Organisationen zur Steigerung und Bewahrung digitaler Souveränität umfassen die folgenden drei Punkte:

  1. Auswahl eines KI-Systems
  2. Nutzung externer KI-Systeme
  3. Umgang mit erhaltenen Antworten (interne und externe KI-Systeme)

Es wird bewusst zwischen internen und externen KI-Systemen unterschieden. Dabei gilt, dass ein KI-System als intern angesehen wird, wenn dieses on-premises betrieben wird. Dazu dürfen keine Daten unwissentlich nach außen abfließen und die jeweilige Einrichtung besitzt die komplette Kontrolle über alle Daten. Externe KI-Systeme können nur über eine API aufgerufen und nicht auf eigener Hardware gehostet werden.

Obwohl die im Folgenden näher beschriebene Punkte als Empfehlungen beschrieben werden, sollten sie für staatliche Akteure viel mehr als Richtlinien gesehen werden, da hier die Wahrung und Steigerung der digitalen Souveränität, besonders mit Blick auf die raschen Entwicklungen von KI-Systemen, von signifikanter Relevanz ist.

Auswahl eines KI-Systems

Allgemein gilt:
  • Das KI-System muss von einem europäischen Anbieter mit juristischem Hauptsitz in der EU stammen.
  • Der Anbieter des KI-Systems darf keine Monopolstellung am digitalen Markt besitzen.
  • Anforderungen der DSGVO als auch des AI Acts müssen erfüllt sein
  • Das KI-System muss standardisierte Schnittstellen zur Kommunikation anbieten, um einen umkomplizierten Austausch des KI-Systems selbst zu gewährleisten und um selbstentwickelte oder von Drittanbietern stammende User Interfaces (UIs) zu nutzen, sowie auch diese beliebig austauschen zu können.
Externes KI-System
  • Das KI-System muss auf Servern des Anbieters selbst, d.h. einem Rechenzentrum des Anbieters mit physischem Standort in der EU gehostet werden.
  • Wird das System in einem Rechenzentrum eines anderen Anbieters, als dem der KI, gehostet, so muss dessen juristischer Hauptsitz und der physische Standort des Rechenzentrums in der EU liegen.
Internes KI-System
  • Das KI-System muss die Möglichkeit bieten, Telemetrie zu deaktivieren, um jeglichen Austausch von Daten mit externen Systemen zu unterbinden.
  • Wird das KI-System nicht in einem eigenen Rechenzentrum gehostet, so muss das gewählte Rechenzentrum in der EU liegen und der Hosting-Provider seinen juristischen Hauptsitz in der EU haben.
  • Support und Wartung muss vom Anbieter des KI-Systems für die On-Premises-Variante genauso zur Verfügung gestellt werden, wie für eine Alternative in der Cloud.

Nutzung externer KI-Systeme

Allgemein gilt:

Die Nutzung bereits vorhandener Mittel ist der Nutzung einer KI vorzuziehen, wenn das Ergebnis vergleichbar schnell und genau erreicht werden kann.

Schulung von Mitarbeitenden
  • Mitarbeitende müssen sensibilisiert werden, wie mit kritischen Daten umgegangen wird. Das bedeutet, dass keine personenbezogenen Daten, Daten von Dritten oder etwaige andere sensible Informationen weitergegeben werden dürfen.
  • Der allgemeine Umgang mit einem KI-System muss erlernt werden. Dazu können beispielsweise die folgenden Fragen beantwortet werden: Wie werden Prompte korrekt formuliert? Wie können erhaltenen Antworten validiert werden? Wann sollte KI genutzt werden?
  • Mitarbeitende müssen über Grenzen und Risiken aufgeklärt und belehrt werden.

schulung.png

Umgang mit erhaltenen Antworten

  • Generierte Inhalte, die falsch oder suspekt wirken, müssen geprüft werden. Zur Prüfung können bspw. erfahrene Kollegen, als Zweitmeinung, oder ein neuformulierter Prompt genuzt werden.
  • Inhalte, die in jeglicher Form veröffentlicht werden sollen, müssen validiert und ggf. durch Quellen ergänzt werden.
  • Anstößige, diskriminierende oder rassistische Inhalte müssen stets gemeldet werden.

Zusätzliche Empfehlungen für selbst veröffentlichte KI-System zur Nutzung von Bürgern
  • Chatbots, die Bürgern zur Verfügung gestellt werden, müssen vor ihrer Produktivsetzung geprüft werden. Sie dürfen keine unangemessenen Inhalte generieren und müssen gegen jegliche Art des KI-Jailbreakings, wie Prompt-Injections, resistent sein.
  • Chatbots müssen eine Möglichkeit enthalten, anstößige/unpassende Ergebnisse zu melden.