Breadcrumbs

KI: Sicherheitsmechanismen in GlobalSuite

FRAGEN ZU DEN IN DER KI VON GlobalSuite® IMPLEMENTIERTEN SICHERHEITSMECHANISMEN

  1. Welche Sicherheitsmechanismen hat GlobalSuite® in seine Künstliche Intelligenz implementiert, um Informationen zu schützen und die Datenintegrität zu gewährleisten?

Derzeit sind die vom System verwendeten Daten diejenigen, die manuell in das System eingegeben werden, entweder zum Zeitpunkt der Abfrage oder zuvor aus GlobalSuite ausgewählt. Die Nutzung der Daten beschränkt sich ausschließlich auf diejenigen, die von den Kunden selbst bei der Nutzung der Assistenten bereitgestellt werden.

Um mehr Klarheit zu schaffen, ist es wichtig zu betonen, dass wir Azure OpenAI als Dienst nutzen, wobei diese Implementierungen innerhalb der europäischen Region bereitgestellt werden. Nachfolgend wird die folgende vom Dienst bereitgestellte Information wiederholt:

Wichtig

Die Eingaben (Prompts) und Ausgaben (Antworten), die Einfügungen und die Trainingsdaten:

  • SIND für andere Kunden NICHT verfügbar.

  • SIND für OpenAI NICHT verfügbar.

  • WERDEN NICHT zur Verbesserung der OpenAI-Modelle verwendet.

  • WERDEN NICHT zum Trainieren, Retrainieren oder Verbessern der Basis-Modelle des Azure OpenAI Service verwendet.

  • WERDEN NICHT zur Verbesserung von Microsoft- oder Drittprodukten oder -diensten ohne Ihre Zustimmung oder Anweisung verwendet.

  • Die angepassten Azure OpenAI-Modelle stehen ausschließlich für Ihre Nutzung zur Verfügung.

Der Azure OpenAI-Dienst wird von Microsoft als Azure-Dienst betrieben; Microsoft hostet die OpenAI-Modelle in der Azure-Umgebung von Microsoft, und der Dienst interagiert nicht mit von OpenAI betriebenen Diensten (z. B. ChatGPT oder der OpenAI-API).

Im Fall des Konversationsassistenten werden Techniken zur Automatischen Antwortgenerierung und -wiederherstellung (RAG) verwendet, die auf interner Dokumentation basieren, die von der Produktabteilung entwickelt wurde, ohne zu irgendeinem Zeitpunkt persönliche Informationen oder Daten der Kunden einzubeziehen.

  1. Wie funktioniert die KI genau innerhalb der Plattform und in welchen Prozessen wird sie angewendet?

Derzeit ist der Risiko- und Kontroll-Empfehler verfügbar, der auf die Risikoanalyse angewendet wird. Diese Funktionalität wird mit den vom Kunden anonym eingegebenen Daten vervollständigt, um die auf ihn zutreffenden Risiken und Kontrollen zu erhalten.

Zusätzlich gibt es einen übergreifenden Konversationsassistenten von GlobalSuite, der Fragen zur Nutzung der Lösung und zu regulatorischen Themen beantwortet. Diese Funktionalität wird ausschließlich mit interner Produktdokumentation gespeist.

Ein weiterer spezifischer Assistent, der sich auf die Funktionalität des Dokumentenmanagers konzentriert, ermöglicht es, eine Datei aus dem Managementsystem auszuwählen, um Abfragen dazu durchzuführen, wie z. B. eine Zusammenfassung des Inhalts anzufordern, Verbesserungsvorschläge zu machen, einen Vergleich mit einer Norm durchzuführen und mehr.

Der aktuell letzte Assistent ist der Compliance-Assistent, der sich darauf konzentriert, Abfragen und Verbesserungen zu einer zuvor in GlobalSuite® geladenen Norm durchzuführen, wodurch die Identifizierung der Anwendbarkeit bestimmter Anforderungen automatisiert, Compliance-Lücken erkannt oder Verbesserungsvorschläge gemacht werden können, um das Anpassungsniveau zu erhöhen.

  1. Woher bezieht die KI von GlobalSuite® die Informationen oder Daten, die sie für ihre Funktion und Analyse verwendet?

Es ist wichtig, den Anwendungsfall jeder der verfügbaren Funktionalitäten zu unterscheiden:

Für den Konversationsassistenten werden Techniken zur Automatischen Antwortgenerierung und -wiederherstellung (RAG) verwendet, die auf interner Dokumentation basieren, die vom Produktteam erstellt wurde.

Bezüglich des Risiko- und Kontroll-Empfehlers werden die Kontextinformationen oder -daten manuell eingegeben und vom Benutzer kontrolliert gesendet. Das System schlägt eine Liste von Risiken oder Kontrollen vor, die der Analyse hinzugefügt werden können, wobei die Entscheidung beim Benutzer liegt. Es ist jedoch wichtig zu betonen, dass diese Risiken in die Risikoanalyse und nicht in die bestehenden Kataloge aufgenommen werden. Auf diese Weise wird eine Trennung zwischen beiden Modi zur Vorschlagserstellung von Risiken und deren Verwaltung gewährleistet.

Ebenso speichert oder lernt der Motor für diesen Risiko-Empfehler nicht aus den Interaktionen mit den Benutzern. Jede Anfrage wird unabhängig verarbeitet. Somit gibt es kein Feedback oder Lernen aus den vom Benutzer eingegebenen Daten, und die bereitgestellten Antworten werden nicht von vorherigen Abfragen beeinflusst.

Für den Assistenten des Dokumentenmanagers sind die Eingabedaten das vom Benutzer ausgewählte Dokument sowie die textuell gestellten Abfragen. Diese Informationen werden für die in diesem Moment durchgeführte Abfrage verwendet, nicht im System gespeichert und können in Zukunft nicht genutzt werden.

Im Fall des Compliance-Assistenten sind die verwendeten Informationen die regulatorische Bewertung, zu der Abfragen durchgeführt werden. Konkret werden die Anforderungen, ihre Anwendbarkeit, der Erfüllungsgrad, die Begründung, die zugehörigen Kontrollen und die Nichtkonformitäten erfasst. Die Informationen werden verarbeitet und beim Zugriff auf den Assistenten gesendet und nicht für dessen Lernen verwendet.

  1. Gibt es bei der Funktionalität der KI für die Vorschläge zu Kontrollen und Risiken Einschränkungen hinsichtlich der Anzahl der durchführbaren Abfragen oder der bewertbaren Szenarien?

Derzeit wurde für diese Funktionalität eine Begrenzung implementiert, die ein Maximum von 60 Abfragen pro Unternehmen pro Monat festlegt.

  1. Gibt es bei der Funktionalität der KI für die konversationellen KI-Assistenten Einschränkungen hinsichtlich der Anzahl der durchführbaren Abfragen oder der bewertbaren Szenarien?

Der Dienst ist auf 1,5 Millionen Tokens (eine Maßeinheit für die vom KI-Motor bei jeder Verarbeitung gemessene Informationsmenge) begrenzt. Diese Tokens werden basierend auf Fragen und Antworten verbraucht, wobei ungefähr 450 Fragen und Antworten möglich sind. Dieses Token-pro-Frage-Verfahren ist nicht exakt und hängt von der Größe der Fragen und Antworten ab.

Für den Assistenten des Dokumentenmanagers gilt dieselbe Begrenzung des Dienstes auf 1,5 Millionen Tokens pro Monat, was ungefähr die Analyse und Abfrage von 100 bis 150 Dokumenten mit 20 Seiten ermöglicht.

Und im Fall des Compliance-Assistenten gilt die monatliche Begrenzung von 1,5 Millionen Tokens, die sowohl für die Eingaben (Fragen und Kontextinformationen) als auch für die Ausgaben (Antworten des Assistenten) gleichermaßen berechnet werden.

  1. Wird der Benutzer klar über die Nutzung der Künstlichen Intelligenz in GlobalSuite® informiert?

Im Sinne des Transparenzprinzips wird dem Benutzer mitgeteilt, dass jede Funktionalität von GlobalSuite®, die Künstliche Intelligenz verwendet, durch einen spezifischen Hinweis auf die Nutzung der KI informiert wird.
Ebenso ist diese Nutzung bereits in den Vertragsbedingungen geregelt, in denen der Umfang und die Art der Nutzung klar und detailliert festgelegt sind.