Datenschutz bei ChatGPT und anderer KI

Welcoming electronic cyborg robot with white tab screen

Mit neuen Entwicklungen und technischen Fortschritten stellen sich immer auch neue Fragen zum Datenschutz. Die jüngste Entwicklung ist der Aufstieg der künstlichen Intelligenz, befeuert durch ChatGPT, einem Chatbot, der bereits von Millionen von Menschen verwendet wird und sich fest im Alltag vieler Leute verankert hat. Auch für Unternehmen gibt es sinnvolle Verwendungen von ChatGPT. Aber wie steht es eigentlich um den Datenschutz bei der Verwendung einer KI?

ChatGPT und die Probleme mit dem Datenschutz

Die Datenschutz-Grundverordnung (DSGVO) ist uns mittlerweile bestens bekannt. Wir erwähnen sie hier immer wieder, weil sie die Vorgaben für die Einhaltung der Datenschutzrichtlinien beim Umgang mit personenbezogenen Daten liefert.

Das Problem: ChatGPT gilt als eine Art Blackbox, beim Umgang mit personenbezogenen Daten. Das bedeutet, dass nicht genau geklärt ist, was die künstliche Intelligenz eigentlich mit Daten anstellt, die sie von den Usern bekommt.

ChatGPT wurde von OpenAI entwickelt und veröffentlicht. OpenAI hat zwar Datenschutzrichtlinien für seine KI angegeben, aber ganz sicher ist die Verarbeitung der Daten nicht. Derzeit ist GPT-4 die aktuelle Version, sie unterscheidet sich aber datenschutzrechtlich nicht von der Vorgängerversion. Deshalb ist OpenAI uns weiterhin einige Antworten schuldig.

Ein Beispiel: Wenn ich meine Anschrift an die KI weitergebe, speichert die KI diese dann irgendwo? ChatGPT erhält die Informationen für die Antworten durch frei verfügbare Texte im Internet und Eingaben von Personen und Unternehmen, mit denen sie trainiert wird.

Man kann also nicht ausschließen, dass dabei auch personenbezogene Daten verarbeitet werden. Ist das der Fall, kann die KI diese auf Anfrage herausgeben, denn ChatGPT hat als künstliche Intelligenz kein moralisches Gewissen oder einen Sinn für „richtig“ und „falsch“. Sie antwortet auf unsere Fragen. Das ist ihre einzige Aufgabe und die erfüllt sie.

In Italien hat das zu einem drastischen Schritt geführt, der auch in anderen Ländern wie beispielsweise Deutschland seine Spuren hinterlassen könnte.

Verbot von ChatGPT in Italien

Die italienische Datenschutzbehörde hatte ChatGPT vorübergehend gesperrt. Dieser Schritt erfolgte aufgrund einer fehlenden Rechtsgrundlage. Für die Sammlung von Nutzerdaten aus Unterhaltungen mit einer KI gab es bis dato kein Gesetz und User konnten sich dementsprechend nicht informieren.

Als es dann noch zu einer Datenpanne kam, bei der sowohl die Daten aus Unterhaltungen mit ChatGPT als auch Zahlungsinformationen eine Rolle spielten, sperrte die Behörde die Verwendung des Chatbots in Italien erstmal.

Die Behörde stellte OpenAI eine Frist, um bestimmte Maßnahmen umzusetzen, damit ChatGPT in Italien wieder erlaubt wurde. OpenAI setzte diese Maßnahmen um. Darunter:

  • Hinweise zur Datenverarbeitung der künstlichen Intelligenz
  • Einführung einer Rechtsgrundlage, die die Einwilligung der User erfordert
  • Vorkehrungen für die Löschung von Daten auf Anfrage treffen

Außerdem soll noch eine Alterskontrolle folgen und OpenAI wird in einer Informationskampagne die italienische Bevölkerung über die Datenverarbeitung zum Zwecke des Trainings der KI aufklären.

Das alles hat auch mögliche Auswirkungen auf die Verwendung des Chatbots in Deutschland. Deutsche Datenschutzbeauftragte sind nämlich ebenfalls skeptisch, was die Sicherheit der Daten bei der Verwendung von ChatGPT und KI im Allgemeinen angeht.

Deshalb gibt es Pläne für eine datenschutzrechtliche Prüfung von ChatGPT. Das könnte mit weiteren Auflagen einhergehen, die OpenAI erfüllen muss. An ein Verbot von ChatGPT in Deutschland denkt dabei aber niemand und es wird von Regierungsseite ausgeschlossen.

Und das ist auch gut so, denn die ersten Unternehmen verwenden ChatGPT bereits in ihren Abläufen und Strukturen und ein Verbot würde zu Schwierigkeiten führen. Statt also mit einem Verbot zu drohen, versucht man in Deutschland eher nach möglichen Lösungen zu suchen, die den Datenschutz gewährleisten.

Dabei stellen sich allerdings noch gewisse Probleme, da wichtige Informationen fehlen, die eigentlich fest verankert im Datenschutz und auch Urheberrecht sind. So gibt ChatGPT beispielsweise keine Datenquellen an, was bedeutet, dass die Anwender nicht wissen, woher die Informationen stammen. Das ist vor allem für die Weiterverwendung ein Problem.

Auch ist bisher nicht eindeutig geklärt, wie die Algorithmen der Datenverarbeitung funktionieren und ob Daten aus kommerziellen Gründen an Dritte weitergegeben werden.

Fazit

ChatGPT und künstliche Intelligenz insgesamt kommen gerade in unserem Alltag an. Deshalb gibt es noch einige Unklarheiten, was die Gesetze, Rechte und Richtlinien bei der Verwendung angeht. Sowohl für die User als auch für die Entwickler.

Da bisher eher unklar ist, wie genau künstliche Intelligenz Daten verarbeitet, ist es generell ratsam, personenbezogene Daten für sich zu behalten. Sowohl die KI als auch die Nutzer müssen schließlich nicht alles wissen.