Veröffentlicht in: Bigdata-Insider 03/2025
Copilot als Bestandteil von Microsoft 365
KI kann fast alles, und das einfach – dieser Eindruck kann angesichts der Begeisterung rund um Generative AI entstehen. ChatGPT, Gemini und Co. haben für eine Euphorie gesorgt, die längst über Spielereien und Hausaufgaben-„Hilfen“ für Schüler hinausgeht. Copilot als integraler Bestandteil von Microsoft 365 ist ein konsequenter Schritt, Generative AI auf breiter Basis in den Unternehmensalltag zu integrieren. Damit können Mitarbeitende nach eigenen Vorstellungen und Ideen KI für ihre Produktivität nutzen. Das schafft allerdings einerseits mehr und neue Herausforderungen hinsichtlich Governance und Compliance, andererseits aber auch die Möglichkeit, viele dieser Faktoren zentral zu steuern. Drei Faktoren wollen dabei intensiv durchdacht und geregelt werden.
Die Datengrundlage: Woher, wohin, wie gut?
Die Datengrundlage von Microsoft Copilot ist vielfältig. Zum einen greift die KI auf ChatGPT zu – und diese Anwendung wiederum bezieht ihre Daten aus dem Internet und aus Lizenzdatenbanken. Darüber hinaus wird die Suchmaschine Bing verwendet, um aktuelle Daten aus dem Internet zu erhalten. Wobei es hier momentan Kritik an der Vielfältigkeit der genutzten Quellen aufgrund von Partnerschaften gibt. Und schließlich werden die Daten des eigenen Unternehmens verwendet. Die mit Copilot zusammenarbeitende Applikation Microsoft Graph wertet dazu auch Daten der Nutzer aus dem Unternehmen aus. In der Summe birgt das eine ganze Reihe von potenziellen Problemen.
Die Grundsätze von Datentrennung und Datensparsamkeit, wie sie die DSGVO fordert, werden nicht eingehalten.
Die Qualität einer Antwort kann mangels nachweislicher Datenqualität der Ausgangsinformationen und wegen fehlender oder fehlerhafter Quellenangaben nicht sicher beurteilt werden. Wer solche, möglicherweise falsche, Informationen weiterverwendet, ohne sie vorher genauestens zu prüfen, setzt sich damit unter Umständen der Haftung aus.
Immerhin sichert Microsoft seit Neuestem auch in den Produktbedingungen den Kunden mit Business-/Enterprise-Verträgen zu, die Unternehmensdaten und auch die sogenannten Prompts – also die Anfragen an die KI – nur im Rahmen der vertraglichen Verpflichtungen von Microsoft 365 zu verarbeiten und zu speichern. Insbesondere sollen die Daten nicht (mehr) für das Training der Sprachmodelle genutzt werden, auf denen Copilot beruht. Diese nunmehr rechtlich verbindliche Zusicherung hat für positive Rückmeldungen aus der Reihe der Datenschützer gesorgt.
Die Webqueries werden jedoch weiterhin über Bing verarbeitet; und da die Suchmaschine nicht Teil der EU-Boundary ist, werden sie damit zumindest in die USA zur Verarbeitung geleitet – aber eben nicht mehr zu Trainingszwecken.
Das Urheberrecht: Weiterverwenden oder nicht?
Nach deutschem Urheberrecht ist eine Antwort von Copilot kein eigenes urheberrechtlich geschütztes Werk. Das können nur von Menschen geschaffene Inhalte wie Texte oder Bilder sein. Dennoch sind möglicherweise in den Antworten urheberrechtlich geschützte Informationen – unverändert oder verändert – enthalten. Diese dürfen nicht ohne Weiteres weiterverwendet werden. Die Tatsache, dass der Anwender in einem solchen Fall eventuell Ansprüche gegen Microsoft selbst erheben könnte, macht die Sache nicht einfacher.
Vorsicht ist übrigens auch dann angeraten, wenn in einem eigenen Prompt urheberrechtlich geschützte Materialien verwendet werden. Denn für eine eigene Verarbeitung wird der Anwender in der Regel nicht die erforderlichen Rechte besitzen.
Und Nutzer und Verantwortliche sollten ein besonders scharfes Auge darauf haben, dass Copilot nicht aus Versehen auf Grundlage der oben genannten Unternehmens- oder Nutzerdaten Geschäftsgeheimnisse oder Nutzerdaten ausplaudert.
Datenschutz: Diesseits oder jenseits des Teiches?
Als US-amerikanischer Anbieter überträgt Microsoft potenziell Daten in die USA, was vor einer ersten Anwendung von Copilot zu klären ist. Wie die KI dann mit eingegebenen und zu verarbeitenden Daten umgeht, wäre in einem zweiten Schritt zu betrachten.
Zwar verspricht Microsoft, bei Nutzung der EU-Datengrenze (EU-Boundary) die Kunden- und personenbezogenen Daten in der EU zu belassen. Derzeit gilt das jedoch nicht für einen Teil der Entra-Verzeichnisdaten, Fernzugriffe z. B. zu Support-Zwecken und auch nicht für pseudonymisierte personenbezogene und Professional-Services-Daten zur Aufrechterhaltung der Dienstequalität, statistische Zwecke oder Verwaltung der Dienste. Das kann auch dann gegeben sein, wenn ein an sich unpersönlicher Prompt mit einer IP-Adresse oder sogar einem Nutzernamen verknüpft wird. Der eigentlich versprochene Support aus Europa wird in der derzeitigen Version der Produktbedingungen nicht mehr erwähnt.
Das ist gerade im Zusammenhang mit der derzeitigen politischen Lage in den USA nicht zu unterschätzen. Auch wenn sich Microsoft in der Vergangenheit gegen eine Einmischung der US-amerikanischen Behörden in die Datenhaltung des Konzerns häufig zur Wehr gesetzt hat, so darf nicht vergessen werden, dass dennoch eine Bindung an die dortigen Gesetze – und auch präsidentiellen Erlasse – gegeben ist. Das derzeit mehr als wacklige Datenschutzabkommen zwischen der EU und den USA sollte in dieser Hinsicht ebenfalls nicht ignoriert werden.
Letztlich ist in jedem Fall vor dem Einsatz von Copilot eine Datenschutzfolgeabschätzung durchzuführen, wobei insbesondere die Möglichkeit des Internetzugangs von Copilot zu untersuchen und zu bewerten ist. Durch einen solchen Zugang ist nicht auszuschließen, dass Unternehmensdaten auch weltweit verarbeitet werden. Dies kann bereits durch die Eingabe eines Prompts mit Unternehmensdaten passieren.
Auch Daten, die der User selbst eingibt, können personenbezogen sein – die des Anfragenden (zumindest in Form einer IP-Adresse), aber auch die von in den Useranfragen genannten Dritten. Dies entweder auf eine rechtlich zulässige Basis zu stellen oder, falls dies nicht möglich ist, eben zu verhindern, ist Sache des Unternehmens selbst: In internen und verbindlichen Nutzungsrichtlinien sollte festgelegt werden, welche Art von Daten wie verwendet werden dürfen. Und natürlich, wie insbesondere mit personenbezogenen Daten umzugehen ist.
Fazit:
Wie nie zuvor im Bereich der IT ist Generative AI und damit auch Microsoft Copilot ständig im Wandel. Die Compliance-Richtlinie von gestern kann heute bereits wieder irrelevant oder ungenügend sein – gerade in der derzeitigen unruhigen politischen Lage. Das gilt ganz besonders für regulierte Branchen wie Banken und Versicherungen, denen Microsoft immerhin die Möglichkeit bietet, Zusatzvereinbarungen für Finanzdienstleister abzuschließen, um weitere regulatorische Lücken zu schließen. Allerdings bleibt eine kontinuierliche Überwachung und Auswertung auch weiterhin absolut unverzichtbar.