Smart Glasses am Arbeitsplatz und Aufsichtspraxis - Externer Datenschutzbeauftragter Aachen | Ingo Goblirsch LL.M. | 20+ Jahre Erfahrung

Liebe Leserinnen und Leser,

wie bereits in Teil 1 erläutert, bringt das Tragen von Smart Glasses nicht nur im Arbeitsalltag, sondern auch im allgemeinen Leben erhebliche datenschutzrechtliche Problematiken mit sich. Die laufende behördliche Prüfung bestätigt die im ersten Teil dargestellten strukturellen Probleme nun auch aus Sicht der Aufsichtspraxis.

Ein aktuelles Beispiel liefert die Untersuchung des Hamburgischen Beauftragten für Datenschutz und Informationsfreiheit (HmbBfDI) zur Ray-Ban Meta KI-Brille. Seit Sommer 2025 wird das Gerät umfassend auf seine datenschutzrechtlichen Implikationen hin überprüft. Ziel ist es, insbesondere die technische Funktionsweise, die Erkennbarkeit von Aufnahmen sowie die tatsächliche Einhaltung datenschutzrechtlicher Vorgaben im Alltag zu bewerten. Die Untersuchung ist derzeit noch nicht abgeschlossen; mit den Ergebnissen wird im Jahr 2026 gerechnet.

Doch wo genau liegt das Problem?

Smart Glasses am Arbeitsplatz - Externer Datenschutzbeauftragter Aachen | Ingo Goblirsch LL.M. | 20+ Jahre Erfahrung

Liebe Leserinnen und Leser,

die zunehmende Verbreitung von Smart Glasses bringt nicht nur technologische Innovationen, sondern auch erhebliche datenschutzrechtliche Herausforderungen mit sich. Insbesondere im Arbeitsumfeld stellen diese Geräte ein erhebliches Risiko für die Rechte von Beschäftigten und Dritten dar. Eine nähere Betrachtung zeigt, dass ihr Einsatz rechtlich nur schwer vertretbar ist.

Doch was sind diese Smart Glasses eigentlich?

Smart Glasses sind tragbare Geräte, die wie herkömmliche Brillen aussehen, jedoch mit umfangreicher Technik ausgestattet sind. Sie verfügen über Funktionen, die denen eines Smartphones ähneln, etwa die Aufnahme von Fotos, Videos und Ton sowie die Nutzung von Sprachbefehlen. Was zunächst praktisch erscheint, birgt jedoch erhebliche Probleme und rechtliche Risiken.

Ein zentrales Problem liegt darin, dass Aufnahmen unbemerkt erfolgen können. Bereits die bloße Möglichkeit solcher Aufzeichnungen erzeugt einen Überwachungsdruck. Mitarbeitende sowie Dritte werden dadurch in ihren Persönlichkeitsrechten beeinträchtigt. Hinzu kommt die mangelhafte Nachvollziehbarkeit der Datenverarbeitung: Betroffene Personen können weder erkennen, wann Aufnahmen erfolgen, noch wie lange diese gespeichert werden oder ob und an wen sie weitergeleitet werden.

Google reCAPTCHA - Externer Datenschutzbeauftragter Aachen | Ingo Goblirsch LL.M. | 20+ Jahre Erfahrung

Liebe Leserinnen und Leser,

haben Sie auch in den letzten Tagen eine solche E-mail von Google erhalten?

We’re writing to let you know that we’ll be changing how we handle your data submitted to our reCAPTCHA service.

Starting on April 2, 2026, we’ll be switching from acting as a data controller, determining how personal data submitted to reCAPTCHA may be used, to a data processor, processing the data strictly for your use in the reCAPTCHA service. This change enables you to have greater control over how your data is used.

We’ve provided a summary of the timeline and the steps needed to prepare for this change.

Entgegen der Ankündigung gibt es nachfolgend in der E-Mail von Google leider kaum informationen darüber, wie mit dieser Ankündigung von Google umgegangen werden soll. Sie ist zwar rechtlich relevant, jedoch operativ ziemlich dünn.

Doch zuerst einmal zu den Hard Facts: Bislang war Google bei reCAPTCHA (teilweise) Verantwortlicher nach Art. 4 Nr. 7 DSGVO. Ab 2. April 2026 kündigt Google nun an, nur noch Auftragsverarbeiter für seinen Dienst ReCaptcha zu sein (Art. 4 Nr. 8 DSGVO).

DSFA bei KI-Einsatz - Externer Datenschutzbeauftragter Aachen | Ingo Goblirsch LL.M. | 20+ Jahre Erfahrung

Liebe Leserinnen und Leser,

mit dem zunehmenden Einsatz von KI-Tools wie ChatGPT oder Microsoft Copilot steigt der regulatorische Druck auf Unternehmen deutlich an. Die Systeme versprechen Effizienzgewinne, Automatisierung und neue Geschäftsmodelle, gleichzeitig bringen sie erhebliche datenschutzrechtliche Herausforderungen mit sich. Wer KI-Anwendungen im Unternehmen einsetzt, sollte sich daher frühzeitig mit der Frage befassen, ob eine Datenschutz-Folgenabschätzung (DSFA) erforderlich ist.

Vorab: Eine DSFA ist eine vertiefte Risikoprüfung, die vor bestimmten Verarbeitungen personenbezogener Daten durchgeführt werden muss. Ihr Zweck besteht darin, Risiken für die Rechte und Freiheiten natürlicher Personen systematisch zu identifizieren, zu bewerten und durch geeignete Maßnahmen zu minimieren. Sie ist damit ein zentrales Instrument präventiver Datenschutz-Compliance.

Wann muss ich eine DSFA durchführen?

Ob eine DSFA durchzuführen ist, ergibt sich aus Art. 35 Abs. 1 Satz 1 DSGVO. Danach ist eine DSFA erforderlich, wenn der Einsatz eines KI-Tools voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat.

Externer Datenschutzbeauftragter Aachen | Ingo Goblirsch LL.M. | 20+ Jahre Erfahrung

Liebe Leserinnen und Leser,


anlässlich der anstehenden Kommunalwahlen in Aachen möchten wir auf ein Thema aufmerksam machen, das eine zentrale Rolle im modernen Wahlkampf spielt: Microtargeting.
Was verbirgt sich dahinter, wie funktioniert es und wann ist es rechtlich zulässig?

Doch was ist Microtargeting eigentlich?
Microtargeting ist eine Marketing- und Kommunikationstechnik, die dafür genutzt wird, spezifische Zielgruppen mit personalisierten Botschaften anzusprechen. Sie basiert auf einer Analyse von großen Datenmengen, um Informationen über das Verhalten, sowie Vorlieben, demografische Merkmale sowie auch die Interessen einzelner Personen oder Gruppen herauszukristallisieren.
Microtargeting wird daher gerne in der Politik eingesetzt. Parteien nutzen dies, um potenzielle Wähler mit zugeschnittenen politischen Botschaften unter anderem über Social Media zu erreichen.