Deine KI-Brille, ein Büro in Nairobi und das System dahinter

Deine KI-Brille, ein Büro in Nairobi und das System dahinter
Symbol Bild erstellt mit Mistral AI

TLDR: Meta wird verklagt, weil Arbeiter:innen in Kenia intimes Videomaterial von Ray-Ban KI-Brillen sichten – Nacktheit, Sex, Bankdaten. Die Anonymisierung versagt regelmässig. Der Fall zeigt nicht nur ein Datenschutzproblem, sondern legt das gesamte Geschäftsmodell hinter KI-Hardware offen: billige menschliche Arbeit im Globalen Süden als Fundament für Produkte, die im Globalen Norden als "privacy-designed" vermarktet werden. Für europäische Unternehmen wird KI-Hardware damit zum Compliance-Risiko.

Die Brille, die mehr sieht als du denkst

Du setzt deine Ray-Ban Meta Glasses auf, sagst "Hey Meta" und fragst nach dem Weg zum nächsten Café. Klingt praktisch, sieht gut aus, fühlt sich an wie Zukunft. Was du in diesem Moment wahrscheinlich nicht weisst: Dein Video kann auf einem Bildschirm in Nairobi landen. Dort sitzt jemand, der es sich anschaut, beschriftet und in eine Datenbank einordnet – damit die KI beim nächsten Mal besser antwortet.

Dieses Szenario ist keine dystopische Spekulation. Es ist die dokumentierte Realität, die schwedische Journalist:innen von Svenska Dagbladet und Göteborgs-Posten im Februar 2026 enthüllten. Ihre gemeinsame Recherche führte sie nach Nairobi, wo sie mit Datenannotator:innen bei Sama sprachen – einem Subunternehmen, das für Meta KI-Trainingsdaten aufbereitet.

Was die Arbeiter:innen sehen

Die Berichte der Sama-Mitarbeiter:innen zeichnen ein verstörendes Bild. Sie beschreiben Videos von Menschen auf der Toilette, beim Umziehen, beim Sex. Sie sehen Bankkartendetails, private Chatnachrichten und medizinische Informationen. Ein Annotator erzählte den schwedischen Journalist:innen von einem Video, in dem ein Mann die Brille auf den Nachttisch legt und den Raum verlässt – kurz darauf kommt seine Frau herein und zieht sich um.

Die Arbeiter:innen sind sich bewusst, dass die gefilmten Personen keine Ahnung haben. "Ich glaube nicht, dass sie es wissen, denn wenn sie es wüssten, würden sie nicht aufnehmen" – so fasste ein Mitarbeiter das Kernproblem zusammen. Meta hatte versprochen, Gesichter automatisch unkenntlich zu machen. Doch die Anonymisierungstechnik versagt laut Berichten regelmässig, besonders bei schwierigen Lichtverhältnissen.

7 Millionen verkaufte Brillen, eine Klage

Die Dimensionen sind erheblich. Meta verkaufte 2025 rund 7 Millionen Paar der Smart Glasses – gegenüber insgesamt 2 Millionen in den beiden Vorjahren. Am 5. März 2026 reichten Gina Bartone aus New Jersey und Mateo Canu aus Kalifornien eine Sammelklage ein. Die Kanzlei Clarkson Law Firm klagt im Namen aller US-Käufer:innen. Der Vorwurf: Meta hat die Brille als "designed for privacy, controlled by you" vermarktet, während in Wahrheit eine Offshore-Datenpipeline existiert, die intime Momente zu menschlichen Reviewer:innen in Kenia weiterleitet.

Auch der Brillenhersteller Luxottica (EssilorLuxottica) ist als Beklagter benannt. Meta reagierte mit einem Verweis auf seine Datenschutzrichtlinie, die eine menschliche Überprüfung erwähnt – allerdings tief vergraben in den Nutzungsbedingungen und ohne Angabe, wo diese stattfindet.

Das System hinter dem Skandal

Was den Meta-Fall von einem gewöhnlichen Datenschutzvorfall unterscheidet, ist das System, das er offenlegt. Die Datenannotation – also das manuelle Beschriften, Kategorisieren und Überprüfen von Daten durch Menschen – ist das unsichtbare Fundament der gesamten KI-Industrie. Ohne diese Arbeit können Bilderkennung, Sprachassistenten und generative KI-Modelle nicht funktionieren.

Sama (ehemals Samasource) ist ein wichtiger Akteur in diesem Ökosystem. Das Unternehmen bietet Datenannotationsdienste für grosse Tech-Konzerne, darunter Meta und OpenAI. Es ist als B Corp zertifiziert und Teil der Clinton Global Initiative. Gleichzeitig war es Gegenstand von Arbeitsklagen: Über 140 ehemalige Facebook-Content-Moderator:innen bei Sama wurden mit PTSD diagnostiziert. Ein südafrikanischer Ex-Mitarbeiter, Daniel Motaung, verklagte Meta und Sama wegen der psychischen Belastung durch traumatisches Bildmaterial – der Fall ist vor Kenias Arbeits- und Beschäftigungsgericht noch hängig.

Die Arbeiter:innen bei Sama beschreiben strenge Überwachung: Kameras überall, keine persönlichen Handys, tägliche Quoten. Es ist dasselbe Muster wie bei der Content-Moderation – nur dass jetzt statt verstörender Social-Media-Posts intime Videos aus westlichen Schlafzimmern auf den Bildschirmen landen.

Europa zwischen Regulierung und Realität

Die europäische Antwort auf Metas Datenpraktiken ist vielschichtig. Die britische Datenschutzbehörde ICO hat eine formelle Untersuchung eingeleitet. In Kenia fordert die Organisation Oversight Labs den nationalen Datenschutzbeauftragten auf, die Datenverarbeitung zu prüfen.

Parallel läuft der Konflikt um Metas KI-Training mit EU-Nutzerdaten. NOYB (None Of Your Business) hat Meta im Mai 2025 abgemahnt, weil der Konzern ab dem 27. Mai 2025 öffentliche Facebook- und Instagram-Beiträge in der EU zum KI-Training nutzen wollte – per Opt-out statt Opt-in. NOYB-Gründer Max Schrems argumentiert: Wenn der Europäische Gerichtshof Meta bereits untersagt hat, "berechtigtes Interesse" für gezielte Werbung zu beanspruchen, dann kann derselbe Rechtsgrund für KI-Training erst recht nicht gelten.

Die Drohkulisse ist beachtlich: NOYB spricht von möglichen Schadensersatzforderungen von bis zu 200 Milliarden Euro und warnt, dass bei einer Vermischung von EU- und Nicht-EU-Daten im Training das gesamte KI-Modell gelöscht werden müsste. Die irische Datenschutzkommission hat Metas Vorgehen zwar grundsätzlich gebilligt, doch andere EU-Behörden und Gerichte könnten anders entscheiden.

Kein Angemessenheitsbeschluss für Kenia

Ein technisches, aber wichtiges Detail: Für Kenia existiert kein EU-Angemessenheitsbeschluss zum Datenschutz. Gespräche zwischen der EU und Kenia begannen erst im Mai 2024. Metas Datenschutzrichtlinie erklärt schlicht, Nutzerdaten würden weltweit übertragen, weil Meta global operiert. Für DSGVO-konforme Unternehmen in Europa ist das eine rote Flagge: Wenn du KI-Hardware einsetzt, deren Daten ohne angemessene Schutzgarantien in Drittstaaten verarbeitet werden, trägst du als Unternehmen Mitverantwortung.

Datenschutzanwältin Kleanthi Sardeli von NOYB bringt es auf den Punkt: Sobald das Material in die Modelle eingespeist wurde, verliert die Nutzer:in praktisch die Kontrolle darüber, wie es verwendet wird. Und Petter Flink, ein Sicherheitsspezialist der schwedischen Datenschutzbehörde, ergänzt: Die Nutzer:in hat wirklich keine Ahnung, was hinter den Kulissen passiert.

Der EU AI Act als Katalysator

Ab August 2026 wird der EU AI Act in weiten Teilen anwendbar. Er verlangt für Hochrisiko-KI-Systeme umfassende Risikobewertungen, Qualitätsmanagement, menschliche Aufsicht und Transparenz. Die Transparenzregeln greifen ebenfalls ab August 2026. Für KI-Hardware mit dauerhafter Kamerafunktion, Cloud-Verarbeitung und menschlicher Überprüfungspipeline stellt sich die ernsthafte Frage, ob solche Systeme nicht unter die verschärften Anforderungen fallen.

Ein Urteil gegen Meta könnte Designvorgaben für die gesamte KI-Hardware-Branche in der EU setzen: klarere Aufnahmeindikatoren, stärkere On-Device-Verarbeitung, standardmässige Löschung und explizite Einwilligungsabläufe. Das wäre nicht nur ein Datenschutzthema, sondern ein Produktdesign-Thema.

Was das für dein Unternehmen bedeutet

Für Unternehmen in der DACH-Region ist der Meta-Fall ein Weckruf. KI-Hardware ist kein IT-Gadget, sondern ein potenzielles Compliance-Risiko. Wer KI-Brillen, smarte Kameras oder andere KI-Geräte im Unternehmen einsetzt, sollte drei Fragen beantworten können:

Erstens: Wohin fliessen die Daten? Unabhängige Tests der schwedischen Journalist:innen zeigten, dass die Meta-Brillen trotz anderslautender Aussagen in Optiker:innengeschäften ständig mit Meta-Servern kommunizieren. Paketanalysen ergaben kontinuierlichen Datenverkehr mit Servern in Schweden und Dänemark.

Zweitens: Wer ist mitbetroffen? Die Einwilligung der Brillenträger:innen erstreckt sich nicht auf gefilmte Dritte – ob Kund:innen, Kolleg:innen oder Familienmitglieder. Das ist ein fundamentales Problem unter der DSGVO.

Drittens: Bist du auf den EU AI Act vorbereitet? Ab August 2026 müssen Unternehmen ihre KI-Systeme inventarisieren, Risikoklassifizierungen vornehmen und für Hochrisiko-Systeme umfangreiche Dokumentation bereithalten.

Der Fall Meta zeigt: Die glänzende Oberfläche der KI-Hardware verbirgt eine Wertschöpfungskette, die von Nairobi bis nach Cupertino, Menlo Park und Zürich reicht. Wer diese Kette nicht versteht, kann sie auch nicht verantwortungsvoll managen.


Die wichtigsten Punkte auf einen Blick

  1. Schwedische Investigativrecherchen haben aufgedeckt, dass Sama-Arbeiter:innen in Nairobi intimes Videomaterial von Meta Ray-Ban KI-Brillen manuell sichten – darunter Nacktheit, Sex und Bankdaten.
  2. Meta verkaufte 2025 rund 7 Millionen Smart Glasses und bewirbt sie als "privacy-designed." Eine US-Sammelklage spricht von irreführender Werbung.
  3. Die Anonymisierung von Gesichtern funktioniert nicht zuverlässig. Verkaufspersonal kennt die Datenpraktiken oft nicht.
  4. Sama, Metas Subunternehmen, hat eine Vorgeschichte: Über 140 ehemalige Content-Moderator:innen wurden mit PTSD diagnostiziert.
  5. Für Kenia existiert kein EU-Angemessenheitsbeschluss – die Datenübermittlung ist unter DSGVO-Gesichtspunkten problematisch.
  6. NOYB droht Meta mit einer europäischen Sammelklage über bis zu 200 Milliarden Euro wegen KI-Training mit EU-Daten ohne Opt-in.
  7. Der EU AI Act wird ab August 2026 verschärfte Transparenz- und Compliance-Anforderungen stellen – KI-Hardware wird zum Regulierungsthema.

Disclaimer: dieser Artikel wurde nach meinem eigenen Wissen und dann mit Recherchen mit KI (Perplexity.Ai und Gemini.Google.com) manuell zusammen gestellt und mit Deepl.com/write vereinfacht. Der Text wird dann nochmals von zwei Personen meiner Wahl gelesen und kritisch hinterfragt. Das Bild stammt von einem KI Programm (Ideogram oder Adobe Firefly) und ist selbst erstellt. Dieser Artikel ist rein edukativ und erhebt keinen Anspruch auf Vollständigkeit. Bitte melde dich, wenn Du Ungenauigkeiten feststellst, danke.

Fragen zu KI und Digitalen Geschäftsmodellen? #fragRoger

Willst du mehr wissen? Sehr gerne komme ich auch bei Dir, bei deiner Firma, deiner ERFA Gruppe oder deinem Verband vorbei und helfe mit einem Workshop oder Input Referat: www.rogerbasler.ch

Lass uns gerne mal unverbindlich sprechen. Also wenn ich helfen kann, wende dich gerne an mich #fragRoger und abonnier meinen offiziellen Newsletter: www.FragRoger.social


Quellen:

Clarkson Law Firm. (2026, 5. März). Class action complaint: Bartone & Canu v. Meta Platforms, Inc. et al. United States District Court, Northern District of California.

Courthouse News Service. (2026, 5. März). Consumers claim Meta misleads them about privacy of AI smart glasses. https://www.courthousenews.com/consumers-claim-meta-misleads-them-about-privacy-of-ai-smart-glasses/

European Commission. (2024). Regulation (EU) 2024/1689 laying down harmonised rules on artificial intelligence (AI Act). Official Journal of the European Union.

Futurism. (2026, 3. März). Why Meta is letting its workers watch users' intimate videos from Ray-Ban smart glasses. https://futurism.com/artificial-intelligence/meta-disturbing-smart-glasses

Help Net Security. (2026, 5. März). Workers reviewing Meta Ray-Ban footage encounter users' intimate moments. https://www.helpnetsecurity.com/2026/03/05/meta-ray-ban-smart-glasses-privacy-risks/

MyNorthwest. (2026, 4. März). If you own Meta Ray-Ban glasses, a stranger in Kenya may have watched you undress. https://mynorthwest.com/technology/meta-ray-ban-glasses-privacy/4212124

NOYB – None Of Your Business. (2025, 14. Mai). noyb sends Meta 'cease and desist' letter over AI training. European class action as potential next step. https://noyb.eu/en/noyb-sends-meta-cease-and-desist-letter-over-ai-training-european-class-action-potential-next-step

Svenska Dagbladet & Göteborgs-Posten. (2026, 27. Februar). Joint investigation: Meta Ray-Ban smart glasses data annotation practices in Kenya.

TechCabal. (2026, 4. März). Kenyan workers say Meta Ray-Ban AI glasses expose intimate moments. https://techcabal.com/2026/03/04/kenya-meta-ray-ban-ai-intimate-moments/

TechCabal. (2026, 6. März). Kenya's data regulator asked to probe Meta's smart glasses footage. https://techcabal.com/2026/03/06/kenyan-watchdog-asks-regulator-to-probe-meta-ai-glasses/

TechCrunch. (2026, 5. März). Meta sued over AI smartglasses privacy concerns after workers reviewed nudity, sex, and other footage. https://techcrunch.com/2026/03/05/meta-sued-over-ai-smartglasses-privacy-concerns-after-workers-reviewed-nudity-sex-and-other-footage/

The Decoder. (2026, 4. März). Meta sends private AI glasses footage to Kenya with few safeguards. https://the-decoder.com/meta-sends-private-ai-glasses-footage-to-kenya-with-few-safeguards-and-europes-privacy-regulators-may-come-knocking/

WinBuzzer. (2026, 5. März). Meta sued over AI smart glasses privacy: Workers reviewed intimate footage. https://winbuzzer.com/2026/03/05/meta-sued-ai-smart-glasses-privacy-workers-intimate-footage-xcxwbn/

Read more

Gesichtserkennung durch KI: Segen oder Überwachungsfluch?

Gesichtserkennung durch KI: Segen oder Überwachungsfluch?

TLDR: KI-gestützte Gesichtserkennung breitet sich extrem schnell aus, von chinesischer Massenüberwachung, Grenzkontrollen bis zur Smartphone-Entsperrung. Die Technologie verspricht zwar erhöhte Sicherheit und Effizienz, birgt jedoch erhebliche Risiken für Privatsphäre und Bürgerrechte. Trotz Versuchen, die Entwicklung in Europa zu regulieren, schreitet sie unaufhaltsam voran, mit potenziell negativen Folgen für unsere Gesellschaft.

By Roger Basler de Roca