Das zu Amazon gehörende Unternehmen Ring steht wegen seiner neuen Funktion „Vertraute Gesichter“ in der Kritik, die künstliche Intelligenz nutzt, um Personen auf Ihrem Grundstück zu erkennen. Obwohl das Tool als eine Möglichkeit angepriesen wird, Benachrichtigungen zu personalisieren und die Sicherheit zu Hause zu erhöhen, warnen Kritiker, dass es gefährlich invasiv sein und gegen Datenschutzgesetze verstoßen könnte.
Die Kontroverse brach aus, nachdem die Electronic Frontier Foundation (EFF), eine Interessenvertretung für digitale Rechte, ernsthafte Bedenken hinsichtlich der möglichen rechtlichen Auswirkungen von Familiar Faces geäußert hatte. Die Funktion analysiert die Gesichtszüge von Personen, die mit Ring-Kameras aufgenommen wurden – ohne deren Wissen oder ausdrückliche Zustimmung. Diese Praxis widerspricht direkt den biometrischen Datenschutzgesetzen in mehreren Bundesstaaten, darunter Illinois und Texas, wo Benutzer einem solchen Scannen aktiv zustimmen müssen, bevor es dazu kommt.
Amazon behauptet, dass Benutzer die Funktion „Vertraute Gesichter“ in den App-Einstellungen deaktivieren können. Dieses Argument geht jedoch nicht auf das Kernproblem ein: Personen, die unwissentlich von einer Ring-Kamera erfasst werden, haben keine Wahl, ob ihre Gesichter gescannt und in einer Datenbank gespeichert werden sollen. Dies wirft erhebliche ethische und rechtliche Fragen zur Einwilligung nach Aufklärung im Zeitalter der allgegenwärtigen Überwachungstechnologie auf.
Um das Feuer noch weiter anzuheizen, sandte Senator Ed Markey (D-MA) Amazon einen Brief, in dem er sie aufforderte, Familiar Faces ganz aufzugeben, und verwies darauf, dass das Programm möglicherweise die Datenschutzrechte nicht einwilligender Unbeteiligter verletzen könnte, die einfach an einer Ring-Kamera vorbeigehen könnten.
Um der Debatte eine weitere Ebene hinzuzufügen, ist die Geschichte von Ring in Bezug auf die Privatsphäre der Nutzer bereits von mehreren hochkarätigen Kontroversen überschattet. Im Jahr 2023 verhängte die Federal Trade Commission eine Geldstrafe von über 5 Millionen US-Dollar gegen Ring, weil es Mitarbeitern und Auftragnehmern erlaubt hatte, privates Filmmaterial von Benutzern ohne entsprechende Genehmigung anzusehen. Dieser Vorfall folgte auf frühere Kritik an den engen Partnerschaften von Ring mit Strafverfolgungsbehörden, bei denen Benutzeraufnahmen oft ohne ausdrückliche Zustimmung oder Haftbefehl an die Polizei weitergegeben wurden.
Trotz dieser anhaltenden Bedenken bleibt Ring äußerst beliebt und verkauft landesweit Millionen seiner Video-Türklingeln und Sicherheitskameras. Das Unternehmen argumentiert, dass Funktionen wie die Gesichtserkennung zwar umstritten, aber für Kunden attraktiv sind, die mehr Sicherheit zu Hause und Schutz vor Kriminalität wünschen.
Die Antwort von Amazon auf die Anfragen der EFF unterstreicht die Abhängigkeit von Amazon von der Cloud-basierten Verarbeitung für Familiar Faces und behauptet, dass dadurch Datenschutzrisiken minimiert werden, da die Daten innerhalb der Infrastruktur von Amazon sicher bleiben. Sie bekräftigen auch die Möglichkeit der Benutzer, Profile und zugehörige biometrische Daten jederzeit zu löschen. Diese Zusicherungen tragen jedoch kaum dazu bei, die Befürchtungen darüber zu zerstreuen, wie weit verbreitete Gesichtserkennung im Alltag letztendlich die individuelle Autonomie und gesellschaftliche Normen rund um die Überwachung beeinflussen wird.
Familiar Faces veranschaulicht die komplexen ethischen Dilemmata, die sich durch die rasch fortschreitende KI-Technologie ergeben. Es zwingt uns, uns entscheidenden Fragen zu stellen: Wie viel Komfort sind wir bereit, für die Privatsphäre zu opfern? Wer trägt die Verantwortung, wenn leistungsstarke Algorithmen ohne unser volles Wissen oder unsere Zustimmung Entscheidungen über unsere persönlichen Daten treffen? Während Ring möglicherweise von erhöhten Sicherheitsfunktionen profitieren könnte, sind die langfristigen gesellschaftlichen Auswirkungen einer derart allgegenwärtigen Gesichtserkennung nach wie vor zutiefst ungeklärt.

































































