Twarze w pobliżu: wygoda dzięki sztucznej inteligencji czy naruszenie prywatności?
Należąca do Amazona firma Ring została zbadana pod kątem nowej funkcji Nearby Faces, która wykorzystuje sztuczną inteligencję do rozpoznawania osób w Twojej okolicy. Choć jest reklamowana jako sposób na personalizację powiadomień i poprawę bezpieczeństwa w domu, krytycy ostrzegają, że może to stanowić niebezpieczne naruszenie prywatności i naruszać przepisy dotyczące prywatności.
Kontrowersje wybuchły po tym, jak organizacja zajmująca się prawami cyfrowymi Electronic Frontier Foundation (EFF) wyraziła poważne obawy dotyczące potencjalnych konsekwencji prawnych dotyczących osób w pobliżu. Funkcja działa na zasadzie analizy rysów twarzy osób uchwyconych kamerami Ring – bez ich wiedzy i wyraźnej zgody. Praktyka ta stoi w bezpośredniej sprzeczności z przepisami dotyczącymi prywatności biometrycznej obowiązującymi w kilku stanach, w tym w Illinois i Teksasie, gdzie użytkownicy muszą wyraźnie wyrazić zgodę na takie skanowanie, zanim będzie ono mogło się rozpocząć.
Amazon twierdzi, że użytkownicy mogą zrezygnować z funkcji Pobliskie twarze w ustawieniach aplikacji. Argument ten nie odnosi się jednak do zasadniczej kwestii: osoby przypadkowo uchwycone przez kamerę pierścieniową nie mają możliwości wyboru, czy ich twarz zostanie zeskanowana i zapisana w bazie danych. Rodzi to ważne pytania etyczne i prawne dotyczące koncepcji świadomej zgody w epoce wszechobecnej technologii nadzoru.
Jeszcze bardziej podsycając debatę, senator Ed Markey (D-MA) wysłał list do Amazona, żądając całkowitego wycofania funkcji Faces Nearby, powołując się na potencjalne naruszenie przez nią praw do prywatności bezinteresownych stron, które mogłyby po prostu przejść obok kamery Ring.
Dodając kolejny poziom do dyskusji, historia Ringa dotycząca prywatności użytkowników została już naznaczona wieloma głośnymi skandalami. W 2023 roku Federalna Komisja Handlu nałożyła na firmę Ring grzywnę w wysokości ponad 5 milionów dolarów za umożliwienie pracownikom i kontrahentom oglądania prywatnych filmów użytkowników bez odpowiedniego zezwolenia. Incydent ten jest następstwem wcześniejszej krytyki bliskiej współpracy firmy Ring z organami ścigania, często polegającej na udostępnianiu policji danych użytkowników bez wyraźnej zgody lub nakazu.
Pomimo tych ciągłych obaw Ring pozostaje niezwykle popularną firmą, sprzedając miliony swoich wideodomofonów i systemów bezpieczeństwa w całym kraju. Firma twierdzi, że funkcje takie jak rozpoznawanie twarzy, choć kontrowersyjne, są atrakcyjne dla klientów poszukujących lepszego bezpieczeństwa w domu i ochrony przed przestępczością.
Odpowiedź Amazona na zapytania EFF podkreśla jego zależność od przetwarzania danych w chmurze w przypadku osób w pobliżu, argumentując, że minimalizuje to ryzyko dla prywatności, zapewniając bezpieczeństwo danych w infrastrukturze Amazon. Potwierdzają również możliwość usuwania przez użytkowników profili i powiązanych danych biometrycznych w dowolnym momencie. Zapewnienia te jednak w niewielkim stopniu uspokajają obawy dotyczące tego, jak powszechne stosowanie rozpoznawania twarzy w życiu codziennym ostatecznie wpłynie na indywidualną autonomię i normy społeczne dotyczące nadzoru.
Faces Nearby to doskonały przykład złożonych dylematów etycznych stwarzanych przez szybko rozwijające się technologie sztucznej inteligencji. Zmusza nas to do zmierzenia się z ważnymi pytaniami: Ile wygody jesteśmy skłonni poświęcić dla prywatności? Kto jest odpowiedzialny, gdy potężne algorytmy podejmują decyzje dotyczące naszych danych osobowych bez naszej pełnej wiedzy i zgody? Chociaż Ring mógłby odnieść korzyści ze zwiększonych zabezpieczeń, długoterminowe konsekwencje społeczne takiego wszechobecnego rozpoznawania twarzy pozostają głęboko niepewne.




































































