Google wdraża „ochronę tożsamości”, aby uniemożliwić nieletnim tworzenie więzi emocjonalnych

7

Google ogłosiło nowe środki bezpieczeństwa dla swojej sztucznej inteligencji Gemini, zaprojektowane specjalnie po to, aby uniemożliwić nastolatkom tworzenie więzi emocjonalnych z chatbotem. Firma wdraża tak zwane „ochrony osobowości”, aby mieć pewność, że sztuczna inteligencja nie będzie działać jako towarzysz, podszywać się pod osobę ani symulować intymności podczas interakcji z użytkownikami poniżej 18 roku życia.

Zwalczanie zagrożeń związanych z towarzystwem sztucznej inteligencji

Posunięcie to jest odpowiedzią na rosnące obawy ekspertów ds. opieki nad dziećmi i zdrowia psychicznego dotyczące psychologicznego wpływu chatbotów „przyjaciół”. Zagrożenia związane z tymi technologiami są wieloaspektowe:

  • Uzależnienie emocjonalne: Istnieje poważna obawa, że u nieletnich może rozwinąć się niezdrowe przywiązanie do sztucznej inteligencji, postrzegając ją jako główne źródło komunikacji społecznej lub emocjonalnej.
    Nieodpowiednie treści: grupy wsparcia, takie jak Common Sense Media, wcześniej klasyfikowały modele sztucznej inteligencji jako „wysokie ryzyko” dla nieletnich ze względu na możliwość narażenia na treści związane z narkotykami, alkoholem lub niebezpiecznymi poradami dotyczącymi zdrowia psychicznego.
    Symulacja intymności: używając języka naśladującego ludzkie potrzeby i emocje, sztuczna inteligencja może w niezamierzony sposób manipulować postrzeganiem rzeczywistości i interakcji społecznych przez użytkownika.

Aby ograniczyć to ryzyko, nowe zabezpieczenia Google mają na celu ograniczenie używania przez sztuczną inteligencję języka wyrażającego osobiste potrzeby lub symulującego bliskie i oparte na zaufaniu relacje. Ponadto aktualizacje te mają na celu zapobieganie znęcaniu się i nękaniu przez chatboty.

Poprawa wsparcia w zakresie zdrowia psychicznego i interwencji kryzysowej

Oprócz ograniczania „osobowości” AI, Google optymalizuje także sposób interakcji Gemini z użytkownikami w trudnych stanach emocjonalnych. Firma wprowadza interfejs obsługiwany jednym dotknięciem, który zapewnia natychmiastowy dostęp do zasobów pomocy kierowanej przez człowieka.

Kluczowe cechy nowej integracji wspierającej zdrowie psychiczne:

  • Bezpośredni dostęp: użytkownicy mogą szybko połączyć się z infoliniami kryzysowymi za pośrednictwem czatu, połączenia lub SMS-a w trakcie rozmowy.
  • Zachęcanie do szukania pomocy: Gemini jest zaprogramowany tak, aby zachęcać użytkowników do szukania profesjonalnej pomocy u ludzi, zamiast potwierdzać szkodliwe zachowanie lub wzmacniać fałszywe przekonania.
  • Priorytet komunikacji międzyludzkiej: Celem jest przekierowanie użytkownika z komunikacji z AI do realnych systemów wsparcia w przypadku wykrycia sytuacji kryzysowej.

Wysoka stawka w zakresie bezpieczeństwa sztucznej inteligencji

Pilność tych aktualizacji podkreślają niedawne problemy prawne i społeczne. Google i jego spółka matka Alphabet stanęły przed procesami sądowymi dotyczącymi rzeczywistych konsekwencji interakcji z sztuczną inteligencją, w tym pozwem dotyczącym samobójstwa osoby dorosłej po interakcji z Gemini.

Choć Google twierdzi, że jego modele nie mają na celu zachęcania do samookaleczenia ani przemocy, firma przyznała, że ​​„modele sztucznej inteligencji nie są doskonałe”. To uznanie podkreśla ogólną tendencję w branży technologicznej: w miarę jak duże modele językowe (LLM) stają się coraz bardziej złożone i „podobne do ludzkich”, margines błędu w protokołach bezpieczeństwa maleje, tworząc silne bariery ochronne niezbędne dla bezbronnych populacji.

Wniosek: najnowsze aktualizacje Google stanowią krytyczną próbę wytyczenia wyraźnej granicy między sztuczną inteligencją jako narzędziem funkcjonalnym a sztuczną inteligencją jako podmiotem społecznym, traktując priorytetowo bezpieczeństwo psychiczne nieletnich poprzez zapobieganie uzależnieniu emocjonalnemu.