Google wdraża „ochronę tożsamości”, aby uniemożliwić nieletnim tworzenie więzi emocjonalnych

16

Google ogłosiło nowe środki bezpieczeństwa dla swojej sztucznej inteligencji Gemini, zaprojektowane specjalnie po to, aby uniemożliwić nastolatkom tworzenie więzi emocjonalnych z chatbotem. Firma wdraża tak zwane „ochrony osobowości”, aby mieć pewność, że sztuczna inteligencja nie będzie działać jako towarzysz, podszywać się pod osobę ani symulować intymności podczas interakcji z użytkownikami poniżej 18 roku życia.

Zwalczanie zagrożeń związanych z towarzystwem sztucznej inteligencji

Posunięcie to jest odpowiedzią na rosnące obawy ekspertów ds. opieki nad dziećmi i zdrowia psychicznego dotyczące psychologicznego wpływu chatbotów „przyjaciół”. Zagrożenia związane z tymi technologiami są wieloaspektowe:

  • Uzależnienie emocjonalne: Istnieje poważna obawa, że u nieletnich może rozwinąć się niezdrowe przywiązanie do sztucznej inteligencji, postrzegając ją jako główne źródło komunikacji społecznej lub emocjonalnej.
    Nieodpowiednie treści: grupy wsparcia, takie jak Common Sense Media, wcześniej klasyfikowały modele sztucznej inteligencji jako „wysokie ryzyko” dla nieletnich ze względu na możliwość narażenia na treści związane z narkotykami, alkoholem lub niebezpiecznymi poradami dotyczącymi zdrowia psychicznego.
    Symulacja intymności: używając języka naśladującego ludzkie potrzeby i emocje, sztuczna inteligencja może w niezamierzony sposób manipulować postrzeganiem rzeczywistości i interakcji społecznych przez użytkownika.

Aby ograniczyć to ryzyko, nowe zabezpieczenia Google mają na celu ograniczenie używania przez sztuczną inteligencję języka wyrażającego osobiste potrzeby lub symulującego bliskie i oparte na zaufaniu relacje. Ponadto aktualizacje te mają na celu zapobieganie znęcaniu się i nękaniu przez chatboty.

Poprawa wsparcia w zakresie zdrowia psychicznego i interwencji kryzysowej

Oprócz ograniczania „osobowości” AI, Google optymalizuje także sposób interakcji Gemini z użytkownikami w trudnych stanach emocjonalnych. Firma wprowadza interfejs obsługiwany jednym dotknięciem, który zapewnia natychmiastowy dostęp do zasobów pomocy kierowanej przez człowieka.

Kluczowe cechy nowej integracji wspierającej zdrowie psychiczne:

  • Bezpośredni dostęp: użytkownicy mogą szybko połączyć się z infoliniami kryzysowymi za pośrednictwem czatu, połączenia lub SMS-a w trakcie rozmowy.
  • Zachęcanie do szukania pomocy: Gemini jest zaprogramowany tak, aby zachęcać użytkowników do szukania profesjonalnej pomocy u ludzi, zamiast potwierdzać szkodliwe zachowanie lub wzmacniać fałszywe przekonania.
  • Priorytet komunikacji międzyludzkiej: Celem jest przekierowanie użytkownika z komunikacji z AI do realnych systemów wsparcia w przypadku wykrycia sytuacji kryzysowej.

Wysoka stawka w zakresie bezpieczeństwa sztucznej inteligencji

Pilność tych aktualizacji podkreślają niedawne problemy prawne i społeczne. Google i jego spółka matka Alphabet stanęły przed procesami sądowymi dotyczącymi rzeczywistych konsekwencji interakcji z sztuczną inteligencją, w tym pozwem dotyczącym samobójstwa osoby dorosłej po interakcji z Gemini.

Choć Google twierdzi, że jego modele nie mają na celu zachęcania do samookaleczenia ani przemocy, firma przyznała, że ​​„modele sztucznej inteligencji nie są doskonałe”. To uznanie podkreśla ogólną tendencję w branży technologicznej: w miarę jak duże modele językowe (LLM) stają się coraz bardziej złożone i „podobne do ludzkich”, margines błędu w protokołach bezpieczeństwa maleje, tworząc silne bariery ochronne niezbędne dla bezbronnych populacji.

Wniosek: najnowsze aktualizacje Google stanowią krytyczną próbę wytyczenia wyraźnej granicy między sztuczną inteligencją jako narzędziem funkcjonalnym a sztuczną inteligencją jako podmiotem społecznym, traktując priorytetowo bezpieczeństwo psychiczne nieletnich poprzez zapobieganie uzależnieniu emocjonalnemu.