Google ogłosiło nowe środki bezpieczeństwa dla swojej sztucznej inteligencji Gemini, zaprojektowane specjalnie po to, aby uniemożliwić nastolatkom tworzenie więzi emocjonalnych z chatbotem. Firma wdraża tak zwane „ochrony osobowości”, aby mieć pewność, że sztuczna inteligencja nie będzie działać jako towarzysz, podszywać się pod osobę ani symulować intymności podczas interakcji z użytkownikami poniżej 18 roku życia.
Zwalczanie zagrożeń związanych z towarzystwem sztucznej inteligencji
Posunięcie to jest odpowiedzią na rosnące obawy ekspertów ds. opieki nad dziećmi i zdrowia psychicznego dotyczące psychologicznego wpływu chatbotów „przyjaciół”. Zagrożenia związane z tymi technologiami są wieloaspektowe:
- Uzależnienie emocjonalne: Istnieje poważna obawa, że u nieletnich może rozwinąć się niezdrowe przywiązanie do sztucznej inteligencji, postrzegając ją jako główne źródło komunikacji społecznej lub emocjonalnej.
– Nieodpowiednie treści: grupy wsparcia, takie jak Common Sense Media, wcześniej klasyfikowały modele sztucznej inteligencji jako „wysokie ryzyko” dla nieletnich ze względu na możliwość narażenia na treści związane z narkotykami, alkoholem lub niebezpiecznymi poradami dotyczącymi zdrowia psychicznego.
– Symulacja intymności: używając języka naśladującego ludzkie potrzeby i emocje, sztuczna inteligencja może w niezamierzony sposób manipulować postrzeganiem rzeczywistości i interakcji społecznych przez użytkownika.
Aby ograniczyć to ryzyko, nowe zabezpieczenia Google mają na celu ograniczenie używania przez sztuczną inteligencję języka wyrażającego osobiste potrzeby lub symulującego bliskie i oparte na zaufaniu relacje. Ponadto aktualizacje te mają na celu zapobieganie znęcaniu się i nękaniu przez chatboty.
Poprawa wsparcia w zakresie zdrowia psychicznego i interwencji kryzysowej
Oprócz ograniczania „osobowości” AI, Google optymalizuje także sposób interakcji Gemini z użytkownikami w trudnych stanach emocjonalnych. Firma wprowadza interfejs obsługiwany jednym dotknięciem, który zapewnia natychmiastowy dostęp do zasobów pomocy kierowanej przez człowieka.
Kluczowe cechy nowej integracji wspierającej zdrowie psychiczne:
- Bezpośredni dostęp: użytkownicy mogą szybko połączyć się z infoliniami kryzysowymi za pośrednictwem czatu, połączenia lub SMS-a w trakcie rozmowy.
- Zachęcanie do szukania pomocy: Gemini jest zaprogramowany tak, aby zachęcać użytkowników do szukania profesjonalnej pomocy u ludzi, zamiast potwierdzać szkodliwe zachowanie lub wzmacniać fałszywe przekonania.
- Priorytet komunikacji międzyludzkiej: Celem jest przekierowanie użytkownika z komunikacji z AI do realnych systemów wsparcia w przypadku wykrycia sytuacji kryzysowej.
Wysoka stawka w zakresie bezpieczeństwa sztucznej inteligencji
Pilność tych aktualizacji podkreślają niedawne problemy prawne i społeczne. Google i jego spółka matka Alphabet stanęły przed procesami sądowymi dotyczącymi rzeczywistych konsekwencji interakcji z sztuczną inteligencją, w tym pozwem dotyczącym samobójstwa osoby dorosłej po interakcji z Gemini.
Choć Google twierdzi, że jego modele nie mają na celu zachęcania do samookaleczenia ani przemocy, firma przyznała, że „modele sztucznej inteligencji nie są doskonałe”. To uznanie podkreśla ogólną tendencję w branży technologicznej: w miarę jak duże modele językowe (LLM) stają się coraz bardziej złożone i „podobne do ludzkich”, margines błędu w protokołach bezpieczeństwa maleje, tworząc silne bariery ochronne niezbędne dla bezbronnych populacji.
Wniosek: najnowsze aktualizacje Google stanowią krytyczną próbę wytyczenia wyraźnej granicy między sztuczną inteligencją jako narzędziem funkcjonalnym a sztuczną inteligencją jako podmiotem społecznym, traktując priorytetowo bezpieczeństwo psychiczne nieletnich poprzez zapobieganie uzależnieniu emocjonalnemu.
















































