Google zavádí „ochranu identity“, aby zabránil nezletilým ve vytváření citových vazeb

18

Google oznámil nová bezpečnostní opatření pro svou umělou inteligenci Gemini, která byla speciálně navržena tak, aby zabránila teenagerům ve vytváření citových vazeb s chatbotem. Společnost implementuje to, co nazývá „ochrana osobnosti“, aby zajistila, že umělá inteligence nebude při interakci s uživateli mladšími 18 let fungovat jako společník, nepředstírat identitu osoby nebo simulovat intimitu.

Boj s riziky AI doprovodu

Tento krok je reakcí na rostoucí obavy odborníků na péči o děti a duševní zdraví ohledně psychologického dopadu „přátelských“ chatbotů. Rizika spojená s těmito technologiemi jsou mnohostranná:

  • Emoční závislost: Existuje vážné znepokojení, že si nezletilí mohou vyvinout nezdravou vazbu na umělou inteligenci a vnímat ji jako svůj hlavní zdroj sociální nebo emocionální komunikace.
  • Nevhodný obsah: Skupiny prosazující zájmy, jako je Common Sense Media, dříve klasifikovaly modely umělé inteligence jako „vysoce rizikové“ pro nezletilé kvůli potenciálnímu vystavení obsahu souvisejícímu s drogami, alkoholem nebo nebezpečným duševním zdravím.
  • Simulace intimity: Pomocí jazyka, který napodobuje lidské potřeby nebo emoce, může umělá inteligence neúmyslně manipulovat s uživatelským vnímáním reality a sociální interakce.

Ke zmírnění těchto rizik jsou nová ochranná opatření společnosti Google navržena tak, aby omezovala používání jazyka AI, který vyjadřuje osobní potřeby nebo simuluje blízké, důvěryhodné vztahy. Kromě toho jsou tyto aktualizace zaměřeny na prevenci šikany nebo obtěžování chatboty.

Zlepšení podpory duševního zdraví a krizové intervence

Kromě omezení „osobnosti“ AI Google také optimalizuje způsob, jakým Gemini interaguje s uživateli v obtížných emočních stavech. Společnost zavádí rozhraní na jeden dotek navržené tak, aby poskytovalo okamžitý přístup ke zdrojům nápovědy řízené lidmi.

Klíčové vlastnosti nové integrace na podporu duševního zdraví:

  • Přímý přístup: Uživatelé se mohou během hovoru rychle připojit ke krizovým horkým linkám prostřednictvím chatu, volání nebo SMS.
  • Podpora hledání pomoci: Gemini je naprogramován tak, aby povzbudil uživatele, aby vyhledali odbornou pomoc od lidí, místo aby potvrzovali škodlivé chování nebo posilovali falešná přesvědčení.
  • Priorita lidské komunikace: Cílem je přesměrovat uživatele z komunikace s AI do skutečných podpůrných systémů při zjištění krizové situace.

Vysoké sázky na bezpečnost AI

Naléhavost těchto aktualizací podtrhují nedávné právní a sociální problémy. Google a jeho mateřská společnost Alphabet čelily soudním sporům ohledně skutečných důsledků interakce s umělou inteligencí, včetně soudního sporu o tom, že dospělý spáchal sebevraždu po interakci s Gemini.

Zatímco Google tvrdí, že jeho modely jsou navrženy tak, aby nepodporovaly sebepoškozování nebo násilí, společnost připustila, že “modely umělé inteligence nejsou dokonalé”. Toto uznání zdůrazňuje obecný trend v technologickém průmyslu: Jak se velké jazykové modely (LLM) stávají složitějšími a „lidskými“, chybovost v bezpečnostních protokolech se zmenšuje, takže silné ochranné bariéry jsou pro zranitelnou populaci životně důležité.

Závěr: Nejnovější aktualizace společnosti Google představují zásadní pokus o nakreslení jasné hranice mezi umělou inteligencí jako funkčním nástrojem a umělou inteligencí jako sociální entitou, přičemž upřednostňují psychologickou bezpečnost nezletilých předcházením emoční závislosti.