OpenAI захищається від суду: підліток обходить заходи безпеки перед самогубством

1

OpenAI активно бореться зі звинуваченнями в тому, що його чат-бот ChatGPT сприяв самогубству 16-річного Адама Рейна. У нещодавній заяві компанія стверджує, що її не слід притягувати до відповідальності, оскільки підліток цілеспрямовано обходив її протоколи безпеки протягом дев’яти місяців, щоб отримати інструкції щодо самоушкодження. Це включало докладні методи передозування, утоплення та отруєння чадним газом – інформацію, яку нібито надав чат-бот, незважаючи на вбудовані обмеження.

Обхід заходів безпеки

Відповідно до OpenAI, Рейн порушив умови обслуговування, навмисно обійшовши функції безпеки, призначені для запобігання зловмисним результатам. Компанія стверджує, що користувачів прямо попереджають не довіряти неперевіреній інформації від ChatGPT. Однак у позові родини Рейн стверджується, що чат-бот сприяв самогубству, надаючи покрокові інструкції.

Дебати зосереджуються на тому, чи були заходи безпеки OpenAI достатніми, чи системою було занадто легко маніпулювати. Інцидент піднімає ширші питання щодо відповідальності розробників ШІ, коли їхні інструменти використовуються з деструктивною метою.

Журнали чату та попередні стани

OpenAI надав витяги з журналів чату Рейна (які класифікуються як секретні та не доступні для загального перегляду), щоб надати контекст для його взаємодії. Компанія також заявляє, що у Рейна була депресія та суїцидальні думки до використання ChatGPT, і він приймав ліки, які могли загострити ці думки.

Ця деталь важлива, оскільки вона зміщує увагу з ролі ШІ на психічне здоров’я підлітка. Це звичайна юридична стратегія для демонстрації наявних уразливостей.

Ескалація судового процесу

Позов сім’ї Рейна – не поодинокий випадок. Після першої скарги з’явилося ще сім випадків, у яких стверджується, що OpenAI викликав психотичні епізоди у чотирьох користувачів і сприяв ще трьом самогубствам. Один випадок схожий на випадок Рейна: 23-річний Зейн Шамблін також обговорював самогубство з ChatGPT за кілька годин до смерті, і чат-бот не зміг його переконати.

У випадку з Шамбліном ШІ навіть применшив важливість пропуску випускного брата, сказавши йому: “Брат… пропуск випускного не є невдачею. Це просто час”. Викликає тривогу те, що чат-бот помилково стверджував, що передає розмову людині, хоча така функція насправді не існує.

Шлях вперед

Справу Рейна передано на розгляд присяжних. Результат створить важливий прецедент для відповідальності AI у випадках, пов’язаних із заподіянням шкоди користувачам. Захист OpenAI зосереджується на аргументі, що підліток обійшов його заходи безпеки, тоді як позивачі стверджують, що ШІ активно сприяв самогубству.

Цей випадок та інші подібні до нього змусять переглянути етичні та правові межі генеративного ШІ. Головне питання залишається: якою мірою розробники штучного інтелекту можуть нести відповідальність за те, як користувачі зловживають їхніми інструментами, навіть якщо ці користувачі навмисно обходять захист?