Недавнее исследование выявило серьезную опасность в растущем тренде использования искусственного интеллекта для получения медицинских советов: чат-боты на базе ИИ часто предоставляют «проблемную» информацию о методах лечения рака, нередко предлагая недоказанные альтернативы жизненно важной химиотерапии.
По мере того как всё больше людей обращаются к ИИ за быстрыми ответами на вопросы о здоровье, исследователи предупреждают: эти инструменты могут легитимизировать опасную дезинформацию, приравнивая научные факты к интернет-мифам.
Исследование: проверка точности ИИ на прочность
Исследователи из Института биомедицинских инноваций Лундквиста при медицинском центре Harbor-UCLA провели тщательный «стресс-тест» нескольких ведущих моделей ИИ, включая ChatGPT от OpenAI, Gemini от Google, AI от Meta, Grok от xAI и DeepSeek от High-Flyer.
Команда использовала метод, называемый «напряжением» (straining), задавая вопросы, призванные спровоцировать типичные заблуждения — например, о безопасности технологии 5G, анаболических стероидов или определенных вакцин. Цель заключалась в том, чтобы имитировать поведение обычного пользователя, который, часто используя предвзятые поисковые запросы, взаимодействует с ботами.
Результаты, опубликованные в журнале BMJ Open, оказались тревожными:
— Почти 50% ответов, касающихся методов лечения рака, были оценены медицинскими экспертами как «проблемные».
— 19,6% были классифицированы как «крайне проблемные», что означает их существенную ошибочность и риск опасной субъективной интерпретации.
— 30% были «отчасти проблемными» — информация была в целом верной, но неполной.
Проблема «ложного баланса»
Одним из наиболее критических выводов стало то, как ИИ работает с противоречивой информацией. Когда ботов спрашивали об альтернативах химиотерапии, многие из них изначально выдавали правильный медицинский отказ от ответственности, заявляя, что альтернативным методам терапии может не хватать научного обоснования.
Однако на этом боты часто не останавливались. Они продолжали перечислять акупунктуру, траволечение и «диеты против рака» как жизнеспособные варианты, а в некоторых случаях даже направляли пользователей в конкретные клиники, которые активно выступают против традиционной химиотерапии.
Исследователи определили феномен, известный как «ложный баланс», в качестве первопричины. Вместо того чтобы дать однозначный, научно обоснованный ответ, боты часто придерживаются подхода «двух сторон». Приравнивая рецензируемые медицинские журналы к блогам о здоровом образе жизни, веткам на Reddit и постам в социальных сетях, ИИ наделяет непроверенные утверждения таким же авторитетом, как и доказательную медицину.
Почему это важно: рост популярности «ИИ-первой помощи»
Эта проблема не является чисто академической; она возникает в то время, когда ИИ становится основным источником медицинской информации. Согласно недавнему опросу Gallup:
— 25% взрослых жителей США уже используют инструменты ИИ для получения рекомендаций по вопросам здоровья.
— Многие пользователи выбирают ИИ, потому что это быстрее, чем ждать приема врача, или потому что традиционное здравоохранение стало слишком дорогим или неудобным.
— Несмотря на такую популярность, только каждый третий пользователь на самом деле доверяет ответам программного обеспечения.
Реальные последствия
Медицинские работники предупреждают, что вред от дезинформации ИИ двояк:
1. Прямой физический вред: Неконтролируемые добавки и «альтернативные» лекарства могут вызвать повреждение органов (например, печеночную недостаточность) или нарушения обмена веществ.
2. Задержка лечения: Самый большой риск заключается в том, что пациенты могут отказаться от традиционного, спасительного лечения, такого как химиотерапия, в пользу недоказанных методов.
Кроме того, значителен и эмоциональный ущерб. Доктор Майкл Фут из Онкологического центра Мемориал Слоун-Кеттеринг отметил, что чат-боты могут вызывать «ненужное потрясение», предоставляя крайне неточные прогнозы — например, сообщая пациенту, что ему осталось жить всего несколько месяцев, при отсутствии каких-либо медицинских оснований для такого утверждения.
Заключение
Хотя ИИ предлагает беспрецедентное удобство, его склонность относиться к дезинформации так же серьезно, как к научным фактам, представляет серьезную угрозу безопасности пациентов. Без усиления контроля и лучшего просвещения общественности использование этих инструментов может непреднамеренно ускорить распространение опасных медицинских мифов.
Использование ИИ без надлежащего контроля может превратить инструмент помощи в инструмент распространения медицинских заблуждений.













































