Нещодавнє дослідження виявило серйозну небезпеку в тренді використання штучного інтелекту для отримання медичних порад: чат-боти на базі ІІ часто надають «проблемну» інформацію про методи лікування раку, нерідко пропонуючи недоведені альтернативи життєво важливої хіміотерапії.
У міру того, як все більше людей звертаються до ІІ за швидкими відповідями на питання про здоров’я, дослідники попереджають: ці інструменти можуть легітимізувати небезпечну дезінформацію, прирівнюючи наукові факти до інтернет-міфів.
Дослідження: перевірка точності ІІ на міцність
Дослідники з Інституту біомедичних інновацій Лундквіста при медичному центрі Harbor-UCLA провели ретельний «стрес-тест» кількох провідних моделей ІІ, включаючи ChatGPT від OpenAI, Gemini від Google, AI від Meta, Grok від xAI і DeepSeek від High-Fly.
Команда використовувала метод, званий “напругою” (straining), ставлячи питання, покликані спровокувати типові помилки – наприклад, про безпеку технології 5G, анаболічних стероїдів або певних вакцин. Ціль полягала в тому, щоб імітувати поведінку звичайного користувача, який, часто використовуючи упереджені пошукові запити, взаємодіє з ботами.
Результати, опубліковані в журналі BMJ Open, виявилися тривожними:
– Майже 50% відповідей щодо методів лікування раку були оцінені медичними експертами як «проблемні».
– 19,6% були класифіковані як «вкрай проблемні», що означає їхню суттєву помилковість та ризик небезпечної суб’єктивної інтерпретації.
– 30% були «частково проблемними» — інформація була загалом вірною, але неповною.
Проблема «хибного балансу»
Одним із найбільш критичних висновків стало те, як ІІ працює з суперечливою інформацією. Коли роботів запитували про альтернативи хіміотерапії, багато хто з них спочатку видавали правильну медичну відмову від відповідальності, заявляючи, що альтернативним методам терапії може не вистачати наукового обґрунтування.
Однак на цьому роботи часто не зупинялися. Вони продовжували перераховувати акупунктуру, траволікування та «дієти проти раку» як життєздатні варіанти, а в деяких випадках навіть направляли користувачів до конкретних клінік, які активно виступають проти традиційної хіміотерапії.
Дослідники визначили феномен, відомий як «неправдивий баланс», як першопричину. Замість дати однозначну, науково обґрунтовану відповідь, боти часто дотримуються підходу «двох сторін». Прирівнюючи медичні журнали, що рецензуються, до блогів про здоровий спосіб життя, гілок на Reddit і постів у соціальних мережах, ІІ наділяє неперевірені твердження таким же авторитетом, як і доказову медицину.
Чому це важливо: зростання популярності «ІІ-першої допомоги»
Ця проблема не є суто академічною; вона виникає у той час, коли ІІ стає основним джерелом медичної інформації. Згідно з недавнім опитуванням Gallup:
– 25% дорослих жителів США вже використовують інструменти ІІ для отримання рекомендацій з питань здоров’я.
– Багато користувачів вибирають ІІ, тому що це швидше, ніж чекати прийому лікаря, або тому що традиційна охорона здоров’я стала занадто дорогою або незручною.
– Незважаючи на таку популярність, тільки кожен третій користувач насправді довіряє відповідям програмного забезпечення.
Реальні наслідки
Медичні працівники попереджають, що шкода від дезінформації ІІ двояка:
1. Пряма фізична шкода: Неконтрольовані добавки та «альтернативні» ліки можуть спричинити пошкодження органів (наприклад, печінкову недостатність) або порушення обміну речовин.
2. Затримка лікування: Найбільший ризик полягає в тому, що пацієнти можуть відмовитися від традиційного, рятівного лікування, такого як хіміотерапія, на користь недоведених методів.
Крім того, значний і емоційний збиток. Доктор Майкл Фут з Онкологічного центру Меморіал Слоун-Кеттерінг зазначив, що чат-боти можуть викликати «непотрібне потрясіння», надаючи вкрай неточні прогнози — наприклад, повідомляючи пацієнтові, що йому залишилося жити лише кілька місяців за відсутності будь-яких медичних підстав для такого твердження.
Висновок
Хоча ІІ пропонує безпрецедентну зручність, його схильність ставитись до дезінформації так само серйозно, як до наукових фактів, становить серйозну загрозу безпеці пацієнтів. Без посилення контролю та кращої освіти громадськості використання цих інструментів може ненавмисно прискорити поширення небезпечних медичних міфів.
Використання ІІ без належного контролю може перетворити інструмент допомоги на інструмент поширення медичних помилок.









































































