ВОЗ перечислила риски использования ChatGPT при постановке диагнозов
Использовать искусственный интеллект (ChatGPT, Bard, Bert и подобные платформы) в медицинских целях необходимо с осторожностью, предупредили во Всемирной организации здравоохранения (ВОЗ). Там отметили, что чат-боты все чаще применяют в здравоохранении при постановке диагнозов, особенно «в условиях ограниченных ресурсов», но перед этим необходимо тщательно исследовать риски.
В числе опасений в организации назвали:
- искусственный интеллект могут обучать на предвзятых данных, из-за чего он может генерировать «ложную или неточную информацию, которая может принести ущерб здоровью и инклюзивности»;
- иногда чат-боты генерируют ответы, которые кажутся пользователю достоверными и правдоподобными, но на деле являются совершенно неверными;
- не все чат-боты обучены защищать предоставленную им пользователем чувствительную информацию, в том числе касающуюся его здоровья;
- чат-боты могут генерировать информацию в форме текста, аудио- и видеоконтента, которая выглядит «очень убедительно», а пользователи не всегда в состоянии отличить обман от достоверных данных.
«ВОЗ одобрительно относится к надлежащему использованию технологий, включая LLM (большие языковые модели. — РБК), в помощь специалистам в области здравоохранения, пациентам, исследователям и ученым, если опасения, что осторожность, с которой обычно относятся к любой новой технологии, не возникает в случае с LLM», — объяснили свою позицию в организации. Там подчеркнули важность «прозрачности, инклюзивности, участия общественности, контроля экспертов и тщательной оценки», прежде чем искусственный интеллект начнут активно использовать в здравоохранении.
В феврале американские исследователи — авторы опубликованного в журнале PLOS Digital Health исследования сообщили, что ChatGPT сдал медицинский экзамен USMLE, который дает право работать врачом в США. Чат-бот ответил на 88,9% вопросов теста и преодолел проходной порог в 60%.