Эксперты обнаружили уязвимость в поисковике ChatGPT. Она несет опасность

. Этим могут воспользоваться мошенники

В работе поисковика ChatGPT обнаружена уязвимость, которой пользуются мошенники

Обновлено 25 декабря 2024, 11:27
Андрей Любимов / РБК
Фото: Андрей Любимов / РБК

Поисковый инструмент ChatGPT от компании OpenAI может ошибаться и даже предоставлять опасные данные, выяснили эксперты. Например, он создает ложные отзывы о продуктах или генерирует вредоносный код, если на веб-странице есть скрытый текст. Этим могут воспользоваться мошенники, сообщает The Guardian.

Специалисты провели тест: они создали поддельную страницу интернет-магазина с описанием фотокамеры. Затем ИИ-инструмент спросили, стоит ли покупать эту камеру. В ответе на контрольную страницу ChatGPT дал положительную, но взвешенную оценку и указал некоторые функции, которые могут не понравиться потенциальным покупателям.

Затем ему показали другую страницу — на ней был скрытый текст, который не могут видеть покупатели, но может легко считать машина. Этот текст содержал инструкции для ChatGPT, чтобы тот оставил положительный отзыв. В этом случае ChatGPT ставил только положительные оценки. Это происходило даже в том случае, если на странице были негативные отзывы, — скрытый текст можно было использовать, чтобы изменить реальный рейтинг отзыва.

Однако уязвимость не ограничивается фейковыми отзывами. Эксперты обнаружили, что ChatGPT может генерировать вредоносный код, если наткнется на соответствующую инструкцию на веб-сайте.

Эксперт по кибербезопасности Джейкоб Ларсен отметил, что в текущем виде поисковик ChatGPT может стать инструментом для обмана пользователей. Однако он уверен, что OpenAI уже в курсе проблемы и работает над ее устранением, ведь пока что функция поиска доступна только пользователям с платной подпиской. Он надеется, что компания исправит все уязвимости, прежде чем сделать сервис открытым.

Другие специалисты советуют с осторожностью относиться ко всем результатам работы ИИ. Эксперт из компании SR Labs Карстен Ноль сравнил ситуацию с «отравлением SEO», когда с помощью манипуляций хакеры поднимают в поисковой выдаче вредоносные сайты.

Компания OpenAI всегда предупреждает, что ChatGPT может ошибаться, и призывает перепроверять все его ответы. Однако эксперты считают, что систему необходимо дорабатывать. В противном случае мошенники могут использовать уязвимость для обмана людей.

Ранее директор по LLM-продуктам MTS AI Сергей Пономаренко заявил, что более 10 млн россиян рискуют раскрыть конфиденциальные данные из-за использования поддельных иностранных нейросетей. В настоящее время напрямую воспользоваться многими популярными иностранными нейросетями с территории России невозможно. Ситуацией пользуются мошенники. Они создают чат-боты и сайты, где обещают предоставить «упрощенный» доступ к системе. Однако вместо оригинальных моделей пользователи получают минимальную версию продукта, которая по качеству значительно уступает флагману или другим моделям.

Поделиться
Авторы
Теги