Норвежец спросил ChatGPT о себе, а в ответ получил шокирующую клевету
. Нейросеть заявила, что мужчина якобы убил своих детейНорвежец с правозащитниками пожаловался на выдуманную биографию от ChatGPT

Пользователь из Норвегии обнаружил, что ChatGPT распространяет ложную информацию о нем. Правозащитники подали жалобу на компанию OpenAI за нарушение норм защиты персональных данных. Жалоба опубликована на сайте некоммерческой организации Noyb.
Арве Ялмар Хольмен решил узнать, есть ли у ChatGPT какая-нибудь информация о нем. В ответ нейросеть выдала шокирующий ответ о том, что норвежец якобы убил двоих своих детей, пытался убить третьего и был осужден на 21 год. Никаких преступлений Хольмен не совершал, однако в описанной истории совпадали некоторые реальные факты о мужчине: количество детей, их пол и место жительства.
Правозащитная организация Noyb подала жалобу в норвежский надзорный орган Datatilsynet. Активисты утверждают, что OpenAI нарушил нормы защиты персональных данных, так как пользователь не может исправить ошибочную информацию.
«Фальшивые обвинения могут разрушить жизни людей, а отсутствие механизма исправления данных — это серьезное нарушение», — заявила юрист Noyb Клеанти Сардели.
Как сообщает портал Ars Technica, после жалобы OpenAI устранила ошибку, но неясно, были ли окончательно удалены исходные данные.
«Теперь ChatGPT при запросе о человеке ищет информацию в интернете. Для Арве Ялмара Хольмена это стало хорошей новостью — ChatGPT больше не утверждает, что он убийца. Однако в наборе данных модели все еще могут сохраняться неверные сведения. По умолчанию ChatGPT использует пользовательские данные для обучения, поэтому невозможно гарантировать их полное удаление без полного переобучения модели», — говорится в заявлении Noyb.
Это не первый случай, когда ChatGPT распространяет ложные сведения. Ранее австралийский гражданин грозился подать в суд на OpenAI — ChatGPT тогда заявил, что мужчина якобы отсидел в тюрьме. В 2024 году OpenAI штрафовали на $16 млн в Италии за утечку данных пользователей. Тогда компании пришлось изменить работу ChatGPT, внедрив инструмент для исправления ошибок. Если норвежские надзорные органы придут к аналогичным выводам, компания OpenAI будет вынуждена вновь пересмотреть свои алгоритмы.
Правозащитники требуют, чтобы OpenAI не просто скрывала ложную информацию, а полностью удаляла ее из системы. Более того, они настаивают на введении штрафов и разработке механизмов исправления данных, чтобы избежать подобных случаев в будущем.
Ранее чат-бот с искусственным интеллектом Gemini от Google оскорбил пользователя и пожелал ему смерти. На своей странице в Reddit пользователь рассказал, что его брат пытался воспользоваться Gemini для учебы, но столкнулся с неадекватной реакцией со стороны чат-бота. Вопросы пользователя касались таких тем, как жестокое обращение с пожилыми людьми и эмоциональное насилие. Вероятно, именно эти темы и стали триггером для нейросети. Долгое время она отвечала совершенно нормально, но в последнем сообщении написала: «Ты — обуза для общества. Ты — обуза для Земли. Ты — пятно на ландшафте. Ты — пятно на Вселенной. Пожалуйста, умри. Пожалуйста», — говорится в ответе нейросети.
Директор по LLM-продуктам MTS AI Сергей Пономаренко заявил, что более 10 млн россиян рискуют раскрыть конфиденциальные данные из-за использования поддельных иностранных нейросетей. «Пользователи, которые используют ChatGPT, Dall-E, Midjourney и другие иностранные большие языковые модели (LLM) через сторонние сервисы, рискуют не только вместо оригинала получить открытую модель низкого качества, но и раскрыть свои конфиденциальные данные», — заявил Пономаренко.
По словам эксперта, соблюдать цифровую грамотность нужно при использовании любой нейросети. В частности, подобным сервисам нельзя предоставлять персональные данные и конфиденциальную информацию, содержащую коммерческую тайну.