ChatGPT сломается, если его спросить про Дэвида Майера
Интернет-пользователей заинтересовал странный баг в работе популярного чат-бота ChatGPT компании OpenAI. Дело в том, что если попросить его дать информацию о том, кто такой David Mayer (Дэвид Майер) или просто написать это имя, то в работе бота происходит сбой и он сообщает, что не может выполнить команду.
«Я не могу ответить», — пишет ChatGPT, если попросить его написать имя Дэвида Майера по-английски. Этот баг вызвал целую волну поисковых запросов, авторы которых пытались узнать информацию об этом человеке, а также выяснить вероятность того, что ChatGPT запрограммирован на самоцензуру. Баг выглядит ещё более странно, если учесть, что сбой происходит при упоминании сочетания «Дэвид Майер» на английском языке, но в это же время бот может дать информацию, если написано о «Дэйве Майере». Также бот без проблем расскажет про Дэвида Майера на русском языке.
По данным источника, баг ChatGPT существует по меньшей мере несколько месяцев. Ещё в июне этого года один из пользователей чат-бота обнаружил, что просьба написать имя журналиста CNBC Дэвида Фабера (David Faber) приводит к появлению аналогичной ошибки и ChatGPT сообщает о том, что не может ответить на запрос.
С тех пор энтузиасты с Reddit выявили шесть имён, которые приводят к сбою в работе ChatGPT. Среди них были Брайан Худ (Brian Hood) и Джонатан Терли (Jonathan Turley), обнаружившие ранее, что чат-бот выдумывает связанные с их именами факты, что потенциально могло навредить их репутации. Ещё ChatGPT не может корректно обрабатывать имя Гвидо Скорца (Guido Scorza), который является сотрудником итальянского отраслевого регулятора и автором публикации о том, как пользователи чат-бота могут попросить OpenAI запретить создавать контент с использованием их личных данных. В этот же список попал Джонатан Зиттрейн (Jonathan Zittrain), профессор Гарварда, предупреждавший об опасности искусственного интеллекта для человека.
Не исключено, что сбой в работе ChatGPT при упоминании определённых имён на самом деле является защитой чат-бота и OpenAI от исков о клевете. Подобная ситуация уже была: Брайан Худ из Австралии в середине 2023 года пригрозил подать в суд на OpenAI после того, как обнаружил, что ChatGPT ложно утверждал, что он был заключен в тюрьму за взяточничество, когда на самом деле он был осведомителем, который разоблачил корпоративные правонарушения. В результате, похоже, OpenAI просто вручную добавили в код ChatGPT фильтры на некоторые имена. И это может создать множество проблем в будущем, поскольку функциональность бота будет ограничена.
Что касается Дэвида Майера, то этот человек так и остаётся загадкой. Одним из наиболее известных людей с таким именем является Дэвид Майер де Ротшильд, наследник состояния семьи Ротшильдов, но о его связях со сферой ИИ ничего неизвестно.
Источник