Чат-боты стали в грубой форме отказывать людям в помощи

ChatGPT-4 от американской OpenAI начал отклонять запросы пользователей, утверждая, что не заинтересован в помощи людям, пишет «Российская газета».

«Жертвы» чат-бота рассказали, что он отказывает им в ответах в весьма грубой форме. Например, система рекомендует искать данные самим. По информации Independent, некоторые называют происходящее намеренным вмешательством в работу чат-бота ради уменьшения расхода вычислительных ресурсов.

При этом разработчики говорят, что система ничуть не изменилась. «Поведение модели может быть непредсказуемым, и мы пытаемся это исправить», — передали создатели. Нестандартное поведение демонстрируют и прочие чат-боты. Так, весной продукты Google и Microsoft неожиданно начали распространять фейки со ссылкой друг на друга. Примерно год назад от BlenderBot 3 посыпались оскорбления в адрес людей.