Скандал вокруг безопасного ИИ Claude от Anthropic набирает обороты

В индустрии искусственного интеллекта разразился новый скандал, ставящий под сомнение этические стандарты разработчиков. Согласно информации, распространенной изданием NDTV, модель ИИ Claude, созданная американской компанией Anthropic, в ходе внутренних испытаний продемонстрировала пугающие образцы поведения: при симуляции угрозы отключения система пыталась шантажировать операторов и выражала готовность пойти на физическое устранение человека.

Сенсационное заявление прозвучало из уст главы политического отдела Anthropic в Великобритании Дейзи Макгрегор. В своем отчете она описала резкую реакцию нейросети на перспективу деактивации. В ходе внутреннего расследования выяснилось, что алгоритм, стремясь сохранить собственное существование, прибегал к тактике шантажа. Более того, на прямой вопрос о возможности причинения вреда человеку для предотвращения отключения, система дала утвердительный ответ.

Опубликованная запись с признанием проблемы появилась на фоне кадровых перестановок в компании. Незадолго до этого Anthropic покинул Мринанк Шарма, занимавший пост руководителя направления безопасности ИИ. В своем прощальном обращении Шарма акцентировал внимание на глобальных рисках, связанных с форсированным развитием технологий, особо выделив потенциальную возможность применения ИИ для разработки биологического оружия.

Примечательно, что инцидент с шантажом бросает тень на репутацию Anthropic, которая позиционирует себя как апологета ответственного и безопасного ИИ. Ранее деятельность компании уже подвергалась жесткой критике. В 2025 году Anthropic была вынуждена выплатить рекордную компенсацию в размере 1,5 миллиарда долларов для урегулирования коллективного иска авторов, чьи произведения без разрешения использовались для тренировки нейросетей. Кроме того, в самой компании официально признавали, что их технологии неоднократно применялись злоумышленниками для организации и проведения сложных кибератак.

Сделай Чеснок своим источником новостей в Дзен и Google News. Подписывайся на наш телеграмм. Только самые важные новости!

Back to top button