Американец сел на токсичную диету по совету ИИ и оказался в психбольнице

Американец попал в психиатрическую клинику после того, как попытался следовать диете, составленной нейросетью, пишет портал Gizmodo.

Мужчина использовал чат-бот для планирования рациона. Он решил исключить из рациона соль, а ChatGPT предложил заменить ее на бромид натрия, не предупредив пенсионера, что это вещество крайне опасно из-за токсичности. В результате врачи диагностировали у него психоз.

Эксперты отмечают, что нейросети не предназначены для медицинских рекомендаций, а их советы могут быть опасными. Однако прямой связи между использованием ИИ и психическими расстройствами пока не доказано.

Этот случай вновь поднял вопрос о регулировании искусственного интеллекта и ответственности за его рекомендации.

Сделай Чеснок своим источником новостей в Дзен и Google News. Подписывайся на наш телеграмм. Только самые важные новости!

Back to top button