Американец сел на токсичную диету по совету ИИ и оказался в психбольнице
Американец попал в психиатрическую клинику после того, как попытался следовать диете, составленной нейросетью, пишет портал Gizmodo.
Мужчина использовал чат-бот для планирования рациона. Он решил исключить из рациона соль, а ChatGPT предложил заменить ее на бромид натрия, не предупредив пенсионера, что это вещество крайне опасно из-за токсичности. В результате врачи диагностировали у него психоз.
Эксперты отмечают, что нейросети не предназначены для медицинских рекомендаций, а их советы могут быть опасными. Однако прямой связи между использованием ИИ и психическими расстройствами пока не доказано.
Этот случай вновь поднял вопрос о регулировании искусственного интеллекта и ответственности за его рекомендации.
Сделай Чеснок своим источником новостей в Дзен и Google News.
Подписывайся на наш телеграмм. Только самые важные новости!








