Крупный анализ: ИИ не справляется с прогнозом суицидального риска

Масштабное исследование, проведенное учеными из нескольких стран, показало, что искусственный интеллект не может достоверно предсказать риск суицида. Анализ сотен исследований с участием миллионов пациентов продемонстрировал, что алгоритмы ИИ работают ненамного лучше, чем случайное угадывание, пишет PLOS Medicine.

Исследователи изучили данные 35 миллионов медицинских записей и почти 250 тысяч случаев суицида или госпитализаций по причине членовредительства, создав крупнейший в своем роде метаанализ. Результаты оказались неудовлетворительными: точность прогнозов была низкой, а алгоритмы, разработанные для одной группы пациентов, показывали плохие результаты при применении к другим.

Это указывает на фундаментальную проблему: не существует универсальных «маркеров» суицидального поведения, которые ИИ мог бы обнаружить. Сложность человеческой психики, изменчивость обстоятельств и недостаток качественных данных не позволяют алгоритмам сделать точный прогноз. Ученые пришли к выводу, что подобные инструменты не должны использоваться в клинической практике из-за высокого риска ошибок.

Сделай Чеснок своим источником новостей в Дзен и Google News. Подписывайся на наш телеграмм. Только самые важные новости!

Back to top button