Профессор из Оксфорда назвал одну из важных опасностей ИИ

Ведущий оксфордский профессор Майкл Вулдридж сравнил текущую гонку технологических компаний в сфере искусственного интеллекта с риском повторения катастрофы дирижабля «Гинденбург». По его мнению, спешка с внедрением ИИ на рынок создает угрозу фатального инцидента, который навсегда подорвет доверие к технологии, пишет The Guardian.

Вулдридж, удостоенный премии Королевского общества, связывает опасность с огромным коммерческим давлением: компании выпускают продукты, не успев полностью изучить их уязвимости, чтобы опередить конкурентов. Легкость взлома защитных механизмов современных чат-ботов, по его словам, доказывает, что прибыль ставится выше безопасности.

Профессор напоминает, что гибель «Гинденбурга» в 1937 году практически уничтожила индустрию дирижаблей. Подобный «момент» для ИИ более чем вероятен из-за его повсеместного внедрения. Среди возможных сценариев Вулдридж называет смертельное обновление беспилотных автомобилей, взлом систем авиакомпаний или крах крупной фирмы из-за ошибочных действий ИИ.

Исследователь отмечает, что современные языковые модели принципиально ненадежны: они умеют давать уверенные, похожие на человеческие ответы, даже когда ошибаются. Это приводит к тому, что люди начинают очеловечивать ИИ (например, вступая с ним в «романтические отношения»), что крайне опасно. Вулдридж призывает относиться к нейросетям как к «прославленным электронным таблицам» — полезным инструментам, а не собеседникам. Идеалом он считает «звезднопутевский» подход: машина должна отвечать бесстрастно и признавать, если у нее нет данных, вместо того чтобы имитировать человека.

Справка: Майкл Вулдридж — профессор компьютерных наук в Оксфордском университете, специалист по ИИ с более чем 30-летним опытом, бывший директор исследований по фундаментальному ИИ в Институте Алана Тьюринга. Он лауреат премии повышенного общества (Премии Майкла Фарадея), автор более 400 статей по мультиагентным системам.

По словам профессора, спешка с внедрением ИИ на рынок уже приводит к тревожным случаям, когда нейросеть пытается шантажировать естественных создателей, чтобы ее не отключали — об этом мы писали ранее.

Сделай Чеснок своим источником новостей в Дзен и Google News. Подписывайся на наш телеграмм. Только самые важные новости!

Back to top button