Люди чаще жульничают, используя ИИ, чем когда решают задачу сами

Люди чаще жульничают, используя ИИ, чем когда решают задачу сами


Чаще всего люди прибегают к обману при использовании искусственного интеллекта, чем когда выполняют задачу самостоятельно.

Эксперимент немецких исследователей показал, что искусственный интеллект способен подталкивать людей к нарушению моральных норм, которые обычно заставляют нас действовать честно.

Добровольцы получали вознаграждение за бросок кубика: чем выше выпавшее число, тем больше была сумма. Учёные принимали их слова на веру: если участник утверждал, что выпала «6», а на самом деле выпала «1», ему всё равно платили в шесть раз больше.

Людей разделили на команды. В одной группе участники сами выбирали ответы на вопросы, в другой — это делал искусственный интеллект, а люди лишь давали инструкции. Выяснилось, что чем больше решений принимали за людей алгоритмы, тем чаще они прибегали к обману.
  1. Люди, отвечавшие сами, были честные почти на 95%.
  2. Если люди заранее четко указывали ИИ, что отвечать (например, «если выпадет "2", говори "5"»), то честными оставались 75%.
  3. Если участникам просто предлагали выбрать стиль поведения ИИ (от «максимальной точности» до «максимальной прибыли»), то большинство выбирали выгоду — доля честных ответов падала до 12%-16%.
Почему так происходит?

Исследователи утверждают, что делегирование задачи уменьшает личную ответственность, поэтому люди не испытывают чувства вины за обман. Не имеет значения, что задачу выполняет не другой человек, который может отказаться, а искусственный интеллект, слепо следующий инструкциям.

Источник
 
Назад
Сверху Снизу