Чаще всего люди прибегают к обману при использовании искусственного интеллекта, чем когда выполняют задачу самостоятельно.
Эксперимент немецких исследователей показал, что искусственный интеллект способен подталкивать людей к нарушению моральных норм, которые обычно заставляют нас действовать честно.
Добровольцы получали вознаграждение за бросок кубика: чем выше выпавшее число, тем больше была сумма. Учёные принимали их слова на веру: если участник утверждал, что выпала «6», а на самом деле выпала «1», ему всё равно платили в шесть раз больше.
Людей разделили на команды. В одной группе участники сами выбирали ответы на вопросы, в другой — это делал искусственный интеллект, а люди лишь давали инструкции. Выяснилось, что чем больше решений принимали за людей алгоритмы, тем чаще они прибегали к обману.
- Люди, отвечавшие сами, были честные почти на 95%.
- Если люди заранее четко указывали ИИ, что отвечать (например, «если выпадет "2", говори "5"»), то честными оставались 75%.
- Если участникам просто предлагали выбрать стиль поведения ИИ (от «максимальной точности» до «максимальной прибыли»), то большинство выбирали выгоду — доля честных ответов падала до 12%-16%.
Исследователи утверждают, что делегирование задачи уменьшает личную ответственность, поэтому люди не испытывают чувства вины за обман. Не имеет значения, что задачу выполняет не другой человек, который может отказаться, а искусственный интеллект, слепо следующий инструкциям.
Источник