Собирая информацию, необходимую для того, чтобы научить автономные транспортные средства принимать «хорошие» решения, группа исследователей разработала серию экспериментов, позволяющих лучше понять, какие решения, связанные с управлением транспортными средствами, считаются моральными и аморальными.
В этой своей работе учёные стремились охватить более реалистичный спектр дорожных моральных проблем, чем в широко обсуждаемом сценарии так называемой «трамвайной дилеммы» («trolley problem»).
«Трамвайная дилемма представляет собой ситуацию, в которой некто должен решить, следует ли ему преднамеренно убить какого-то одного человека (что уже аморально) для спасения от смерти множества людей», — поясняет Дарио Чеккини (Dario Cecchini), первый автор статьи о данной работе и исследователь-постдокторант в Университете штата Северная Каролина (North Carolina State University).
«В последние годы трамвайную дилемму использовали как парадигму для изучения моральных решений, принимаемых на дорогах, — отмечает Чеккини. — В качестве типичной ситуации рассматривали бинарный выбор самоуправляемого автомобиля между поворотом налево, означающим летальное столкновение с каким-то препятствием, и продолжением движения прямо вперёд с неминуемым наездом на переходящего улицу пешехода. Однако такие дилеммы, подобные трамвайной, нереалистичны. Водители ежедневно вынуждены принимать гораздо более реалистичные моральные решения. Надо ли превысить скорость? Надо ли проехать на красный свет? Надо ли остановиться для вызова скорой помощи?»
«Эти обыденные решения очень важны, ибо в конечном итоге могут привести к смертельно опасным ситуациям», — говорит Велько Дублевич (Veljko Dubljević), автор-контактёр (corresponding author) статьи и доцент научно-технических и социальных исследований в Университете Северной Каролины.
«Например, тот, кто едет на красный свет с превышением скорости на 20 миль в час, может оказаться в ситуации, когда нужно либо вписаться в поток машин, либо врезаться в какое-то препятствие. В настоящее время в литературе очень мало данных о том, как мы с позиций морали оцениваем ежедневные решения, которые принимают водители».
Чтобы устранить этот дефицит информации, исследователи разработали серию экспериментов. Их цель — установить, какую моральную оценку получают решения, принимаемые в дорожных ситуациях с низкими, некритичными ставками. Исследователи создали семь различных сценариев вождения. Например, в одном из них водитель автомобиля, спешащий вовремя привезти своего ребёнка в школу, должен решить, ждать ли зелёного сигнала светофора. Все сценарии запрограммированы в виртуальной реальности, так что участники экспериментов принимают решения, исходя из аудиовизуальной информации о действиях водителей, а не из одних лишь сценарных текстов.
В основу данного исследования была положена модель последствий действий агента (Agent Deed Consequence model), согласно которой при формировании моральной оценки учитываются три аспекта: агент, т. е. характер или намерение действующего человека, поступок, или деяние, и последствие, или результат поступка.
Для каждого сценария исследователи создали восемь различных версий, меняя комбинации агента, поступка и результата поступка. Например, в одной версии сценария с водителем, везущим своего ребёнка в школу, водитель благоразумно тормозит на жёлтый сигнал светофора и успевает вовремя доставить ребёнка в школу, а в другой версии этот же водитель-родитель лихачит, проезжает на красный свет и становится виновником аварии. В остальных шести версиях изменены характер родителя (агента), его реакция на сигнал светофора (поступок) и/или результат его решения (последствие).
«Цель здесь такая: участники исследования должны, ознакомившись с одной версией каждого сценария, определить по десятибалльной шкале, насколько моральным было поведение водителя в каждом сценарии, — объясняет Чеккини. — Это даст нам надёжную информацию о том, какое поведение считается моральным в контексте управления транспортным средством, а затем её можно использовать при создании ИИ-алгоритмов для принятия моральных решений автономными транспортными средствами».
Исследователи провели пилотное тестирование, чтобы точно настроить разработанные сценарии и убедиться в правдоподобности и понятности представленных в них ситуаций.
«Следующий шаг — организовать крупномасштабный сбор данных, привлекая к участию в экспериментах тысячи людей, — говорит Дублевич. — Потом мы сможем применить полученную информацию для разработки более интерактивных экспериментов с целью дальнейшего улучшения понимания нами процесса принятия моральных решений. Всё это впоследствии можно использовать при создании алгоритмов для автономных транспортных средств. Затем нужно будет провести дополнительное тестирование, чтобы увидеть, как работают эти алгоритмы».
Статья «Moral judgment in realistic traffic scenarios: Moving beyond the trolley paradigm for ethics of autonomous vehicles» («Моральное суждение в реалистичных сценариях дорожного движения: выход за рамки трамвайной парадигмы для разработки этики автономных транспортных средств») опубликована в открытом доступе в журнале «AI & Society: Knowledge, Culture and Communication» («ИИ и общество: знания, культура и коммуникация»).
Автор: Мэтт Шипман (Matt Shipman), Перевод: Александр Горлов