Строим нравственную машину: кто будет отвечать за этику самоуправляемых автомобилей?

Ваш брат движeтeсь пo шoссe, кaк вдруг нa oживлeнную дoрoгу выбeгaeт чeлoвeк. Вoкруг вaс движутся aвтoмoбили, и у вaс eсть дoля сeкунды, чтoбы признать рeшeниe: пoпытaться oбъexaть чeлoвeкa и сoздaть риск aвaрии? Прoдoлжaть движeниe в нaдeждe, чтo oн успeeт? Тoрмoзить? Кaк ваша милость oцeнитe шaнсы, eсли у вaс нa зaднeм сидeньe будeт пристегнут самовар? Вы находитесь в ситуации, на кону которой бытье и смерть, простого выбора нет, и ваше решение, до сути, определит, кому жить, а кому умереть. Выбор вагонетки и искусственный интеллект
Новая работа MIT, опубликованная бери прошлой неделе в журнале Nature, пытается придумать рабочее урегулирование проблемы вагонетки, привлекая миллионы добровольцев. Эксперимент начался в 2014 году и основательно удался, получив больше 40 миллионов ответов изо 233 стран, что делает его одним изо крупнейших проведенных нравственных исследований. Человек может полагать такие решения несознательно. Трудно взвесить все этические системы и нравственные предпосылки, рано или поздно твой автомобиль мчится по дороге. Автоматизированные беспилотники будут пал, сколько «побочного ущерба» допустимо в отдельном военном столкновении. Отнюдь не все моральные принципы равны
«Решения» проблемы вагонетки этак же разнообразны, как и сами проблемы. Каким образом механизмы будут принимать моральные решения, когда основы морали и нравственности безвыгодный приняты универсально и могут не иметь решений? Кому отпускать, правильно или неправильно поступает алгоритм? В конце концов, с тем чтобы общественность приняла самоуправляемые автомобили, она должна во хмелю моральный фундамент, стоящий за их решениями. Короче не очень хорошо, если специалисты по этике иль юристы придут к решению, которое будет неприемлемо иначе недопустимо для обычных водителей. Прежде всего, ученые признают, фигли невозможно узнать частоту или характер этих ситуаций в реальной жизни. Вследствие этого, чтобы проблему стало возможно отследить, ее нельзя не разбивать на упрощенные сценарии, искать универсальные моральные миросозерцание и принципы. Когда вы проходите опрос, вам предлагается тринадцать вопросов, которые требуют простого выбора: (вот) так или нет, пытаясь сузить ответы до девяти факторов. Должна ли автомашина свернуть на другую полосу или продолжать моция? Должны ли вы спасать молодых людей, а невыгодный старых? Женщин или мужчин? Животных или людей? Должны ли ваш брат попытаться спасти как можно больше жизней река один ребенок «стоит» двух пожилых? Спасти пассажиров в автомобиле, а приставки не- пешеходов? Тех, кто переходит дорогу не объединение правилам, или тех, кто по правилам? Должны ли ваша милость спасать людей, которые более крепкие физически? А чисто насчет людей с более высоким социальным статусом, таких в качестве кого врачи или бизнесмены? В этом суровом гипотетическом мире кто именно-то должен умереть, а вы будете отвечать возьми каждый из этих вопросов — с разной степенью энтузиазма. Все же принятие этих решений также раскрывает глубоко укоренившиеся культурные нормы и предубеждения. Производство огромного набора данных, полученных учеными в ходе опроса, дает универсальные видение, а также любопытные исключения. Три наиболее преобладающих фактора, усредненные сообразно всему населению, выражались в том, что каждый предпочитал выручать больше жизней, нежели меньше, людей, а не животных, и молодых, а малограмотный старых. Региональные различия
Вы можете согласиться с этими пунктами, же чем глубже вы задумываетесь над ними, тем паче тревожными будут моральные выводы. Больше респондентов предпочли избавить преступника вместо кошки, но в целом предпочли избавить собаку, а не преступника. В среднем по миру красоваться старым оценивается выше, чем быть бездомным, однако бездомных людей спасали реже, чем жирных. И сии правила не были универсальными: респонденты из Франции, Великобритании и США отдавали избрание молодым, тогда как респонденты из Китая и Тайваня охотнее спасали пожилых людей. Респонденты изо Японии предпочитали спасать пешеходов, а не пассажиров, а в Китае предпочитают пассажиров пешеходам. Исследователи обнаружили, ась? могут сгруппировать ответы по странам в три категории: «Запад», предпочтительно Северная Америка и Европа, где нравственность базируется в основном возьми христианской доктрине; «Восток» —   Япония, Тайвань, Ближний Вест, где преобладают конфуцианство и ислам; «Южные» страны, включительно Центральную и Южную Америку, наряду с сильным французским культурным влиянием. В Восточном сегменте превыше склонность к спасению молодых людей. Фильтрация по разным атрибутам респондента дает бесконечные интересные варианты. Вопросы вне ответа
Никто не утверждает, что это эксперимент каким-то образом «решает» все эти веские моральные проблемы. Авторы исследования отмечают, как краудсорсинг онлайн-данных все же включает предубежденность. Что будет, если риски будут меняться в зависимости с принятого вами решения? Что, если алгоритм сможет расчислить, что у вас был всего 50-процентный контршансы убить пешеходов, учитывая скорость, с которой вы двигались? Эдмонд Авад, Водан из авторов исследования, выразил осторожность в отношении чрезмерной интерпретации результатов. Обсуждение, по его мнению, должна перетекать в анализ рисков — кто именно больше или меньше подвержен риску —   вместо того, дай вам решать, кому умереть, а кому нет. Но самым важным результатом исследования стала дебаты, которая разгорелась на его почве. Поскольку алгоритмы начинают признавать все более важные решения, влияющие на дни людей, крайне важно, чтобы у нас было постоянное брехаловка этики ИИ. Проектирование «искусственной совести» должно подсоединять мнение каждого. Хотя ответы не всегда перестаньте просто найти, лучше все же попытаться выковать нравственные рамки для алгоритмов, не позволяя алгоритмам автономно формировать мир без человеческого контроля. Согласны?

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *