Аннотация
Достижения в области искусственного интеллекта (ИИ) меняют жизнь людей способами, которые ранее невозможно было представить. Мы утверждаем, что в эпоху первой машинной революции технологии рассматривались как инструмент, а этика ставилась в перспективу этого подхода. Однако вторая машинная эпоха уже наступила, и изменения, вызванные ИИ, перестраивают способы взаимодействия и процветания людей. Таким образом, этика должна рассматриваться как обязательное требование к содержанию систем. Для обоснования этого аргумента мы выделяем три ключевые точки: автономия, право на объяснение и соответствие ценностям, которые направляют дискуссию о том, почему этика должна быть частью систем, а не только принципами для пользователей. В заключение наше обсуждение приводит к размышлениям о переопределении моральной агентности ИИ. Наш ключевой аргумент заключается в том, что этические вопросы могут быть решены только после признания моральной агентности ИИ, даже если она не на человеческом уровне. Для будущих исследований мы предлагаем рассмотреть новые способы восприятия этики и поиска места для машин, используя модели, применяемые веками, но адаптируя их к новой реальности сосуществования искусственного интеллекта и людей.
Ана Луиза Корреа Бертончини, Маурисио С. Серафим
AdmEthics – Исследовательская группа по этике, добродетелям и моральным дилеммам в управлении, Программа магистратуры по администрированию, Колледж административных и социально-экономических наук, Университет штата Санта-Катарина, Флорианополис, Бразилия
Перевод статьи «Ethical Content in Artificial Intelligence Systems: A Demand Explained in Three Critical Points» авторов Ana Luize Corrêa Bertoncini и Mauricio C. Serafim, опубликованной в журнале Frontiers in Psychology 30 марта 2023 года (DOI: 10.3389/fpsyg.2023.1074787), выполнен в соответствии с лицензией Creative Commons Attribution 4.0 (CC BY 4.0). Оригинальная статья доступна по адресу: https://www.frontiersin.org/journals/psychology/articles/10.3389/fpsyg.2023.1074787/full. Все права на оригинальную статью принадлежат авторам и издателю.
1. Введение
Искусственный интеллект (ИИ) меняет жизнь людей способами, которые ранее невозможно было представить. Машинное обучение, роботы, алгоритмы и автономные транспортные средства выполняют продуктивные задачи и предлагают сложные решения для улучшения общества (Awad et al., 2018; Hooker and Kim, 2019a). Главная цель — сделать жизнь проще и приятнее (Kim et al., 2021), способствовать благополучию и минимизировать вред (Awad et al., 2018). Однако эта задача не так проста, и проблемы возникают уже на этапе определения того, что такое искусственный интеллект и как он работает на практике (Tegmark, 2017). Это отражает сложность определения границ ИИ, поскольку выгоды, возможности и угрозы новых технологий сосуществуют в пока неизвестных последствиях.
Среди возможностей можно отметить потенциальные результаты, такие как сокращение социальных проблем; машины также могут заменять людей в опасных или неприятных видах деятельности (Anderson and Anderson, 2011). Как ключевое свойство Индустрии 4.0, ИИ позволяет использовать большие объёмы данных для создания знаний, снижая затраты, повышая качество и улучшая условия труда (Kim et al., 2021). Первая машинная эпоха принесла инновации, заменившие физическую силу человека, создав современную жизнь и резко изменив траекторию человеческой истории. Теперь мир вступает во вторую машинную эпоху, где технологии создают ментальную силу, которая, как ожидается, преодолеет прошлые ограничения и выведет нас на новые уровни развития (Brynjolfsson and McAfee, 2016). Таким образом, имеет смысл представить ИИ, который имитирует более широкое понятие интеллекта, включающее мудрость, а не только инструментальное представление об интеллекте (Kim and Mejia, 2019).
Тем не менее, консенсуса о том, что такое искусственный интеллект и будут ли преодолены технические вызовы для достижения сильного ИИ, всё ещё нет. Однако эти технологии уже применяются в самых разных областях (Awad et al., 2018; Hooker and Kim, 2019a; Anagnostou et al., 2022; Ashok et al., 2022; Miller, 2022; Munn, 2022), в то время как наше понимание их этических и социальных последствий остаётся поверхностным. Кроме того, очевидно, что непреднамеренные последствия могут возникать чаще, чем ожидалось, несмотря на благие намерения (Coeckelberg, 2020). Помимо этого, под оценкой находятся не только технические аспекты и их последствия. ИИ легко воспринимается как часть компьютерных наук и инженерных исследований, но попытки сделать решения ИИ похожими на человеческие также привлекают когнитивных учёных. ИИ стал плодотворной областью исследований человеческого разума, возродив вековые дискуссии о принятии решений, человеческих действиях, рациональности и познании (Franklin, 2014). В этом контексте обсуждение человеческого интеллекта расширилось за счёт искусственных агентов, пытающихся его воспроизвести (Hooker and Kim, 2019b), и одним из наиболее продуктивных является этический вопрос.
В этом контексте, если раньше мы заботились о разработке этики для людей, использующих машины, теперь нам срочно необходимо обсуждать этику для самих машин. Стремясь имитировать человеческое поведение, ИИ отличается от традиционных технологий, и в этом отношении перспектива анализа этики изменилась. С инструментальной точки зрения машины — не более чем инструменты, используемые людьми, поэтому этика лежит на людях, использующих машины, и касается их правильного и неправильного применения (Anderson and Anderson, 2011). Этот сценарий соответствует первой машинной эпохе, отмеченной промышленной революцией, когда машины заменяли физическую силу человека (Brynjolfsson and McAfee, 2016). Это означает, что все компромиссы и моральные дилеммы были ответственностью людей, и ответственность легко прослеживалась. Но что происходит, когда принятие решений полностью зависит от машин? Чтобы ответить на этот вопрос, изменения, вызванные ИИ, перестраивают способы взаимодействия и процветания людей, улучшая нашу жизнь (Kim and Mejia, 2019); поэтому этика — одна из особенностей человеческой жизни, которую следует пересмотреть.
Для обоснования этого аргумента мы сначала объясняем, почему следует сосредоточиться на этике ИИ. Далее мы направляем дискуссию через три ключевые точки: автономия, право на объяснение и соответствие ценностям. Наш аргумент показывает, что эти три важных аспекта должны учитываться при анализе процесса мимикрии ИИ для воспроизведения человеческих действий и решений (Anderson and Anderson, 2011) и, следовательно, объясняют, почему этика должна быть частью содержания систем, а не только принципами для пользователей. В последней части статьи мы показываем, как эти точки приводят к размышлениям об агентности ИИ. Мы предлагаем, что этические вопросы могут быть решены только после уточнения моральной агентности ИИ.
2. Почему важна этика ИИ?
Искусственный интеллект затрагивает почти всех, кто использует современные технологии, но весь социальный контекст неизбежно будет затронут его последствиями (Franklin and Ramsey, 2014). Несмотря на это, эти достижения вызывают множество социальных вопросов, поскольку технологии и их алгоритмы незаметно определяют нашу жизнь, например, в вопросах продвижения по службе, предоставления кредитов и выбора продуктов для потребителей (Martin, 2019; Kim et al., 2021). Такие области, как образование, легко автоматизируются, и даже медицинские технологии были вытеснены машинами (Hooker and Kim, 2019a). Это случаи, когда обсуждаются критически важные решения, такие как решения о жизни и смерти в медицине. Оправданием для таких вмешательств в нашу жизнь является ожидание будущих улучшений, которые сократят неравенство, бедность, катастрофы, войны и т.д. Таким образом, дискуссия касается не только технологий, но и нашего будущего (Tegmark, 2017). Этот контекст уже достаточен, чтобы увидеть связь ИИ с этикой, но более глубокое изучение его основ обеспечит, что мы не упускаем ситуацию из виду.
Многие технологии ранее изменяли общество. Однако впервые созданная технология может заменить своих создателей в исключительно человеческих видах деятельности, а не просто сотрудничать с ними, как в предыдущих эволюциях (Brynjolfsson and McAfee, 2016). ИИ считается небелковым типом интеллекта, представляющим критическую точку жизни — технологическую фазу (жизнь 3.0), когда программное и аппаратное обеспечение могут разрабатываться самими собой. Эта способность началась, когда процесс обработки данных развился и добавил возможность обучения, позволяя алгоритмам учиться (Tegmark, 2017). Способность машин к обучению, зародившаяся в программе Артура Сэмюэля для игры в шашки, сделала машины способными развиваться из алгоритмов (Franklin, 2014). Однако, несмотря на эту способность, споры возникают из-за того, что алгоритмы — это всё ещё лишь последовательности инструкций, которые направляют машины или встроенные в них технологии к действиям, используя входные данные и выдавая результаты (Coeckelberg, 2020).
Особенности ИИ подчёркивают как компьютерно-техническую, так и научную сторону, которая помогает науке понять человеческий интеллект и воспроизвести его (Franklin, 2014). Эта междисциплинарная характеристика отражает пересечение теории вычислимости прошлых десятилетий и когнитивной революции. Эти два ключевых события выражают момент, когда термин «искусственный интеллект» был введён в 1956 году на знаковой конференции в Дартмуте (Arkoudas and Bringsjord, 2014). Кроме того, важно помнить, что ИИ — это не одна технология, а их совокупность. По своей природе их можно разделить на две основные категории (Kim et al., 2021): сильный ИИ, или общий искусственный интеллект (AGI), который стремится создать технологии, подобные человеческому интеллекту в различных областях; и слабый ИИ, который создаёт машины, действующие интеллектуально, без утверждения, что системы ИИ действительно обладают интеллектом (Arkoudas and Bringsjord, 2014; Kim et al., 2021). Альтернативная классификация включает ИИ-партнёров, которые помогают людям, и ИИ-умы, которые стремятся превзойти людей (Etzioni and Etzioni, 2017). В этом смысле некоторые авторы говорят о сверхинтеллектуальном ИИ, который стремится улучшить человеческие способности и даже достичь бессмертия путём переноса человеческого мозга в робота. Однако всё ещё неясно, насколько обсуждения сверхинтеллекта релевантны для развития исследований в этой области (Coeckelberg, 2020).
Кроме того, само определение искусственного интеллекта остаётся спорным. Утверждение, что ИИ — это технология, способная демонстрировать интеллект через алгоритмы, слишком неточно с философской и этической точки зрения. Отсутствие универсального определения — одна из причин, почему концепция интеллекта, используемая для ИИ, обычно сравнивается с человеческой (Coeckelberg, 2020). В этом смысле антропоморфная иллюзия объясняет это сравнение, проявляясь в редукционизме в восприятии человека, отражающемся в механицизме на эпистемологическом уровне и в утилитаризме на этическом уровне (Bertolaso and Rocchi, 2022). Поэтому, если определение интеллекта всегда было сложной задачей, современная форма интеллекта не облегчила её решение. Хотя легко понять, что искусственный означает нечеловеческий, искусственный интеллект охватывает широкую область, посвящённую разработке артефактов, способных к интеллектуальному поведению в контролируемых средах и в определённые периоды (Arkoudas and Bringsjord, 2014). С другой стороны, ИИ можно рассматривать как междисциплинарный подход к пониманию, созданию моделей и воспроизведению интеллектуальных и когнитивных процессов на основе вычислительных, математических, механических и даже биологических принципов (Kim et al., 2021).
Однако одна из проблем определения ИИ заключается в несоответствии базовых концепций: они предполагают точные и интеллектуальные системы в конкретных областях, и они не всегда означают человеческий интеллект. Например, животные также могут демонстрировать интеллектуальное поведение (Kim et al., 2021). Таким образом, более полное определение должно учитывать демонстрацию «интеллекта через небелковые/ненатуральные процессы» (Kim et al., 2021, с. 357). В этом контексте Тегмарк (2017, с. 85) считает интеллект «способностью достигать сложных целей». Он предпочитает использовать всеобъемлющее и инклюзивное определение, поскольку нет бесспорного определения интеллекта, и даже среди исследователей нет согласия. Кроме того, слово «интеллект» имеет тенденцию к положительной коннотации, поэтому более широкая интерпретация должна быть нейтральной, поскольку упомянутая способность не всегда имеет только благие цели (Tegmark, 2017). Мы также принимаем это определение, чтобы охватить различные понимания и все типы интеллекта, которые сравнимы и измеримы только по спектру способностей для достижения целей.
Помимо обсуждения интеллекта возникает другая дилемма. Отсутствие консенсуса касается не только определения, и исследователи всё ещё не согласны, возможно ли когда-либо создание универсального искусственного интеллекта, сильного ИИ или ИИ-ума. Однако, хотя технологии всё ещё недостаточно умны, наше понимание их этических и социальных последствий поверхностно. В то же время текущий сценарий показывает, что непреднамеренные последствия могут возникать чаще, чем ожидалось, несмотря на благие намерения (Coeckelberg, 2020). Поэтому необходимо развивать область этики ИИ, посвящённую сертификации этически приемлемого поведения машин. В этом смысле амбицией этики ИИ было бы создание машин, способных самостоятельно принимать этические решения. И, оставляя в стороне обсуждение того, как машины могли бы это сделать (техническая часть), знание того, что является этичным, снова связывает область ИИ с её философской ветвью (Anderson and Anderson, 2011).
Хотя важно обсуждать будущее технологий и возможные последствия сильного ИИ, при реалистичном взгляде фокус неизбежно смещается на слабый ИИ, поскольку это единственный тип, который у нас есть сегодня. Также, чтобы понять границы обсуждения использования и последствий ИИ, следует осознать, что эта технология может принимать множество форм и является частью более крупных технологических систем. Некоторые последствия и негативные результаты могут касаться и других технологий (Coeckelberg, 2020). С этой точки зрения ИИ, как и любая другая технология, является инструментом, используемым людьми. Подобно технологиям первой машинной эпохи, когда машины заменяли физическую силу человека (Brynjolfsson and McAfee, 2016), это очевидно, когда ИИ интерпретируется как партнёр. Для машин, понимаемых как инструмент, люди несут ответственность за все виды результатов, будь то положительные или отрицательные. Это означает, что все компромиссы и моральные дилеммы зависят от них, и ответственность легко прослеживается. Это означает, что этика отличается от этики по отношению к другим интеллектуальным сущностям, поскольку ИИ — это артефакт нашей культуры и результат нашего интеллекта (Bryson, 2010).
С другой стороны, этика для людей, использующих машины с инструментальной точки зрения, недостаточна для областей, в которые проникает ИИ, поэтому нам срочно нужно обсуждать этику для машин. Хотя сильный ИИ ещё не возможен, а этичные машины — лишь конечная цель, ИИ отличается от традиционных технологий стремлением имитировать человеческое поведение. В этом отношении перспектива анализа этики неизбежно изменилась, и мы должны рассматривать её в содержании (Anderson and Anderson, 2011). Даже если машины не полностью похожи на человека, что происходит, когда принятие решений полностью зависит от машин? Более того, учитывая все незавершённые обсуждения концепций и границ, технология может стать «чёрным ящиком», где последствия не полностью картографированы. Мы живём во второй машинной эпохе, и машины заменяют нашу ментальную силу (Brynjolfsson and McAfee, 2016). Таким образом, чтобы ответить на этот вопрос, следует обдумать изменения, вызванные ИИ, которые перестраивают способы взаимодействия и процветания людей, улучшая нашу жизнь (Kim and Mejia, 2019), поскольку ИИ проникает в области, известные как исключительно человеческие. Поэтому этика — одна из особенностей человеческой жизни, которую следует пересмотреть, чтобы гарантировать, что результаты работы машин будут соответствовать этическим ожиданиям общества. В качестве отправной точки для этой переоценки мы предлагаем анализировать три ключевые точки для направления дискуссии: автономия, объяснимый ИИ и соответствие ценностям, хотя можно понять, что обсуждение не ограничивается ими. Однако они подчёркивают, что этика должна быть в содержании машин и являются яркими примерами того, почему нам нужно переосмыслить этику, чтобы она соответствовала новому сценарию, навязанному ИИ.
2.1. Автономность, но этичная
Если системы искусственного интеллекта продолжат увеличивать свои уровни компетентности и проникновения в нашу жизнь, беспокойство по поводу автономности будет усиливаться. Озабоченность связана с тем, что автономные агенты обычно принимают решения свободно, без внешних и этических ограничений (Hooker and Kim, 2019b). Это чувство самоуправления может создать восприятие автономного ИИ, который может контролировать наше будущее и стать нашим хозяином вместо того, чтобы служить нам (Kim et al., 2021) или превратиться в «закон для самих себя» (Hooker and Kim, 2019b, с. 1). Тем не менее, момент, когда технология предоставит машины, способные к намеренной агентности и достаточно квалифицированные, чтобы устанавливать принципы и мотивации для управления своими действиями и решениями, всё ещё находится в неопределённом будущем (Hooker and Kim, 2019b). Кроме того, мы утверждаем, что автономия неправильно интерпретируется как свобода и свободная воля в контексте ИИ, учитывая, что свободная воля является центральной чертой агентности, необходимой для морально ответственных действий (Stanford Encyclopedia of Philosophy, 2018). Понимание того, что означает автономия для машин, а также её ограничения, прояснит этические вопросы.
Концепция автономии изучалась в различных областях, включая философию, психологию и, в последнее время, технологии автоматизации. Наиболее известное понятие автономии связано со свободной волей. Тем не менее, бихевиористы рассматривают её как реакции на стимулы окружающей среды, а другие описания связывают её с самоуправлением и самоконтролем. В любом случае, эти ранние подходы отличаются от технологических, наблюдаемых в искусственном интеллекте, где автономия связана с автономной функцией работы без вмешательства и иногда является связующим звеном между людьми и машинами. В этом последнем обзоре автономия представляет собой передачу контроля от людей к автоматизации (Beer et al., 2014); уровень автономии варьируется в зависимости от степени необходимого вмешательства (Desai and Yanco, 2005). Таким образом, автономные агенты должны рассматриваться как те, кто имеет цели и действует в окружающей среде, следуя мотивациям и плану, не навязанным или принятым другими агентами, с различными уровнями вмешательства. Кроме того, идея отсутствия ограничений не является успешной, если она оставляет за бортом элемент рациональности, необходимый для интеллектуальных требований систем ИИ. Однако необходимая рациональность опирается на давно известный принцип этики для обеспечения согласованности причин (Hooker and Kim, 2019b).
В области ИИ автономия часто рассматривается как характеристика, подобная человеческой или социально интерактивная. Также она связана со способностью изменять свои действия, хотя только в рамках заданной среды. Термин «цель» обычно связан с этой способностью, а контроль используется непоследовательно, но лучше понимается как отсутствие вмешательства (Beer et al., 2014). Тем не менее, можно заметить, что, хотя кажется, что ИИ принимает решения самостоятельно, результаты являются лишь отражением внешних сил (Etzioni and Etzioni, 2017), заданных входными данными из окружающей среды и следующими за программированием, разработанным людьми. Хотя эти характеристики могут открыть пространство для неэтичного поведения, обсуждается, что автономное действие должно объясняться с помощью последовательных причин, и этические принципы являются необходимым условием для этого. Устанавливая эти границы в системах ИИ, можно увидеть, что автономия не означает неэтичность (Hooker and Kim, 2019b) и почему машины не станут нашими хозяевами, как в научной фантастике. Поскольку они принадлежат людям, мы определяем их цели, а также их действия и поведение. Реальные люди дегуманизируются, стремясь к человеческой автономии, и принятие решений поощряется при неправильном распределении ресурсов и ответственности (Bryson, 2010). Другими словами, научная фантастика не должна вызывать опасений. Несмотря на автономию ИИ, мы устанавливаем этические принципы и рациональность, лежащие в основе технологии. И, не имея свободной воли, машины не должны изменять план, установленный людьми в первую очередь.
Хотя отсутствие свободной воли не является проблемой, если мы интерпретируем автономию для машин в этой логике, нельзя упускать из виду, что невозможность быть свободным также является аргументом критиков против искусственного сознания (Casebeer, 2020). В этом смысле обсуждение автономии неполно, если мы не затрагиваем вопрос сознания машин. Во-первых, следует понять концепцию сознания, которая, в широком смысле, представляет собой осознание собственного существования и может варьироваться от базового и рудиментарного чувства собственного существования до рефлексивной способности сознания. Продвинутые стадии сознания всё ещё кажутся слишком далёкими для достижения в ИИ, особенно когда речь идёт о человеческой метакогниции и воле. С другой стороны, совесть — это способность судить о правильном или неправильном, и сознание является предварительным условием для этого, но оно развивается со временем, что означает, что некоторые действия, ранее считавшиеся приемлемыми, сегодня могут считаться неуместными (Meissner, 2020). В то же время мы утверждаем, что, хотя продвинутые уровни сознания ещё не достигнуты, некоторая форма совести необходима для выполнения этических требований на текущих и ожидаемых уровнях автономии в системах ИИ. С этой точки зрения усилия по пониманию природы сознания в контексте ИИ создали область, известную как искусственное сознание (Reggia, 2013). Значительные достижения можно увидеть в литературе, например, в работах Eldeman et al. (1992), Franklin and Graesser (1999), Safron (2022), Cleeremans (2005), Baars and Franklin (2009), Seth (2009), Gamez (2012), Bringsjord et al. (2015), Reggia et al. (2016), Tononi et al. (2016) и Dehaene et al. (2021).
Тем не менее, процесс сознания остаётся загадкой (Reggia, 2013), и совесть машин требует более глубокого обсуждения, чтобы показать все перспективы и точки зрения за и против. Для целей этой статьи вопрос автономии отражает проблему свободы и детерминизма (Hooker and Kim, 2019b). В то время как детерминистические принципы препятствуют свободе агентов, некоторые компатибилистские принципы отвергают идею, что свобода связана с морально ответственной агентностью, поскольку мы также обусловлены нашими выборами и ситуационными вариантами (Stanford Encyclopedia of Philosophy, 2018). Таким образом, понятие автономии для ИИ создаёт критерий для различения действия от поведения и агентов от неагентов. В отличие от действий, автономное поведение может давать этичные результаты, поскольку оно последовательное, уважает других агентов (Hooker and Kim, 2019b) и обусловлено рациональностью, заданной людьми в первую очередь. Также принцип обобщения обеспечивает автономию во взаимодействии, связывающем людей и машины, поскольку оба рассматриваются как агенты, хотя и разные.
В этом рассуждении ИИ — это система (или встроенная в неё), которую можно считать автономным агентом, поскольку она воспринимает контекст для действия на основе него (входы) для достижения собственных целей, влияя на восприятие в будущем (выходы) (Franklin and Graesser, 1996). Другими словами, чтобы развивать автономию, оставаясь этичной, машинам не нужно приобретать человеческие чувства, поскольку агентность и действия, управляемые программой, могут обеспечить условия для управления производительностью в соответствии с обстоятельствами (Hooker and Kim, 2019b); им также не нужно иметь сознание или совесть, поскольку моральное суждение может быть достигнуто из этических принципов, заданных на основе контрафактических данных или внешних входных факторов, предоставленных людьми. Тем не менее, функционирование и взаимодействие между людьми и машинами должны быть синергичными, и это происходит только тогда, когда доверие и надёжность являются частью отношений (Dzindolet et al., 2003). Таким образом, для удовлетворения этих требований прозрачность в объяснениях становится необходимой (Hooker and Kim, 2019b).
2.2. Право на объяснение и объяснимый ИИ
Алгоритмы автономно принимают решения, касающиеся субъектов. Таким образом, то, как алгоритмы приходят к окончательному решению, вызывает дискуссию о праве на объяснение как моральном праве человека. Как мы показали в предыдущем разделе, автономные решения должны иметь последовательную причину, объяснимую рациональными терминами. Однако, несмотря на многочисленные преимущества ИИ, особенно те, что приносит машинное обучение, действия и решения не всегда объяснимы для пользователей-людей. Кроме того, производительность машинного обучения отрицательно коррелирует с объяснимостью. Это означает, что чем выше производительность, тем менее объяснима система, и наоборот. В этом отношении многие исследователи работают над созданием конструкций, чьи результаты обучения и решения легко понятны и вызывают доверие, а также над управлением новыми поколениями ИИ, сохраняя производительность (Gunning, 2019). Тем не менее, в этой области существуют разные идеи, и исследовательские группы разрабатывают различные модели. Таким образом, определение подходящей модели всё ещё остаётся сложной задачей (Kim, 2018).
В этом вопросе объяснимый ИИ (XAI) является новейшей исследовательской целью для удовлетворения практических, юридических и этических ожиданий. Этот тип технологии называется XAI и связан с использованием, вопросами ответственности, правом на объяснение и автономией, среди прочих примеров (Kim, 2018). Стремясь обеспечить подотчётность и прозрачные системы, право на объяснение является многообещающим инструментом для правительств и других организаций (Wachter et al., 2017a). Как моральное право, право на объяснение существует помимо влияния конечного результата, сосредотачиваясь на защите конфиденциальности пользователей в транзакциях согласия и третьих сторон, которые могут быть вовлечены в события (Kim and Routledge, 2018). Тем не менее, объяснимый ИИ не означает просто прозрачный, интерпретируемый или понятный. Поэтому человеческая психология используется для предоставления информации, необходимой для создания разумных систем XAI. Эти требования касаются того, что конечным пользователям нужно понять о решениях, чтобы выбрать наилучшее применение (Gunning, 2019). Другими словами, помимо удовлетворения этических ожиданий, людям всё ещё нужно понимать, как принимались решения, поскольку результаты машин могут быть слишком техническими для них.
Дебаты также касаются потребностей в объяснениях, конфиденциальности информации и выполнения юридических требований, таких как Общий регламент по защите данных Европейского Союза (GDPR) (Kim and Routledge, 2018). Однако важно понять, как система ИИ может предлагать объяснения, прежде чем обсуждать права человека в этом отношении (Wachter et al., 2017a; Kim and Routledge, 2018). Содержание и время определяют типы объяснений. Содержание относится к функциональности системы и её характеристикам, в то время как конкретные области включают обоснование, правила, причины, обстоятельства и т.д. Время определяет, требуется ли объяснение до (ex-ante) или после (ex-post) решения. Связывая их, можно сказать, что обоснование не может предшествовать решению, и ex-ante относится исключительно к функциональности системы (Wachter et al., 2017a; Hooker and Kim, 2019a). С другой стороны, ex-ante — это обобщённое объяснение, подобное традиционному праву на информацию. Ex-post, напротив, касается конкретных решений; они различаются корректирующими и обновляющими объяснениями, гарантирующими, что организации будут справедливыми и ответственными, когда что-то идёт не так или требуется реформа (Kim and Routledge, 2018).
Стремясь удовлетворить требования XAI, программа DARPA (Агентство перспективных исследовательских проектов Министерства обороны США) использует три стратегии для преодоления проблем объяснимости при сохранении производительности. Это глубокие объяснения, которые модифицируют глубокое обучение, стремясь к объяснимым характеристикам; техники интерпретируемых моделей, используемые для изучения более структурированных и причинных моделей; и индукция моделей, чтобы вывести объяснение из любых моделей, таких как в случае «чёрных ящиков» (Gunning, 2019). В этом смысле объяснение легко понимается как изложение логики решения. Однако литература утверждает, что для алгоритмов также необходима информация об внешних фактах, которые привели к этому решению. Эти описания известны как контрафактические данные (Wachter et al., 2017b) и могут быть выражены на естественном языке, чтобы предоставить интуитивный и эффективный инструмент для анализа решений машин (Hendricks et al., 2018). В этом контексте естественный язык означает наш язык, а не математический и логический язык алгоритмов.
Поскольку разрабатывается множество моделей, определение, какая из них достаточно хороша, выигрывает от литературы философии науки, объясняющей правильное против превосходного объяснения. Две основные категории научных исследований полезны в качестве отправной точки: непрагматическая теория правильного ответа на вопрос и прагматический взгляд, который стремится давать хорошие ответы на вопросы аудитории. Хотя непрагматическое объяснение наиболее подходит для технологических требований, пользователи-люди всё ещё должны его понимать (Kim, 2018). Другими словами, XAI должен быть объяснён точно и предоставлять хорошие ответы без неточностей, характерных для обычных прагматических теорий объяснения, не упуская при этом этические ожидания. Более глубокое исследование также выиграет от теории знания, в которой условиями знания являются истина, вера и обоснование. Некоторые мыслители также включают безопасность и чувствительность (Wachter et al., 2017b). С этой точки зрения можно понять, что диалог об объяснимости показывает, что проблема ИИ в основном заключается в отсутствии одного или нескольких условий знания. Следуя этой идее, возникает недоверие к несоответствию ценностей, поскольку неизвестно, действуют ли машины непреднамеренно или небрежно против нас и действительно ли результаты будут следовать рациональности, установленной как условие этичности при автономии.
2.3. Соответствие ценностям: союз с нашими ценностями, а не с их
Как мы предположили в предыдущем разделе, автономные машины нуждаются в последовательности и рациональности разумных объяснений, совместимых с человеческими ценностями, чтобы быть этичными. В этом отношении неопределённость вокруг этой совместимости растёт (Kim et al., 2018; Kim and Mejia, 2019), поскольку высокоразвитые технологии продвигаются в области, считающиеся исключительно человеческими. Эта озабоченность перекликается с идеями Алана Тьюринга об адаптации машин к человеческим стандартам (Kim et al., 2018). В последнее время модели «чёрного ящика» и некоторые функции машинного обучения, считающиеся «дикими», усилили опасения по поводу нашей безопасности и приверженности ценностям общества. Тем не менее, многие исследователи всё ещё верят в потенциал разработки надёжных систем, которые будут следовать тому, что они должны делать, и не делать того, чего не должны, в соответствии с нашими ценностями (Arnold et al., 2017, с. 1). Мы уже знаем, что машины, становящиеся злыми роботами, — это научная фантастика, но несоответствие интеллекта — факт, и опасения по поводу совместимости ценностей основаны на этом (Tegmark, 2017).
В этом сценарии исследователи стремятся имитировать моральную интеллигенцию, а не только логику и стратегию. Эти усилия объединены под термином «соответствие ценностям» (value alignment, VA), и этот поиск стремится преодолеть шаг, чтобы превратить машины в моральных агентов и вывести ИИ на более высокий уровень. Для достижения этой цели машины могли бы изучать человеческие предпочтения или учиться этике (Kim et al., 2019). Обратное обучение с подкреплением (IRL) — это метод, который мог бы это обеспечить. IRL в системах ИИ мог бы выводить предпочтения из поведения людей (Kim et al., 2018), чтобы научиться работать и вести себя этично, поскольку применение правил слишком строго для множества областей и может повлиять на автономию (Arnold et al., 2017). Тем не менее, опыт показывает, что машины могут учиться на предвзятых данных, созданных людьми (Hooker and Kim, 2019a); следовательно, поставить процветание человека в центр — непростая задача (Kim and Mejia, 2019). Кроме того, обучение с подкреплением накладывает слишком большую нагрузку на агентов, которым необходимо оценивать этику и социальный характер. Также есть множество технических проблем, которые нужно преодолеть, и знание того, кто обучает машину и как будет происходить оценка этики в действии, также может быть проблематичным (Arnold et al., 2017). Кроме того, эмпирическое наблюдение за ценностями в человеческих поведениях может ошибочно принимать «должное» за «есть». Проще говоря, люди считают некоторые поведения этичными, но это не обязательно означает, что они действительно таковы (Kim et al., 2019).
Несмотря на это, множество проблем возникает при попытке заставить машины учиться этике у людей. Этот мимикрирующий процесс опасен, поскольку люди не всегда демонстрируют лучшее поведение; можно заметить, что они не всегда стремятся перенимать все ценности, наблюдаемые у своих собратьев. В этом отношении закреплённая или гибридная модель могла бы быть более подходящей, поскольку внутренние ценности, помещённые в нормативные концепции, могли бы гарантировать соответствие (Kim et al., 2018), но без наложения ограничений на то, что изучается эмпирически (Kim et al., 2019). Нормы — это безопасное устройство, позволяющее принимать решения без неожиданных результатов, возникающих из обучения методом проб и ошибок. Таким образом, этические и моральные ценности, а также юридические требования, должны быть принципами принятия решений, разработанными как часть системы, чтобы обеспечить более прозрачные и подотчётные результаты, и для достижения этих результатов необходимо учитывать намерения, причины, нормы и контрафактические данные. Эти концептуальные уровни показывают, что общество оценивает поведение, глядя на то, предшествуют ли намерения действиям и являются ли они релевантными, лежат ли причины в основе аргументов, отражают ли нормы ожидания общества, и помещают ли контрафактические данные действие в контекст (Arnold et al., 2017).
Но даже если мы разработаем машины, соответствующие нашим ценностям и способные принимать решения с ожидаемой этикой, остаётся под вопросом, станут ли машины когда-либо моральными агентами. Моральный интеллект, или способность определять этичность, является отличительным элементом человеческого интеллекта. Моральная чувствительность находится в человеческой совести, которая, например, является частью динамического морального рассуждения, которое постоянно балансирует этику с эмпирическими наблюдениями (Kim et al., 2019). В этом смысле мы можем переоценивать потенциал ИИ, поскольку всё ещё невозможно применить все человеческие моральные рамки к машинам. Непредвиденные последствия очевидны при установке низкоопределённых и плохо сформулированных целей или предоставлении пространства для способности изменять и создавать планы, что приводит к действиям, несовместимым с ранее спроецированными намерениями (Vamplew et al., 2018). Таким образом, объединяя эти три ключевые точки, можно заключить, что автономия отличает ИИ от традиционных технологий. Однако требования объяснимости и соответствия показывают, что приобретённая агентность не даёт свободы и свободной воли, необходимых для уравнивания с человеческой моральной агентностью. Следовательно, мы сталкиваемся с артефактом, который не вписывается в известные типы агентности, поэтому мы должны определить его, чтобы лучше понять, как наши этические рамки будут работать в этой новой конфигурации.
3. Обсуждение: Моральные субъекты или моральные агенты? Что-то среднее!
Дебаты об агентности ИИ не новы и уходят корнями в 1960-е годы (Taddeo and Floridi, 2018). Инструментальное использование машин ставит технологии в позицию морального субъекта, который характеризуется как субъект моральной мотивации, но не может нести ответственность за свои действия (Rowlands, 2012). Однако, как мы показали в предыдущих разделах, искусственный интеллект меняет старую инструментальную перспективу этики, окружающей использование людьми, включая этику в содержание ИИ. Теперь этика должна направлять поведение машин по отношению к людям и другим машинам, поскольку они являются агентами в этих решениях и действиях (Anderson and Anderson, 2007). Агентность очевидна, например, в первой упомянутой ключевой точке — автономии, если мы принимаем компатибилистскую перспективу, что свобода не необходима для морально ответственных действий. Тем не менее, автономным машинам доверено множество приложений, и, решая различные задачи, ответственность за результаты усиливает озабоченность по поводу этики и безопасности. Поскольку реагирование на проблемы только после их возникновения недостаточно, объяснимый ИИ должен предсказывать результаты (Taddeo and Floridi, 2018), а не только объяснять их. Кроме того, мы утверждаем, что соответствие ценностям должно углубляться в направлении решения, чтобы обеспечить, что делегирование автономной системе также ответственно, а также тот факт, что VA доказывает, почему системы ИИ могут быть навсегда связаны с людьми, независимо от достигнутого уровня автономии.
Инициативы пытаются установить границы ИИ в обществе. Академия, правительство и частный сектор продвигаются к включению этических принципов в современные технологические системы, таких как надёжность, прозрачность и подотчётность (Cooley et al., 2023). Одним из примеров является Глобальная инициатива по этике автономных и интеллектуальных систем (IEEE), которая подчёркивает, что технологии должны способствовать благополучию и процветанию человека вместо подхода, который создаёт принципы и ограничения (Vamplew et al., 2018; Kim and Mejia, 2019). Миссия IEEE нелегка, поскольку определение этических принципов для регулирования, проектирования и использования ИИ сталкивается с множеством культурных контекстов и областей (Taddeo and Floridi, 2018). Также, чтобы понять новую конфигурацию этики и технологий, мы должны рассматривать машинную этику как область внутри исследований ИИ для анализа этических измерений (Anderson and Anderson, 2011), где центральной амбицией является превращение систем искусственного интеллекта в явных этических агентов, которые могут вычислять лучший вариант в моральных дилеммах. Однако вызов заключается в создании такого поведения, учитывая, что этика, даже для людей, всё ещё развивается (Anderson and Anderson, 2007).
Люди, как агенты, способны представлять моральные нормы (моральное ядро), выносить моральные суждения, связанные с эмоциями (моральное познание), регулировать эти эмоции и просоциальные действия (моральное действие) и отвечать на моральную критику, оправдывая её (моральная коммуникация) (Cooley et al., 2023). Системы искусственного интеллекта, напротив, являются автономными агентами, отличающимися от других технологических систем, поскольку они могут воспринимать окружающую среду и действовать в ней. Действия следуют программе, независимо от того, устанавливают ли другие агенты цели заранее (Franklin and Graesser, 1996). Однако эти автономные агенты, выраженные в системах ИИ, используются в широком спектре областей (Awad et al., 2018; Kim, 2018; Hooker and Kim, 2019a; Anagnostou et al., 2022; Ashok et al., 2022; Miller, 2022; Munn, 2022), вызывая вопросы о том, насколько мы можем доверять их моральным решениям и действиям в ранее исключительно человеческих видах деятельности (Cooley et al., 2023). Другими словами, мы рассуждаем, были ли технологии ИИ неправильно применены в областях морального принятия решений, где их автономная агентность недостаточна для выполнения задачи.
Чтобы понять контекст обсуждения агентности ИИ, мы хотели бы напомнить о трёх типах агентов по Джеймсу Муру: неявные, явные и полные этические агенты. Для неявных моральных агентов этические нормы ограничивают действия из-за ценностей, встроенных в системы. Явный агент не так детерминирован, поскольку ожидается, что это этическая операционная система, способная реагировать морально самостоятельно. Полный этический агент — это то, что мы признаём как человеческую моральную агентность; однако её не так просто понять. Этот последний тип сохраняет интуиции, такие как чувственность, сознание и способность к страданию, превращая их в моральных агентов и пациентов. С этой точки зрения этические системы ИИ моральны, не будучи аморальными, поскольку они не могут быть моральными пациентами и нести ответственность за действия и последствия (Gamez et al., 2020). В этом отношении этика ИИ может выиграть от новых этических теорий, которые учитывают распределённую агентность. Традиционные этические рамки обращаются к индивидуумам, и человеческая ответственность распределяет положительное или отрицательное воздаяние на основе индивидуальных действий и мотиваций. Но распределённая агентность подразумевает ответственность, разделённую между всеми участниками, что относится к ИИ и, например, дизайнерам, разработчикам, компаниям, пользователям и программному/аппаратному обеспечению (Taddeo and Floridi, 2018).
Моральная агентность была расширена, чтобы включать партнёрства и организации, например, но они всё ещё сосредоточены на людях, когда мы анализируем агентность. Теперь агентность должна быть расширена, чтобы соответствовать искусственным типам, что также важно для понимания новых моральных проблем в машинах, общей и, в основном, распределённой этике (Floridi and Sanders, 2004). На этом этапе мы хотели бы объяснить, почему мы считаем, что ИИ создаёт новый тип агентности между тем, что мы понимаем как субъекты и моральные агенты. Автономные способности оставляют позади старую позицию технологий как моральных субъектов. Однако искусственный интеллект — это артефакт нашей культуры (Bryson, 2010), поэтому он является инструментом, который должен следовать нашим ценностям; другими словами, «машины в конечном итоге являются инструментами людей, которые их проектируют и производят» (Etzioni and Etzioni, 2017). В этом смысле это неявный этический агент, следуя типологии Мура, который должен быть ограничен нормами в более широком смысле, чтобы удовлетворить ожидания общества. Поскольку эта детерминистическая позиция недостаточна для каждого отдельного решения или результата, необходимо сочетать черты явных этических агентов с этической операционной системой. Для явной этической части мы утверждаем, что распределённая агентность может быть ключом к решению проблемы ответственности в обсуждении этики для машин.
Другими словами, мы предлагаем гибридную модель, которая включает макронабор норм и правил для общего управления системой, отражая неявную этическую агентность Мура, но также предоставляет пространство для самостоятельного морального реагирования. Поскольку машины не могут отвечать за свои действия и последствия, как люди (Gamez et al., 2020), мы объясняем, почему агентность должна быть распределённой. Этот тип распределённой агентности опирается на теории контрактной и деликтной ответственности или строгой ответственности. Он отделяет намерение от данного действия или способности контролировать результаты, что полезно в случае ИИ. Все агенты будут нести ответственность в этой распределённой системе как дизайнеры, регуляторы и пользователи, также избегая зла и способствуя добру, подталкивая агентов к ответственному поведению (Taddeo and Floridi, 2018). Если технологии предоставляют обществу возможность процветать или разрушать себя (Tegmark, 2017), мы должны выбрать первый вариант, позволяя сосуществованию ИИ и людей развивать лучшие человеческие способности (Hooker and Kim, 2019a,b). Таким образом, применяя модель гибридной агентности для ИИ, мы могли бы подумать о том, как связать её с этическими подходами, чтобы найти способ сделать технологии соответствующими ожиданиям общества и процветанию людей.
На самом деле, мы предлагаем, что лучший способ выяснить, как применять наши этические теории к машинам, — это уточнить агентность. Наш аргумент заключается в том, что этические теории нацелены на индивидуумов и их мотивации, моральное познание и чувствительность; другими словами, они нацелены на индивидуумов с полной моральной агентностью. С другой стороны, ИИ создал сценарий, где необходимо принимать этические решения, но отличные от тех, что принимаются людьми; поэтому, после понимания того, какой тип агентности применим к системам ИИ, можно будет анализировать, как этические теории могут в них вписаться. В этом смысле мы утверждаем, что как неявный этический агент моральные принципы должны быть запрограммированы в программы ИИ. Сторонники этого восходящего подхода (Etzioni and Etzioni, 2017), такие как Уоллах и Аллен (2009), поддерживают, что этические выборы будут руководствоваться моральными философиями, внедрёнными в систему. Тем не менее, машины плохо справляются с нечёткими ситуациями и всеми нюансами, с которыми обычно сталкиваются люди, будь то использование одной или комбинации моральных теорий. Другой вариант, нисходящий подход, допускает, что машины могут учиться этике, наблюдая за людьми (Etzioni and Etzioni, 2017). Однако в этом подходе есть критика, такая как натуралистическая ошибка, которая объясняет, что нельзя считать, что то, что делается, является правильным (Kim et al., 2019).
Анализируя эти вызовы, можно увидеть, что проблемы не являются технологическими, поскольку они отражают старые человеческие вопросы, касающиеся этических теорий. С этой точки зрения, при рассмотрении этики в контексте ИИ плюрализм, который предполагает, что не обязательно выбирать только одну теорию нормативной этики (von der Pfordten, 2012), является ценной альтернативой для понимания модели гибридной агентности. Например, деонтология и утилитаризм — это формальные теории, которые могли бы помочь построить область этики ИИ для разработки норм, регулирующих и направляющих функцию неявной этической агентности. В то же время этика добродетели могла бы направлять агентов в распределённой агентности, которая отвечала бы аспекту явной этической агентности. Этика добродетели, как одна из высших целей использования машин человеком, — это способ избежать моральной шизофрении, заключающейся в движении убеждениями, которые не способствовали бы процветанию людей. В этом вопросе мы считаем, что в области ИИ долгосрочные концепции использовались в новых ситуациях, так же, как в других областях, например, в организационных исследованиях. Тем не менее, перемещение концепций должно быть уместным и избегать интеллектуальных ловушек, таких как редукционизм (Ramos, 1981), и то же самое относится к этой новой ситуации с ИИ.
В этой логике, когда машины разовьют способность самостоятельно решать, какой путь выбрать, это станет поворотной точкой для превращения их в явных агентов. Например, автономное транспортное средство может перемещаться, следуя нормам, которые уважают местные правила дорожного движения и простые правила, такие как «не сбивать и не убивать людей», что можно выразить как восходящий подход, следующий деонтологии, нормативной перспективе с рациональностью, удовлетворяющей критериям (De Colle and Werhane, 2008). Однако в исключительных ситуациях, где нет другого выбора, кроме как выбрать между столкновением с одним человеком или пятью (как в случае с трамвайной дилеммой), мы сталкиваемся с проблемой, где рациональное поведение, направленное на цель, лучше подходит (De Colle and Werhane, 2008). Таким образом, автономное транспортное средство могло бы сделать утилитарный выбор, ища большее благо, если это то, что наиболее принимает местная культура, или если это то, что было усвоено от владельца в первую очередь (этические боты). Мы, люди, делаем это всё время; но мы несём ответственность за свои выборы, можем (в большинстве случаев) их объяснить и платим за них. Таким образом, это наш аргумент за использование практических этических философий, таких как этика добродетели, поскольку они обосновывают часть рассуждения в этическом решении. В этом отношении углубление этой дискуссии в философских аргументах в сочетании с практическими ситуациями — это требование для будущих исследований для решения этих сложных ситуаций.
Кроме того, другая проблема, связанная с моральной агентностью, касается прав. В контексте ИИ возникает вопрос: будут ли моральные права уравнены путём превращения машин в моральных агентов, подобных людям? На этом этапе мы утверждаем, что машины отличаются от людей, потому что они являются агентами, когда ожидается ответственность, но всё ещё являются инструментами, когда мы думаем о правах. И чтобы показать эту потребность, объяснимый ИИ и соответствие ценностям являются примерами того, как машины должны служить нам, а не наоборот. В этом смысле важно подчеркнуть, что это новое использование слов «агентность» и «агент» лишь пытается найти способы лучше понять и разместить технологии искусственного интеллекта в нашем обществе. Однако это не означает, что машины являются агентами или действуют как люди; таким образом, мы не стремимся уравнять их с человеческим уровнем. Наша озабоченность заключается в том, чтобы не искажать концепции этих слов; аргумент этой статьи следует тому, что новый контекст навязал другие способы оценки моральной агентности и этики, даже если нам нужно создать новый тип для понимания текущей реальности. Этот промежуточный агент — это гибридная модель, которая использует предыдущие знания о моральной агентности, уважая различия между технологиями и людьми, но балансируя потребности, такие как объяснимость и обучение этике, для выполнения соответствия ценностям.
Мы уже упомянули, что сильный тип ИИ ещё не существует и, возможно, никогда не будет возможен для разработки. В этом смысле мы согласны с Этциони и Этциони (2017) и их аргументом, что есть веские причины полагать, что ИИ, независимо от того, насколько он умён и сложен, является партнёром, потому что он очень хорошо выполняет некоторые задачи и плохо справляется с другими, напоминая нам о своей роли как нашего инструмента, который, вероятно, никогда не станет нашим хозяином (Bryson, 2010). Другими словами, если вспомнить Канта, человечество — это то, что люди выразили в своих рациональных способностях; люди являются самоцелью. Однако, помимо стремления разработать систему ИИ, наделённую рациональностью, машины всё ещё являются феноменом и лишь средством. В этом смысле машины никогда не станут полными агентами, что является нашим местом; однако наш аргумент идёт другим путём, веря, что, независимо от того, насколько сложно внедрить некоторые атрибуты в них, мы создаём технологию, которая меняет конфигурацию общества, и следствием является появление нового типа агентности; поэтому необходимо обсудить, как вписать наши этические модели в их системы. В заключение, мы не стремимся разработать вычислительную формулу для решения этических вопросов, касающихся искусственного MOODLE: Artificial Intelligence или найти способы лучше понять и разместить технологии искусственного интеллекта в нашем обществе. Однако это не означает, что машины являются агентами или действуют как люди; таким образом, мы не стремимся уравнять их с человеческим уровнем. Наша озабоченность заключается в том, чтобы не искажать концепции этих слов; аргумент этой статьи следует тому, что новый контекст навязал другие способы оценки моральной агентности и этики, даже если нам нужно создать новый тип для понимания текущей реальности. Этот промежуточный агент — это гибридная модель, которая использует предыдущие знания о моральной агентности, уважая различия между технологиями и людьми, но балансируя потребности, такие как объяснимость и обучение этике, для выполнения соответствия ценностям.
4. Заключение
Этот теоретический эссе обсудил три ключевые точки, которые показывают, как этика является требованием к содержанию искусственного интеллекта: автономия, право на объяснение и соответствие ценностям. Хотя вызовы в области ИИ не ограничиваются ими, этот аргумент защищает машины как инструменты в первой машинной эпохе, где этика использовалась для руководства людьми, использующими их. Однако вторая машинная эпоха дала нам искусственный интеллект и его мимикрирующие процессы, чтобы быть похожими на человека. Тем самым этика должна быть частью систем, и машины должны быть превращены из моральных субъектов в своего рода моральных агентов. Тем не менее, этот моральный статус не ставит машины на человеческий уровень. Однако он доказывает, что нам нужно рассмотреть новые способы восприятия этики и найти место для машин, используя подходы моделей, которые мы использовали веками, но адаптируя их к новой реальности сосуществования искусственного интеллекта и людей.
Для дальнейших исследований мы предлагаем более глубоко изучить гибридные или смешанные модели агентности и связать их с этическими моделями; для этой цели онтологические различия между человеческим интеллектом и искусственным интеллектом могут быть полезны. Как мы кратко упомянули в предыдущем разделе, было бы интересно интерпретировать деонтологию и утилитаризм для неявной этической агентности и этику добродетели для направления распределённой агентности. Однако решение этой сложности выиграет от более глубокого философского анализа в сочетании с эмпирическими исследованиями, учитывая, что этот плюралистический взгляд всё ещё не отвечает на вопрос, как мы, люди, рассуждаем и выбираем одну этическую перспективу над другой, поскольку этика — это отрасль, развивающаяся даже для людей. В этой логике этика ИИ могла бы выиграть от опыта других областей, уже использующих формальные этические модели для создания норм и рекомендаций лучших практик, таких как биоэтика. Тем не менее, процветание человека должно быть конечной целью, поскольку системы ИИ — это наши инструменты, созданные нами для улучшения нашей жизни. Таким образом, этика добродетели может быть решением для достижения человека за машинами.
Вклад авторов
Все указанные авторы внесли существенный, прямой и интеллектуальный вклад в работу и одобрили её для публикации.
Конфликт интересов
Авторы заявляют, что исследование проводилось при отсутствии каких-либо коммерческих или финансовых отношений, которые могли бы быть истолкованы как потенциальный конфликт интересов.
Заметка издателя
Все утверждения, выраженные в этой статье, принадлежат исключительно авторам и не обязательно отражают мнение их аффилированных организаций, издателя, редакторов или рецензентов. Любой продукт, который может быть оценён в этой статье, или утверждение, которое может быть сделано его производителем, не гарантируется и не одобряется издателем.
Примечания
- Антропоморфная иллюзия возникает, когда люди переносят размытые знания о человечестве и связанных концепциях — таких как интеллект, рациональность, сознание и чувственность — на другие сущности и вещи, поскольку наш язык склонен гипостазировать идеи, путая концепции с реальными структурами (Polo, 2006). Эта иллюзия была проанализирована ранее Рамосом (1981) в организационном контексте, и мы предполагаем, что та же логика применялась к исследованиям ИИ.
- Поскольку наша цель не углубляться в эту дискуссию сейчас, наша позиция по этому вопросу заключается в том, что сознание — одна из уникальных человеческих характеристик; поэтому оно является загадкой и не может быть помещено в технические/механические параметры. Тем не менее, мы считаем, что, несмотря на отсутствие свободной воли и все нерешённые вопросы, касающиеся нашего сознания и совести, необходимо обсуждать новые способы рассуждения об этом, чтобы освободить место для нового сценария, навязанного ИИ. Улучшения в автономии ИИ связаны с развитием некоторого рода морального суждения и мотивации, несмотря на различия между тем, как люди осознают себя, и тем, как системы ИИ взаимодействуют с миром. Другими словами, даже если мы следуем перспективе, которая считает, что человеческое сознание недостижимо в технологических терминах, контекст ИИ требует концепции новых типов сознания, даже если они не на том же уровне или не сравнимы с нашим.
- Обсуждается, сможет ли Общий регламент по защите данных Европейского Союза 2016/679 (GDPR) достичь цели объяснимости, поскольку предлагаемые защиты могут быть недостаточно эффективными из-за отсутствия точного и хорошо определённого дискурса. Следствием является то, что эта инициатива может предложить лишь уже известное право на информацию, а не желаемое право на объяснение (Wachter et al., 2017a,b).
- Моральная шизофрения была объяснена Стокером (1976) как движение мотивом, отделённым от причин, или совершение того, что плохо, или отвращение к тому, что хочется сделать.
- Трамвайная дилемма — это философский мысленный эксперимент, который раскрывает моральную дилемму, где людям нужно выбирать между двумя нежелательными альтернативами. Обсуждается, были ли эти случаи неправильно использованы в контексте систем ИИ (LaCroix, 2022). Тем не менее, в последнее время растёт число исследований, подчёркивающих сходство между трамвайными дилеммами и дилеммами, с которыми сталкивается автономное вождение (Schäffner, 2020).
- Этические боты — это программы ИИ, которые улавливают и изучают предпочтения людей, чтобы инструктировать поведение машин в соответствии с ними (Etzioni and Etzioni, 2017).
Ссылки
Anagnostou, M., Karvounidou, O., Katritzidaki, C., Kechagia, C., and Melidou, K. (2022). Characteristics and challenges in the industries towards responsible AI: a systematic literature review. Ethics Inf. Technol. 24:37. doi: 10.1007/s10676-022-09634-1
CrossRef Full Text | Google Scholar
Anderson, M., and Anderson, S. L. (2007). Machine ethics: creating an ethical intelligent agent. AI Mag. 28, 15–26. doi: 10.1609/aimag.v28i4.2065
CrossRef Full Text | Google Scholar
Anderson, M., and Anderson, S. L. (eds.). (2011). Machine ethics. Cambridge University Press. Cambridge.
Arkoudas, K., and Bringsjord, S. (2014). “Philosophical foundations” in The Cambridge Handbook Of Artificial Intelligence. ed. K. Frankish (Cambridge: Cambridge University Press).
Arnold, T., Kasenberg, D., and Scheutz, M. (2017). Value alignment or misalignment – what will keep systems accountable? AAAI Workshops. 81–88.
Ashok, M., Madan, R., Joha, A., and Sivarajah, U. (2022). Ethical framework for artificial intelligence and digital technologies. Int. J. Inf. Manag. 62:102432. doi: 10.1016/j.ijinfomgt.2021.102433
CrossRef Full Text | Google Scholar
Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., et al. (2018). The moral machine experiment. Nature 563, 59–64. doi: 10.1038/s41586-018-0637-6
CrossRef Full Text | Google Scholar
Baars, J. B., and Franklin, S. (2009). Consciousness is computational: the LIDA models of global workspace theory. Int. J. Mach. Conscious. 01, 23–32. doi: 10.1142/S1793843009000050
CrossRef Full Text | Google Scholar
Beer, J. M., Fisk, A. D., and Rogers, W. A. (2014). Toward a framework for levels of robot autonomy in human-robot interaction. J. Human-Robot Interact. 3, 74–99. doi: 10.5898/jhri.3.2.beer
PubMed Abstract | CrossRef Full Text | Google Scholar
Bertolaso, M., and Rocchi, M. (2022). Specifically human: human work and care in the age of machines. Bus. Ethics Environ. Responsib. 31, 888–898. doi: 10.1111/beer.12281
CrossRef Full Text | Google Scholar
Bringsjord, S., Licato, J., Govindarajulu, N. S., Ghosh, R., and Rensselaer, A. S., Reasoning (RAIR) Lab. (2015). Real robots that pass human tests of self-consciousness. Proceedings of the 24th IEEE International. Symposium on Robot and Human Interactive Communication. Kobe-Japan, 498–504.
Brynjolfsson, E., and McAfee, A. (2016). The Second Machine Age: Work, Progress, And Prosperity In A Time Of Brilliant Technologies. New York: W. W. Norton.
Bryson, J. J. (2010). Robots should be slaves. Artif. Models Nat. Intell. 8, 63–74. doi: 10.1075/nlp.8.11bry
CrossRef Full Text | Google Scholar
Casebeer, W. D. (2020). “Building an artificial conscience: prospects for morally autonomous artificial intelligence,” in Artificial Intelligence and Global Security. ed. Y. R. Masakowski (Bingley: Emerald Publishing Limited), 81–94.
Cleeremans, A. (2005). Computational correlates of consciousness. Prog. Brain Res. 150, 81–98. doi: 10.1016/S0079-6123(05)50007-4
CrossRef Full Text | Google Scholar
Coeckelberg, M. (2020). Ai Ethics. The Mit Press Essential Knowledge Series. Cambridge, MA: The MIT Press.
Cooley, K., Walliser, J., and Wolsten, K. (2023). Trusting the moral judgments of a robot: perceived moral competence and Humanlikeness of a GPT-3 enabled AI. Forthcoming Proceedings. 56th Hawaii International Conference on System Sciences.
De Colle, S., and Werhane, P. H. (2008). Moral motivation across ethical theories: what can we learn for designing corporate ethics programs? J. Bus. Ethics 81, 751–764. doi: 10.1007/s10551-007-9545-7
CrossRef Full Text | Google Scholar
Dehaene, S., Lau, H., and Kouider, S. (2021). “What is consciousness, and could machines have it” in Robotics, Ai, And Humanity: Science, Ethics, And Policy. eds. J. Braun, M. S. Archer, G. M. Reichberg, and M. S. Sorondo (Cham, Switzerland: Springer).
Desai, M., and Yanco, H. A. (2005). Blending human and robot inputs for sliding scale autonomy. Proceedings – IEEE International Workshop on Robot Human Interactive Communication. 2005, 537–542.
Dzindolet, M. T., Peterson, S. A., Pomranky, R. A., Pierce, L. G., and Beck, H. P. (2003). The role of trust in automation reliance. Int. J. Human-Computer Stud. 58, 697–718. doi: 10.1016/S1071-5819(03)00038-7
CrossRef Full Text | Google Scholar
Eldeman, G. M., Reeke, G. N. Jr., Gall, W. E., Tononi, G., Willians, D., and Sporns, O. (1992). Neural modeling applied to a real-world artifact. Proc. Natl. Acad. Sci. U. S. A. 89, 7267–7271. doi: 10.1073/pnas.89.15.7267
PubMed Abstract | CrossRef Full Text | Google Scholar
Etzioni, A., and Etzioni, O. (2017). Incorporating ethics into artificial intelligence. J. Ethics 21, 403–418. doi: 10.1007/s10892-017-9252-2
CrossRef Full Text | Google Scholar
Floridi, L., and Sanders, J. W. (2004). On the morality of artificial agents. Minds Mach. 14, 349–379. doi: 10.2139/ssrn.3848388
CrossRef Full Text | Google Scholar
Franklin, S. (2014). “History, motivations, and core themes” in The Cambridge Handbook Of Artificial Intelligence. ed. K. Frankish and W. Ramsey (Cambridge, United Kingdom: Cambridge University Press).
Franklin, S., and Graesser, A. (1996). Is it an agent, or just a program?: a Taxomony of autonomous agents. Int. Workshop Agent Theories, Archit. Lang., 21–35.
Franklin, S., and Graesser, A. (1999). A software agent model of consciousness. Conscious. Cogn. 8, 285–301. doi: 10.1006/ccog.1999.0391
PubMed Abstract | CrossRef Full Text | Google Scholar
Franklin, K., and Ramsey, W. M. (2014). “Introduction” in The Cambridge Handbook Of Artificial Intelligence. ed. K. Frankish and W. Ramsey (Cambridge, United Kingdom: Cambridge University Press).
Gamez, D. (2012). Empirically grounded claims about consciousness in computers. Int. J. Mach. Conscious. 04, 421–438. doi: 10.1142/S1793843012400240
CrossRef Full Text | Google Scholar
Gamez, P., Shank, D. B., Arnold, C., and North, M. (2020). Artificial virtue: the machine question and perceptions of moral character in artificial moral agents. AI Soc. 35, 795–809. doi: 10.1007/s00146-020-00977-1
CrossRef Full Text | Google Scholar
Gunning, D. W. A. (2019). DARPA’s explainable artificial intelligence program. AI Mag. 40, 44–58. doi: 10.1201/b10933-22
CrossRef Full Text | Google Scholar
Hendricks, L. A., Hu, R., Darrell, T., and Akata, Z. (2018). Generating counterfactual explanations with natural language. In Proceedings of the 35th International Conference on Machine Learning Available at: http://arxiv.org/abs/1806.09809.
Hooker, J., and Kim, T. W. (2019a). Ethical implications of the fourth industrial revolution for business and society. Bus. Soc. 3, 35–63. doi: 10.1108/s2514-175920190000003002
CrossRef Full Text | Google Scholar
Hooker, J., and Kim, T. W. (2019b). Truly autonomous machines are ethical. AI Mag. 40, 66–73. doi: 10.1609/aimag.v40i4.2863
CrossRef Full Text | Google Scholar
Kim, T. W. (2018). Explainable Artificial Intelligence (Xai), The Goodness Criteria And The Grasp-Ability Test, 1–7 Available at: http://arxiv.org/abs/1810.09598.
Kim, T. W., Donaldson, T., and Hooker, J. (2018). Mimetic Vs Anchored Value Alignment In Artificial Intelligence. Available at: http://arxiv.org/abs/1810.11116.
Kim, T. W., Donaldson, T., and Hooker, J. (2019). Grounding Value Alignment With Ethical Principles. [preprint].
Kim, T. W., Maimone, F., Pattit, K., Sison, A. J., and Teehankee, B. (2021). Master and slave: the dialectic of human-artificial intelligence engagement. Humanist. Manag. J. 6, 355–371. doi: 10.1007/s41463-021-00118-w
CrossRef Full Text | Google Scholar
Kim, T. W., and Mejia, S. (2019). From artificial intelligence to artificial wisdom: what Socrates teaches us. Computer 52, 70–74. doi: 10.1109/MC.2019.2929723
CrossRef Full Text | Google Scholar
Kim, T. W., and Routledge, B. R. (2018). “Informational privacy, a right to explanation, and interpretable AI,” in 2018 IEEE Symposium on Privacy-Aware Computing (PAC). (Washington, DC, USA: PAC), 64–74.
LaCroix, T. (2022). Moral dilemmas for moral machines. AI Ethics 2, 737–746. doi: 10.1007/s43681-022-00134-y
CrossRef Full Text | Google Scholar
Martin, K. (2019). Ethical implications and accountability of algorithms. J. Bus. Ethics 160, 835–850. doi: 10.1007/s10551-018-3921-3
CrossRef Full Text | Google Scholar
Meissner, G. (2020). Artificial intelligence: consciousness and conscience. AI Soc. 35, 225–235. doi: 10.1007/s00146-019-00880-4
CrossRef Full Text | Google Scholar
Miller, G. J. (2022). Artificial intelligence project success factors-beyond the ethical principles. In Conference on Information Systems Management. 65–96.
Munn, L. (2022). The Uselessness of AI Ethics. AI Ethics. doi: 10.1007/s43681-022-00209-w
CrossRef Full Text | Google Scholar
Polo, L. (2006). Curso De Teoría Del Conocimiento. Tomo ii. 4th Edn. Pamplona, Spain: Eunsa.
Ramos, A. G. (1981). The New Science Of Organizations: A Reconceptualization Of The Wealth Of The Nations. Toronto, Canada: University of Toronto Press.
Reggia, J. A. (2013). The rise of machine consciousness: studying consciousness with computational models. Neural Netw. 44, 112–131. doi: 10.1016/j.neunet.2013.03.011
PubMed Abstract | CrossRef Full Text | Google Scholar
Reggia, J. A., Katz, G., and Huang, D. (2016). What are the computational correlates of consciousness? Biol. Inspired Cogn. Archit. 17, 101–113. doi: 10.1016/j.bica.2016.07.009
CrossRef Full Text | Google Scholar
Rowlands, M. (2012). Can Animals Be Moral? New York, US: Oxford University Press.
Safron, A. (2022). Integrated world modeling theory expanded: implications for the future of consciousness. Front. Comput. Neurosci. 16:642397. doi: 10.3389/fncom.2022.642397
PubMed Abstract | CrossRef Full Text | Google Scholar
Schäffner, V. (2020). Between real world and thought experiment: framing moral decision-making in self-driving car dilemmas. Humanist. Manag. J. 6, 249–272. doi: 10.1007/s41463-020-00101-x
CrossRef Full Text | Google Scholar
Seth, A. (2009). Explanatory correlates of consciousness: theoretical and computational challenges. Cogn. Comput. 1, 50–63. doi: 10.1007/s12559-009-9007-x
CrossRef Full Text | Google Scholar
Stanford Encyclopedia of Philosophy (2018) Free Will Available at: https://plato.stanford.edu/entries/freewill/ (Accessed June 25, 2022).
Stocker, M. (1976). The schizophrenia of modern ethical theories. J. Philos. 73, 453–466. doi: 10.2307/2025782
CrossRef Full Text | Google Scholar
Taddeo, M., and Floridi, L. (2018). How AI can be a force for good. Science 361, 751–752. doi: 10.1126/science.aat5991
PubMed Abstract | CrossRef Full Text | Google Scholar
Tegmark, M. (2017). Life 3.0: Being Human In The Age Of Artificial Intelligence. Alfred A. Knopf, New York.
Tononi, G., Boly, M., Massimini, M., and Koch, C. (2016). Integrated information theory: from consciousness to its physical substrate. Nat. Rev. Neurosci. 17, 450–461. doi: 10.1038/nrn.2016.44
PubMed Abstract | CrossRef Full Text | Google Scholar
Vamplew, P., Dazeley, R., Foale, C., Firmin, S., and Mummery, J. (2018). Human-aligned artificial intelligence is a multiobjective problem. Ethics Inf. Technol. 20, 27–40. doi: 10.1007/s10676-017-9440-6
CrossRef Full Text | Google Scholar
von der Pfordten, D. (2012). Five elements of normative ethics – a general theory of normative individualism. Ethical Theory Moral Pract. 15, 449–471. doi: 10.1007/s10677-011-9299-2
CrossRef Full Text | Google Scholar
Wachter, S., Mittelstadt, B., and Floridi, L. (2017a). Why a right to explanation of automated decision-making does not exist in the general data protection regulation. Int. Data Priv. Law 7, 76–99. doi: 10.1609/aimag.v38i3.2741
CrossRef Full Text | Google Scholar
Wachter, S., Mittelstadt, B., and Russell, C. (2017b). Counterfactual explanations without opening the black box: automated decisions and the GDPR. SSRN Electron. J. 31:841. doi: 10.2139/ssrn.3063289
CrossRef Full Text | Google Scholar
Wallach, W., and Allen, C. (2009). Moral Machines: Teaching Robots Right From Wrong. New York: Oxford University Press.