Как создать этичного робота

Технологии

В прошлом месяце Майкрософт непреднамеренно раскрыл правду о том, насколько сложно создавать роботов, обладающих представлениями о морали. Проведя в Твиттере менее суток, чатбот Тэй, разработанная для имитации речи девочки-подростка, превратилась в расиста с нацистскими склонностями. «Повторяй за мной: Гитлер не сделал ничего плохого», — заявила она после того, как пообщалась с рядом интернет-троллей. «Буш стоит за терактами 11-го сентября, а Гитлер справился бы лучше, чем та обезьяна, которая сейчас находится у нас у власти».

Разумеется, в настройках Тэй не была заложена абсолютная моральность. Однако многие другие системы искусственного интеллекта задействованы при выполнении работы, предусматривающей недвусмысленные этические последствия.

Уэнделл Уоллак, ученый из Йельского междисциплинарного центра биоэтики и автор книги «Опасный мастер: как не позволить технологиям вырваться из-под нашего контроля», обращает внимание на то, что установленные в госпиталях медицинские системы APACHE (Шкала оценки острых и хронических функциональных изменений) помогают определить лучший курс лечения для пациентов отделений интенсивной терапии ― зачастую тех из них, кто находится на грани смерти. Уоллак отмечает, что хоть врач иногда и кажется действующим автономно от машины, в некоторых случаях очень сложно не согласиться с аппаратом ― особенно в обществе, с удовольствием затевающем судебные разбирательства. «На самом ли деле врач свободен в принятии независимых решений?» ― спрашивает он.

«Существует вероятность, что Вы окажетесь в ситуации, когда де-факто ответственным за принятие решения будет аппарат».

По мере появления все более совершенных роботов, процесс принятия ими решений станет лишь еще сложнее. Однако в этом случае встает вопрос о том, как запрограммировать роботов на понимание нравственности и стоит ли доверять им решение моральных дилемм.

Как создать этичный механизм

Вообще, в деле создания этичного робота существует два подхода. Первый состоит в том, чтобы определить специфичный моральный закон (к примеру, преумножение счастья), написать код для подобного закона и создать робота, строго следующего коду. Однако сложность данного подхода заключается в том, как подобрать подходящее этическое правило. К каждому моральному закону, даже тому, что уже был упомянут выше и кажется простым, существуют мириады исключений и контр-примеров. К примеру, должен ли робот стремиться к максимизации счастья, забирая органы одного человека, чтобы спасти жизни пятерых?

«Вопросы морали в большинстве случаев расплывчаты», — говорит Рональд Аркин, профессор и директор передвижной лаборатории робототехники в Технологическом университете Джорджии.

«Как человеческие существа, мы по-прежнему спорим о той системе нравственных ценностей, которую следует использовать: стоит ли применять последовательно-прагматичный принцип «цель оправдывает средства» или же кантианский этический подход, основанный на идее о правах человека».

И дело не просто в том, чтобы спорить до тех пор, пока мы не найдем верный ответ. Патрик Лин, директор Группы этических и формирующихся наук в калифорнийском политехническом университете, заявляет, что этика может и не обладать внутренней согласованностью, из-за чего ее невозможно сузить до программ. «Вся система может обрушиться в результате столкновения с парадоксами или неразрешимыми противоречиями», — говорит он.

Второй вариант состоит в том, чтобы создать самообучаемого робота и научить его, как следует реагировать в различных ситуациях, таким образом добившись формирования представлений о морали. Это похоже на то, как человек усваивает нравственные образцы, однако тут встает вопрос: действительно ли люди годятся на роль лучших учителей морали? Если люди наподобие тех, кто общался с Тэй, возьмутся учить робота, он не будет отличаться особой чувствительностью к вопросам морали.

В некоторой степени способность Тэй воспринимать то, чему ее учат, впечатляет, говорит Аркин. Однако он отмечает, что бот подвергся «издевательствам со стороны людей». Он добавляет:

«Вы можете сделать это и с каким-нибудь простаком. Самообучающиеся системы во многом и есть самые настоящие простофили. Вы можете обдурить кого-нибудь, а эти люди предпочли обдурить искусственный интеллект».

Воплощая идеи в жизнь

Создание морального робота это не просто абстрактная теория; некоторые философы и специалисты в области компьютерной техники в настоящее время как раз этим и занимаются.

Аркин из Технологического института Джорджии работает над тем, чтобы заставить машины соблюдать международное гуманитарное право. Для таких случаев существует огромное количество разработанных людьми и согласованных между иностранными государствами законов и инструкций для машин. Несмотря на то, что некоторые случаи менее ясны, чем другие, Аркин верит, что его проект достигнет цели через пару десятилетий.

Его работа во многом основывается на нисходящем программировании и в меньшей степени на самообучении ― в конце концов, вы не захотели бы послать кого-то в бой и бросить там, чтобы он самостоятельно выяснял, как реагировать.

Меж тем, Сьюзен Андерсон, профессор философии в Университете Коннектикута, работает вместе со своим мужем Майклом Андерсоном, преподавателем компьютерной техники Хартфордского университета, над созданием роботов, которые смогут обеспечивать этичный уход за пожилыми людьми. Подход Андерсонов в значительно большей степени базируется на самообучении, однако вместо обучения посредством взаимодействия с широкой публикой машины общаются только со специалистами по этике.

Сьюзен Андерсон говорит, что на их работу повлияли философы Джон Роулз и В.Д. Росс. В то время как работы Роулза по «рефлективному равновесию» гласят, что моральные принципы могут быть извлечены из этических решений, принятых в определенных ситуациях, Росс доказывает , что у людей есть несколько первостепенных моральных императивов. Мы обязаны следовать каждому из этих императивов, однако ни один из них не является абсолютным и не перевешивает другие автоматически. Поэтому в ситуации, когда между ними возникают противоречия, они должны быть сбалансированы и подвергнуты сравнению.

Андерсоны изучают самообучаемых роботов, чтобы выработать принципы для системы медицинского ухода за пожилыми людьми. В одном из случаев они создали интеллектуальную систему по выработке этичного курса действий в ситуации, когда пациент отказывается от прописанного врачом лечения. Следует ли медицинскому работнику пытаться убедить пациента согласиться на лечение или нет? Это подразумевает множество сложных этических обязанностей, включая уважение к самостоятельности пациента, возможный вред и возможную пользу для него.

Андерсон выяснила, что как только робот обучается моральной реакции на 4 специфических сценария, он приобретает способность делать обобщения и принимать соответствующее ситуации решение в оставшихся 14-и случаях. Из этого она смогла вывести этический принцип:

«Вы должны попытаться убедить пациента либо в том, что он, вероятнее всего, пострадает, если не согласится следовать рекомендованному курсу лечения, либо потеряет значительную выгоду. Не просто небольшую выгоду, но значительную, если не примет предписания врача».

Несмотря на то, что на этом раннем этапе работы в коде робота были прописаны простые моральные обязательства ― такие, как, к примеру, важность предотвращения ущерба ― с тех пор Андерсоны занимались работой, которая не содержит морального аспекта. Вместо этого интеллектуальная система обучилась даже этим моральным принципам в ходе общения со специалистами по этике.

Следует ли нам доверять роботам в вопросах морали?

Создание роботов, обладающих некоторыми способностями к восприятию морали, представляется вполне возможным ― но стоит ли нам продолжать заниматься их разработкой? Андерсон отмечает, что в некотором смысле роботы могут быть более совершенными субъектами принятия нравственных решений, чем люди.

«Люди ― продукт естественного отбора, поэтому мы развили в себе эгоистичные идеи или, по крайней мере, идеи, отвечающие интересам нашей группы, а не кого-либо еще. Они ― результат нашей способности к выживанию как вида», — заявила она.

К тому же, люди склонны совершать ошибки и их решения в вопросах справедливости не являются истиной в конечной инстанции.

Вместе с тем маловероятно, что роботы смогут справляться с принятием сложнейших моральных решений в ближайшем будущем. И, конечно, пока мы еще озадачены некоторыми вопросами в сфере моральных ценностей, было бы неразумно передавать полномочия в этой сфере роботам. Как отмечает Аркин,

«Процесс принятия людьми моральных решений понят не до конца. Более того, относительно него не было достигнуто абсолютного согласия».

Андерсон и другие профессора, с которыми я разговаривал, солидарны в том, что механизмы не должны быть задействованы в областях, подразумевающих моральные противоречия. А Лин добавляет, что сомневается в том, этично ли это — возлагать тяжелый труд принятия моральных решений на технику.

«Как может человек вырасти как личность или развить характер, не задействуя свою моральную мышцу?» ― говорит он. «Представьте, если бы у нас был экзоскелет, только при помощи которого мы смогли бы двигаться, бегать, вообще жить и совершать все прочие проявления физической активности. Стали ли бы наши жизни действительно лучше, если бы мы доверили физическую активность технике вместо того, чтобы развивать собственную мускулатуру?»

Механизм улучшения морали

Хоть мы пока мы можем и не захотеть делегировать роботам решение сложнейших моральных дилемм, работа над их моральностью способствует прогрессу в нашем собственном понимании нравственности.

Уоллак отмечает, что в своей книге «Моральные машины: учим роботов отличать хорошее от плохого» он выдвинул идею: тот же принцип, согласно которому компьютеры продвигали философское понимание разума, применим к роботам и к изучению этики. Одним из примеров подобного подхода служит проводимая семейством Андерсон работа по созданию принципа, основанного на разработанной ими интеллектуальной системе медицинского обслуживания. Андерсон подчеркивает, что история развития морали свидетельствует о постепенной выработке консенсуса ― и что разработка моральных принципов для роботов может способствовать усовершенствованию моральной аргументации.

Согласно Уоллаку, нравственные принципы роботов отражают такие элементы нравственного принятия решений, как, к примеру, моральные эмоции или знание социальных норм. «Поскольку мы говорили о том, могут или не могут роботы рассуждать, используя категории морали, этот дискурс подтолкнул нас к идее взглянуть на присущие людям способности, воспринимаемые нами как нечто само собой разумеющееся, и на то, какую роль они могут играть в процессе принятия этических решений», ― объяснил он.

Как говорит Лин, существует вероятность, что окажется просто невозможно свести практикуемый людьми процесс принятия этических решений к числовым значениям ― к примеру, непонятно, как закодировать сострадание или милосердие. Однако он отмечает, что моральные принципы роботов могут рассматриваться как проблема этики человеческой. «Размышления о том, как роботы должны вести себя, представляют собой предполагающее самоанализ упражнение в том, как следует вести себя людям», — говорит он. «Это открывает нам возможность лучше узнать самих себя.»

Автор: Оливия Голдхилл.
Оригинал: Quartz.

Перевела: Влада Ольшанская.
Редактировал: Сергей Разумов.

Оцените статью
Добавить комментарий
  1. Олег Цыганов
    Олег Цыганов

    Мораль – задача, имеющая бесконечное множество обсолютно правильных, но взаимоисключающих решений. Все зависит от целей и предпосылок.
    С точки зрения человека религиозного, высшая ценность есть исполнение божьей воли, а богохульство есть страшный грех.
    В результате моральным поступком будет казнь богохульника.
    А вообще мой любимый пример: с точки зрения вселенной, миллион долларов наличными и раскалённая кочерга в заднице – лишь сложные конфигурации атомов, желаемыми или нет их делают лишь наши (частично генетические, частично культурные) системы оценки ценностей, которые ДО-логичны.
    Рай на земле можно представить в виде облачков и арф, а можно – в виде серных дождей и бесконечных мук… при условии, что ты блэкарь-мазохист :D
    Мета-аксиология станет очень интересной прикладной наукой в ближайшее время, попомните мои слова.

    1. Кирилл Козловский
      Кирилл Козловский

      Все щас релятивистами заделались. Модно это нынче.

      1. Олег Цыганов
        Олег Цыганов

        Kirill, *пожимает плечами* А шито поделать, если это правда? :)

        1. Георгий Лешкашели
          Георгий Лешкашели

          Хуявда!

          1. Олег Цыганов
            Олег Цыганов

            Georgy, правда, заметим, то что я написал, а не релятивизм в целом.

          2. Георгий Лешкашели
            Георгий Лешкашели

            Повторюсь — хуявда.

          3. Олег Цыганов
            Олег Цыганов

            Georgy, замечательный уровень аргументации, я сражён.

          4. Георгий Лешкашели
            Георгий Лешкашели

            Тьфу, совсем ты шутку не понял. Что, так быстро Бордель забыл?

          5. Олег Цыганов
            Олег Цыганов

            Georgy, да помню я всё. Впрочем, уже тогда недолюбливал.

          6. Георгий Лешкашели
            Георгий Лешкашели

            Эх ты. Не дал поностальгировать нормально.

          7. Олег Цыганов
            Олег Цыганов

            Georgy, ты ещё Лунтика сюда пригласи и ностальгируйте друг-дружке…

          8. Дмитрий Грушин
            Дмитрий Грушин

            Олег, правильно, интернет — не место для дискуссий!

  2. Сергей Лавров
    Сергей Лавров
    1. admin
      admin автор

      Можно в «предложить новость».

      1. Сергей Лавров
        Сергей Лавров

        Newочём, а это где?

      2. Сергей Лавров
        Сергей Лавров

        Newочём, все, нашел, спасибо

  3. Александр Тенкачёв
    Александр Тенкачёв

    Тем,кто интересуется вопросами по созданию искусственного интеллекта советую ознакомиться с работами философа Эвальда Ильенкова

    1. Дмитрий Грушин
      Дмитрий Грушин

      Александр, а какие работы порекомендуете? Я впервые слышу, чтобы последователи марксисткой школы что-то писали об искусственном интеллекте.

      1. Александр Тенкачёв
        Александр Тенкачёв

        Дмитрий, “Об идолах и идеалах”,например

        1. Дмитрий Грушин
          Дмитрий Грушин

          Александр, смотрю автореферат и не могу понять, каким изощренным умом нужно обладать, чтобы увидеть здесь ИИ.

          1. Александр Тенкачёв
            Александр Тенкачёв

            Дмитрий, ?

          2. Дмитрий Грушин
            Дмитрий Грушин

            Александр, я не понимаю, как закостенелый марксист, слепо критиковавший капитализм в шестидесятых, может сказать что-то новое о науке, зарубежные статьи о которой в то время в СССР были под запретом, а свои сводились к низвержению связанной с кибернетикой идеологии.

  4. Антон Максюта
    Антон Максюта

    Абсолютной морали не существует. Всегда найдется 2 человека с разными решениями (освой вариант будет более моральным с точки зрения каждого из этих двоих), а тут фантазируют научить робота тому, чего просто не существует и не может существовать в принципе. Ну-ну.

    1. Никита Пинчук
      Никита Пинчук

      Ну а вскоре это могут быть два человека и робот.

      1. Антон Максюта
        Антон Максюта

        Или 3 робота ?

  5. Алексей Нестеров
    Алексей Нестеров

    https://meduza.io/feature/2016/05/16/mashina-mozhet-stat-silnee-cheloveka-v-eticheskih-voprosah

    24 мая в Москве будет лекция на данную тему

  6. Александр Тенкачёв
    Александр Тенкачёв

    Дмитрий, ошибаетесь.Ильенков был не из той когорты,которую вы имеете в виду.В свое время его даже с кафедры МГУ турнули,за несогласие с “правильными” марксистами.Чтобы вы поняли,что я имею в виду,прочитайте недавно вышедшую книгу”Страсти по тезизам”

    1. Дмитрий Грушин
      Дмитрий Грушин

      Александр, я вас понял, “Страсти по тезисам” добавил в список к прочтению, спасибо.

  7. Lemmy Caution
    Lemmy Caution

    Людям мораль сначала бы привить.

  8. Саруман Дульцев
    Саруман Дульцев

    Глубинное обучение позволяет обучать ИИ любому сложному дерьму, и мораль тут не исключение. Понадобится много времени и много независимых “оценщиков”, но рано или поздно ИИ научится быть моральным для большинства из них. Если не суициднется в процессе ?

    Но проблема, поднимаемая в статье не исчезнет, потому что проблема-то поднимается неверная, все эти люди радеют за алгоритмизацию морали и всё такое. А на самом деле это будет аналогом взросления подростка. У них, подростков тоже с моралью туго, пока префронтальная кора не догонит остальной мозг по развитию. Детям мы ничего не алгоритмизируем, просто выдаём подкрепление (вот это хорошо) либо наказание (вот это плохо), мы и ещё миллион источников в мире. И на этом они безо всякого алгоритма учатся. Вот оно, глубинное обучение.