|  | 9 декабря 2015 | Робототехника

Исследователи снабдили роботов способностью не подчиняться приказам людей

Робот


В 1942 году известный писатель-фантаст Айзек Азимов сформулировал три основных закона робототехники, правила, которым должны беспрекословно подчиняться роботы. Звучат эти три закона следующим образом:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Эти три правила четки и понятны, и хорошо, что подчинение робота человеку определено вторым правилом. Проблема заключается лишь в том, что люди действуют не всегда логично и способны дать роботам такие указания, выполнение которых чревато для самих роботов не очень хорошими последствиями.

Для решения этой проблемы Гордон Бриггс (Gordon Briggs) и Мэттиас Шеуц (Matthias Scheutz), исследователи из Лаборатории проблем взаимодействия роботов и людей (Human-Robot Interaction Lab) университета Тафтса (Tufts University), США, разработали ряд дополнительных правил и алгоритмов, позволяющих роботам отклонять некоторые приказания получаемые ими от людей, если у них имеется ряд оснований для этого.

В лингвистической теории существует набор правил, определяющий возможность выполнения индивидом какого-либо действия:

1. Известно ли мне, как выполнить действие Х?
2. Способен я физически выполнить действие Х?
3. Способен ли я выполнить действие Х прямо сейчас?
4. Позволяет ли мне мой социальный статус выполнить действие Х?
5. Нарушает ли выполнение действия Х какой-либо из нормативных принципов?

Первые три условия прозрачны и просты для понимания, но условия 4 и 5 можно использовать в качестве правил, позволяющих роботу не выполнять прямые приказы людей. Четвертое правило можно интерпретировать для того, чтобы выполнить проверку наличия у человека полномочий на подачу роботу команд. А пятое правило позволяет роботу не выполнять действия, которые опасны для него или для окружающих.

Правильное использование приведенных выше правил позволяют четко определить, когда робот должен или не следовать приказам человека. Более того, эти правила можно использовать для дачи человеку аргументированного пояснения причин отказа выполнения поданной команды.



На первом видеоролике показан пример, в котором робот отклоняет команду "идти вперед", так как это нарушает 5-й нормативный принцип, роботу известно, что он упадет со стола, что приведет к его поломке. Он сообщает человеку об этом и просит его изменить команду так, чтобы робот смог ее выполнить.

Во втором примере робот отклоняет команду человека пройти через препятствие, стену из кубиков. В данном случае человеку известно, что это препятствие хрупко и неустойчиво, но роботу ведь об этом ничего не известно.



И в последнем примере робот отклоняет команду, поданную человеком, который не обладает нужными для этого полномочиями.

Во всех приведенных примерах второй и третий законы робототехники за счет применения дополнительных правил интерпретированы таким образом, что робот игнорирует приказы человека в тех случаях, когда роботу может быть нанесен ущерб.



Следует отметить, что все происходящее напоминает опасный прецедент, который в будущем может сыграть не на пользу человечества. Тем не менее, не стоит допускать ситуации, когда робот будет беспрекословно подчиняться командам любого человека, с которым ему довелось столкнуться. В последнем случае беспрекословное подчинение может привести к большому беспорядку и разрушительному хаосу, который может быть вызван действия некомпетентных людей, собравшихся ради шутки или в более зловещих целях покомандовать роботами.




Ключевые слова:
Робот, Робототехника, Закон, Правило, Поведение, Действие, Команда, Человек, Подчинение, Отклонение

Первоисточник

Другие новости по теме:
  • C-LEARN - система, позволяющая роботам обучаться и обучать других роботов
  • Современные роботы не могут справиться с решением задач, связанных с выполн ...
  • Ученые собираются привить этику и мораль системам искусственного интеллекта ...
  • Новая интерпретация трех законов робототехники Айзека Азимова.
  • Clickable World – командуй роботом с помощью лазерной указки.




  • 9 декабря 2015 10:16
    #1 Написал: FomaNeverujuwij

    Публикаций: 0
    Комментариев: 3785
    способностью не подчиняться приказам людей


    я-бы сказал немного по-другому

    способностью посылать людей куда подальше


    --------------------
        
    9 декабря 2015 10:20
    #2 Написал: Pulsar

    Публикаций: 0
    Комментариев: 292
    робот отклоняет команду человека пройти через препятствие, стену из кубиков


    Сколько себя помню, кубики всегда были квадратные )
    А насчёт своей безопасности: например, работая в непосредственной близости от реактора АЭС, робот запросто может выйти из строя. Но это не повод отказываться идти туда.
        
    9 декабря 2015 11:03
    #3 Написал: Ян Дененберг

    Публикаций: 0
    Комментариев: 0
    Первый ролик весьма позабавил. Сразу анекдот вспомнился, в котором один сокамерник пообещал подарить другому телогрейку в обмен на оказание эротических услуг, однако в результате "в попу побаловал, а телагу не дал" lol
        
    9 декабря 2015 13:29
    #4 Написал: tima_s

    Публикаций: 0
    Комментариев: 0
    Все, докатились. Вторжение роботов, мы ждем!smile
        
    9 декабря 2015 18:24
    #5 Написал: andru.f

    Публикаций: 0
    Комментариев: 0
    Осталось научить не подчинятся какую ни будь военную программу am
    Зря что ли терминатора снимали?
        
    11 января 2016 19:56
    #6 Написал: DASHA

    Публикаций: 0
    Комментариев: 0
    И тот примитив называют достижением? Тогда поздравления авторам таких умных роботов!
        

    Информация

    Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.