|  | 15 сентября 2010 | Робототехника

Созданы первые роботы, способные хитрить, жульничать и обманывать.

Роботы, Рональд Аркин и Алан Вагнер


Исследователи из Технологического института Джорджии (Georgia Institute of Technology), вероятно, совершили ужасную ошибку, которая обязательно аукнется когда-нибудь для всего человечества, они научили роботов обманывать. Конечно, способность к обману может быть и полезной в некоторых ситуациях, к примеру, военные роботы, которые могут обмануть и ввести в заблуждение вражеских солдат, не ожидающих что их противник будет действовать изобретательно и нетрадиционно. Но, если эти роботы вздумают развернуть свое оружие против человечества, то всем нам придется пожалеть о том, что исследователи Рональд Аркин (Ronald Arkin) и Алан Вагнер (Alan Wagner) не держали их идеи при себе.

Согласно материалу, опубликованному в журнале International Journal of Social Robotics, двух роботов заставили играть в прятки. Черный робот должен был укрыться в одном из укрытий, второй, красного цвета, должен был его отыскать, используя подсказки, цветные метки, оставленные первым роботом. Однако, у черного робота был "козырь в рукаве", оставив цветные метки на пути к одному из укрытий, робот укрывался в совершенно ином укрытии, оставив таким образом ложный след. В 15 из 20 проведенных испытаний это позволило черному роботу одурачить красного, оставшиеся пять неудачных случаев произошли, по мнению исследователей, из-за неправильной установки маркеров черным роботом.

"Конечно, наши испытания нельзя назвать сложными и удачными. Но они продемонстрировали саму возможность реализации процесса обмана роботами в условиях реальной окружающей среды" - рассказывает Алан Вагнер. - "И, положительным результатом является то, что разработанные нами методы и алгоритмы являются вполне работоспособными, на их основе можно разработать более совершенные алгоритмы, с помощью которых роботы смогут лгать и хитрить более изощренными способами".

Когда Рональду Аркину задали вопрос о том, действительно ли он считает это хорошей идеей, принимая во внимание сюжет и события таких фильмов, как "Терминатор" и "Звездный крейсер "Галактика"", он ответил: "С самого начала, создавая роботов, способных к обману, мы обдумывали этические стороны этого шага. И, естественно, у этой медали есть две стороны, полезные и вредные аспекты. Создание роботов, способных к обману, должно быть сурово ограничено набором специальных инструкций и правил, а сами роботы неуклонно будут должны соблюдать всем известные законы робототехники Айзимова, которые, вероятно, придется немного дополнить и доработать".





Ключевые слова:
Робот, Обман, Ложь, Алгоритм, Закон, Робототехника, Айзимов

Первоисточник

Другие новости по теме:
  • Современные роботы не могут справиться с решением задач, связанных с выполн ...
  • В тематических парках компании Disney в скором времени появятся группы робо ...
  • Экспериментальная группа роботов получит возможность самовоспроизведения с ...
  • Японские роботы Yume Robo передвигаются по вертикали почти как люди.
  • Новая интерпретация трех законов робототехники Айзека Азимова.




  • 15 сентября 2010 10:09
    #1 Написал: Astronaut

    Публикаций: 2238
    Комментариев: 142
    Это все, конечно, еще достаточно примитивно, но перспектива не из приятных, если будут дальше развивать эту тематику.
        
    15 сентября 2010 13:48
    #2 Написал: CoJIb

    Публикаций: 0
    Комментариев: 1155
    До первого ИИ способного к нормальному самообучению, и когда нить он научиться, как и любой человек что выполнять закон не обязательно.
        
    15 сентября 2010 19:48
    #3 Написал: Stibrus

    Публикаций: 0
    Комментариев: 148
    Что за ерунда? В робота заложили алгоритм расстановки "ложных целей". Где новшество? ...
        
    15 сентября 2010 20:03
    #4 Написал: Electronic

    Публикаций: 615
    Комментариев: 129
    Цитата: Stibrus
    Где новшество?

    Первые они, однако, вот и новшество. А не дай бог еще к таким алгоритмам прикрутят ИИ.....
        
    15 сентября 2010 21:45
    #5 Написал: MGMaxim

    Публикаций: 0
    Комментариев: 0
    стрелять таких исследователей надо. пока не поздно angry
        

    Информация

    Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.