Новости

В Великобритании предложили альтернативу законам робототехники Азимова

Многие роботы — например, которые собирают автомобили на заводах, — немедленно останавливаются, когда к ним приближается человек. Однако такой способ взаимодействия не поможет, когда самоуправляемому автомобилю нужно избежать столкновения или робот-помощник должен поймать падающего пожилого человека. Для этого Кристоф Сэлдж из Университета Хартфордшира со своими коллегами разработал альтернативу законам робототехники Айзека Азимова, рассказал он изданию The Conversation.

Вместо законов, ограничивающих поведение роботов, ученые предлагают наделить устройства возможностью максимизировать возможные способы их действий в различных ситуациях. Этот принцип может стать основой для нового набора универсальных руководящих принципов, которые максимально повысят безопасность людей. Сэлдж отмечает, что ученые разрабатывают эту идею с 2005 года.

Самое известное потенциальное решение проблемы взаимодействия роботов с человеком — три закона робототехники Айзека Азимова, продолжает ученый.


1. Робот не может нанести вред человеку или же через бездействие позволить человеку пострадать.

2. Робот должен подчиняться приказам людей, за исключением тех случаев, когда такие приказы противоречат первому закону.

3. Робот должен защищать себя до того, как эта защита не вступает в противоречие с первым или вторым законом.


Несмотря на то что эти законы звучат правдоподобно, уже было доказано, что они неадекватны, продолжает Сэлдж. При этом сами произведения Азимова доказывают, что эти законы терпят неудачу во множестве ситуаций.

Одна из проблем для любого набора правил взаимодействия роботов с людьми — необходимость перевести их в формат, с которым могут работать роботы. Роботу сложно понять весь спектр человеческого языка и опыта, который он представляет. Такие цели, как предотвращение вреда людям или защита существования робота, могут означать разные вещи в разных контекстах. Если робот будет следовать этим целям, то он может оказаться беспомощным.


Кристоф Сэлдж

Исследователь Университета Хартфордшира

«Расширение возможностей — наша альтернативная концепция, которая представляет собой противоположность беспомощности. Получение расширенных полномочий означает получение возможности влиять на ситуацию и осознавать эту возможность. Мы разрабатывали способы воплотить эту социальную концепцию в количественный и рабочий технический язык. Это позволит наделить роботов стремлением держать свои возможности открытыми для окружающих и действовать таким образом, чтобы увеличить их влияние на мир.

Когда мы пытались имитировать действия роботов в соответствии с принципом расширения возможностей в различных сценариях, мы обнаружили, что они часто действуют естественными способами. Для этого им обычно требуется моделировать работу реального мира. При этом таким устройствам не нужны специализированные программы искусственного интеллекта, предназначенные для решения конкретного сценария», — пишет Сэлдж.


Чтобы люди были в безопасности, роботы должны стараться поддерживать или улучшать возможности людей — равно как и свои собственные, продолжает Кристоф Сэлдж. Это означает, что машины должны поддерживать и защищать людей, поддерживая свои возможности. Например, устройство должны самостоятельно пытаться поддерживать возможность для работы и проверять, не застревает ли он или не получает повреждений.

Роботы могут адаптироваться к новым ситуациям

Использование предложенного принципа, а не предопределенных правил поведения позволят роботам принимать во внимание контекст и оценивать сценарии, которые не были до этого предусмотрены. Так, вместо того чтобы постоянно следовать правилу «не толкай людей», робот будет обычно избегать этого действия, но он по-прежнему будет способен это сделать, когда на человека будет что-то падать. Человеку по-прежнему может быть причинен вред, но меньший, чем если бы робот не оттолкнул его, объясняет Сэлдж.

Ученый отмечает, что в фильме «Я, робот», основанном на нескольких произведениях Азимова, роботы создают угнетающее состояние, которое должно минимизировать общий вред для людей, сохраняя их защищенными и ограниченными от свобод. «Однако наш принцип позволит избежать этого сценария, поскольку подобное развитие событий означало бы потерю прав человека», — добавляет Сэлдж.

По мнению Илона Маска, искусственный интеллект — наиболее существенный риск, который стоит перед людьми. Поэтому предприниматель предложил создать в США регулятор, который будет следить за этой технологией и направлять ее в нужное русло.