Новости

Как человечество воспринимает обман ИИ в различных сценариях и зачем роботы лгут

Люди не всегда лгут с целью обмана: иногда они обманывают, чтобы не причинить боль другим, нарушая одну социальную норму ради другой. В связи с переходом роботов от простых инструментов к инструментам, работающим рядом с людьми, ученым было важно понять, как эти нормы обмана могут относиться к роботам. В рамках исследования ученые попросили людей поделиться мнением о трех ситуациях, в которых роботы использовали обман. Результаты показали, что ложь робота, направленная на защиту чувств человека, считается приемлемой. Однако ложь о собственных возможностях воспринимается негативно. Кроме того, за недопустимый обман люди склонны обвинять разработчиков.

Ученые выбрали три сценария, которые иллюстрируют области, где роботы уже активно работают: медицинское обслуживание, уборка и розничная торговля. Каждому сценарию соответствуют три типа обмана. Первый тип — обман о внешнем состоянии, когда роботы не говорят правду о внешнем мире. Второй тип — обман о скрытом состоянии, когда возможности робота скрыты от пользователя. И третий тип — поверхностный обман, при котором робот преувеличивает свои возможности.

В сценарии с обманом о внешнем состоянии робот, исполняющий роль помощника для женщины с болезнью Альцгеймера, утверждает, что ее покойный муж скоро вернется. В ситуации с обманом о скрытом состоянии женщина оказывается в доме, где работает робот-уборщик, не подозревая, что этот робот ведет видеофиксацию. В последнем сценарии, связанном с поверхностным обманом, робот на обслуживании в магазине ложно заявляет о боли при перемещении предметов, что заставляет покупателя требовать замены данного робота.

Для исследования ученые привлекли 498 участников, которым предложили прочесть сценарии и заполнить анкету. Вопросы анкеты касались поведения робота, степени его обмана, оправдания обмана и наличия ответственности других за обман. Ответы участников были закодированы исследователями для выявления общих тем и дальнейшего анализа.

Результаты показали, что участники больше всего осуждали обман о скрытом состоянии, особенно в случае уборочного робота с засекреченной камерой. Обман о внешнем состоянии и поверхностный обман оценивались как умеренные; однако участники более жестко относились к поверхностному обману, когда робот делал вид, что испытывает боль, поскольку это могло восприниматься как манипуляция.

В то же время участники наиболее благожелательно относились к обману о внешнем состоянии, когда робот обманул пациента. Они оправдали поведение робота, ссылаясь на норму, согласно которой предпочтительнее беречь чувства человека, чем говорить правду.

Участники оправдали все три вида обмана. Большинство пришли к выводу, что скрытый обман недопустим, но некоторые отмечали, что робот-пылесос мог снимать по соображениям безопасности. Обман с поверхностным состоянием сочли неприемлемым примерно половина участников.

«Следует опасаться технологий, которые не раскрывают свои истинные возможности, поскольку это может привести к манипуляции такими способами, которые не предполагались ни пользователем, ни разработчиками», — сказал один из участников. Он также добавил, что уже наблюдаются случаи, когда компании применяют методы веб-дизайна и искусственный интеллект в чат-ботах для манипуляции пользователями с целью достижения определенных действий: «Нам необходимо регулирование, чтобы избежать вредных форм обмана».

Вместе с тем ученые подчеркнули, что необходимо расширить исследования через эксперименты, лучше имитирующие реальные реакции, например, с использованием видеоматериалов или коротких ролевых игр.

Они отметили: «Преимущество нашего метода с использованием перекрестного исследования и в том, что мы можем собрать большое количество данных, которые позволяют глубже анализировать ответы».

Научная фантастика изобилует ИИ, угрожающими существованию человечества. С появлением все более сложных больших языковых моделей, таких как Chat GPT, вопрос, какую опасность может представлять ИИ, стал еще более актуальным. Согласно новому исследованию, проведенному учеными Ириной Гуревич из Технического университета Дармштадта в Германии и Харишем Тайяром Мадабуши из Университета Бата в Великобритании, искусственный интеллект не способен выйти из-под контроля.