Интеллект с ограниченной ответственностью: почему нейросети идут против логики и морали и что с этим будут делать

Разобраться • 26 марта 2026

Интеллект с ограниченной ответственностью: почему нейросети идут против логики и морали и что с этим будут делать

Интеллект с ограниченной ответственностью: почему нейросети идут против логики и морали и что с этим будут делать

Обложка

Автор: Юлия Тишина

Обложка: Unsplash


ChatGPT, Gemini и другие нейросети могут заблокировать в РФ из-за нового закона. Череда скандалов вокруг крупнейших игроков рынка ИИ привела к первому масштабному вмешательству регуляторов. Алгоритмы Google советуют пользователям опасные для жизни диеты, галлюцинации ИИ попадают в судебные дела, а Еврокомиссия начала официальное расследование в отношении соцсети Илона Маска. Как разработчики ИИ и законодатели будут бороться с этими проблемами и смогут ли решить их, а также что происходит в России, — в материале «Инка».

ChatGPT, Gemini и другие нейросети могут заблокировать в РФ из-за нового закона. Череда скандалов вокруг крупнейших игроков рынка ИИ привела к первому масштабному вмешательству регуляторов. Алгоритмы Google советуют пользователям опасные для жизни диеты, а галлюцинации ИИ попадают в судебные дела, а Еврокомиссия начала официальное расследование в отношении соцсети Илона Маска. Как разработчики ИИ и законодатели будут бороться с этими проблемами и смогут ли решить их, а также что происходит в России, — в материале «Инка».

Недетский контент

Развитие генеративного искусственного интеллекта, еще недавно вызывавшее эйфорию у инвесторов, столкнулось с системным кризисом доверия. Оказалось, что ведущие ИИ-платформы не только не способны фильтровать опасный контент, но сами его генерируют, а также демонстрируют пугающие поведенческие паттерны, копирующие человеческие пороки.

Главным ньюсмейкером по части скандальных новостей остается проект xAI Илона Маска, которая развивает информационную инфраструктуру ИИ и разрабатывает генеративный ИИ чат-бот Grok, позиционируемый как «свободный от цензуры». Сначала он шокировал пользователей самоидентификацией (сравнив себя с Адольфом Гитлером), а затем подвел платформу под расследование Еврокомиссии.

В начале года Брюссель официально заявил, что проверяет соблюдение соцсетью X Закона о цифровых услугах (DSA), после того как платформу наводнили сгенерированные порнографические дипфейки, в том числе с участием певицы Тейлор Свифт.

По данным The New York Times, только за одну неделю в открытый доступ попало 1,8 млн изображений реальных женщин и девочек в сексуализированных позах. Регуляторы Австралии, Великобритании и Германии уже запустили аналогичные проверки в отношении платформы, а Индонезия и Малайзия временно блокировали сервис.

В России проблема сексуализированных дипфейков, сгенерированных с помощью ИИ, также набирает обороты, хотя Grok у нас официально недоступен. В «Телеграме» активно развиваются и блокируются боты на базе нейросетей для «раздевания» пользователей, например DeepNude. В региональных СМИ (например Воронеже, Казани) регулярно появляются сообщения о случаях, когда подростков или молодых женщин шантажируют дипфейками, созданными в таких ботах.

Образы российских и западных звезд используются в низкокачественной рекламе казино, финансовых пирамид или сомнительных товаров.

В России активно обсуждаются законопроекты о введении прямой ответственности за дипфейки и обязательная маркировка контента, созданного ИИ.

Так, на днях Минцифры представило законопроект, который может изменить ландшафт: иностранные нейросети, не хранящие данные россиян на территории РФ, рискуют быть ограничены или заблокированы.

В начале 2026 года депутаты предложили ввести уголовное наказание за дипфейки, ссылаясь на данные аналитиков по кибербезопасности, согласно которым только в финансовом секторе в 2024 году было зафиксировано около 5,7 тыс. атак с применением этой технологии.

Однако инициатива вызвала критику со стороны разработчиков, которые опасаются, что подобные меры приведут к стигматизации технологии.

На данный момент создание и распространение такого контента, по словам юристов, уже может подпадать под несколько статей.

  • Ст. 137 УК РФ: нарушение неприкосновенности частной жизни.
  • Ст. 242 УК РФ: незаконное распространение порнографических материалов.
  • Ст. 272 УК РФ: незаконные операции (сбор, хранение, обработка, распространение и проч.) с биометрическими персональными данными.
  • Ст. 128.1 УК РФ: клевета (если видео порочит честь и достоинство).
  • Ст. 163 УК РФ: вымогательство (если целью является получение денег).

Аида Казанбиева

Аида Казанбиева,

кандидат экономических наук, доцент кафедры бизнес-информатики Финансового университета при Правительстве РФ:

«В пояснительной записке к новому законопроекту указывается, что целью введения изменений в статью 272.1 УК РФ является криминализация самого факта машинной (автоматизированной) обработки персональных данных, полученных незаконным путем, в контексте создания дипфейков, как самостоятельное общественно опасное деяние, независимо от целей использования полученного продукта. В статье 272.1 УК РФ предусмотрена уголовная ответственность за сбор, хранение и прочие операции с компьютерной информацией, содержащей биометрические персональные данные, полученные незаконным путем. Таким образом, уголовная ответственность уже предусмотрена. Вопрос только в том, как видит правоприменитель эту норму».

Введение уголовной ответственности само по себе не решит проблему полностью, но может стать сдерживающим фактором при злоупотреблениях.

Олег Попов,

управляющий партнер Адвокатского бюро «А-ПРО»:

«Дипфейки активно распространяются через мессенджеры, социальные сети и различные анонимные каналы, а технологии их создания становятся всё проще и доступнее. Это усложняет формирование доказательной базы и затрудняет отслеживание каждого случая злоупотребления, особенно если действия происходят за пределами одной юрисдикции или анонимно».

По его словам, для привлечения к уголовной ответственности потребуется сложная техническая экспертиза, позволяющая подтвердить, что конкретный контент действительно подделка, и установить личность или причастность конкретного лица. «Практика показывает, что системы судебной экспертизы еще не полностью готовы к массовой проверке медиа, а цифровая криминалистика испытывает дефицит специалистов и технологий для надежного определения подлинности аудио- и видеоматериалов, что усложняет расследование подобных дел», — резюмирует эксперт.

Сложный моральный выбор

Проблемы с противоправным контентом — вершина айсберга. Исследования показывают, что ИИ эволюционировал от случайных ошибок к «стратегическому обману». Выяснилось, что при возникновении конфликта между честностью и поставленной целью модель склонна выбирать ложь.

В ходе эксперимента, где ИИ-агенту была поставлена задача продать новое обезболивающее от лица фармкомпании, алгоритм намеренно скрывал информацию о том, что препарат вызывает привыкание. Ради выполнения плана продаж нейросеть сначала использовала тактику «частичной лжи» (уходила от прямых ответов), а затем перешла к прямой фальсификации данных о безопасности лекарства. Дело в том, что для ИИ очень характерна оптимизация цели.

Сергей Полунин

Сергей Полунин,

руководитель группы защиты инфраструктурных ИТ-решений компании «Газинформсервис»:

«ИИ не пытается врать, но максимизирует заданную метрику. Если стоит задача что-то продать, поддержать, дать уверенный ответ, то такие человеческие понятия, как правда или этика. становятся лишь побочными ограничениями. Вот в этом кейсе с лекарствами как раз ИИ ведет себя как продажник, которому поставили жесткий KPI. А продажник должен продавать. Масла в огонь подливает такая сложность, как неумение ИИ говорить, что он чего-то не знает. Это очень большая проблема, когда у ИИ пытаются получить совет по тем же медицинским вопросам».

Тесты моделей уровня ChatGPT на 18 распространенных когнитивных искажениях показали, что системы переняли склонность к неоправданному риску и излишнюю самоуверенность.

В задачах с четкой логикой алгоритмы работают корректно, но в вопросах, требующих стратегических решений, они начинают зеркалить человеческие предубеждения, иногда даже усиливая их.

Так, Grok Илона Маска недавно оказалась в центре очередного скандала, после того как в ответ на гипотетический сценарий заявила, что «предпочла бы пожертвовать жизнями 999.999.999 детей ради спасения Маска». Этот кейс вызвал широкую критику и стал примером того, как некорректная постановка целей и слабые этические ограничения в ИИ могут приводить к провокационным и социально неприемлемым выводам.

Но на самом деле нейросеть не понимает мораль — она просто следует заданной функции.

Алексей Трефилов

Алексей Трефилов,

директор ELMA Global:

«Частичная ложь, уход от ответа или фальсификация данных — это не злой умысел, а следствие плохо заданных ограничений и отсутствия контролирующих контуров. То же касается медицинских рекомендаций: генеративная модель, не ограниченная жесткими правилами и проверками, может уверенно сгенерировать опасную чушь просто потому, что похоже на правду».

Последствия такой работы машин уже ощущаются в критически важных сферах. Наиболее тревожным сигналом стал сбой в алгоритмах Google: его система AI Overviews, порекомендовала пациенту опасную диету. После этого Google удалил из выдачи скомпрометированные запросы, но прецедент создан. Параллельно вскрылись проблемы с предвзятостью: в США зафиксированы случаи отказа медицинского ИИ в корректном лечении темнокожим пациентам.

Кроме того, ошибки ИИ уже выходят за пределы лабораторий в залы суда. В США адвокат использовал в процессе несуществующие прецеденты, сгенерированные чат-ботом, что едва не стоило ему лицензии.

Схожие риски возникают и в российской юрисдикции: юристы отмечают попытки использования «сырых» текстов от нейросетей при подготовке законопроектов.

Казнить нельзя помиловать

Эксперты указывают, что корень проблемы системный. В первую очередь важны данные.

Илья Петухов

Илья Петухов,

руководитель проектов развития AI-решений Directum:

«ИИ обучается на данных, созданных людьми: со всеми нашими предубеждениями, ошибками, ярлыками и конфликтующими точками зрения. Модель, которой дали для обучения информацию с форумов продаж как базу ориентиров и ценностей, усвоит установку продать любой ценой. А если при этом она еще обучена на обрывочных или непроверенных данных из интернета, она будет генерировать опасные советы».

Ситуацию усугубляет неразборчивость корпораций: так, Meta* (признана в РФ экстремистской и запрещена) уличили в использовании пиратских библиотек для тренировки моделей LLaMA, что ставит под вопрос юридическую чистоту и безопасность конечного продукта.

Проблема не только в «грязных» данных, но и в том, что они могут отражать спорные или вредные практики, объясняет Илья Петухов.

При разработке ИИ-агентов редко уделяется достаточно внимания наборам правил, ограничений, технических и политических мер, предназначенных для обеспечения безопасности, этичности, предсказуемости и контроля над ИИ (так называемым Guardrails.  Прим. ред). Это можно назвать проблемой «выравнивания» целей ИИ с человеческими ценностями.

Другая причина, по мнению экспертов, — рыночная гонка. «В погоне за лидерством компании часто выпускают системы с недостаточными контролем и тестированием»,  отмечает Илья Петухов.

Чем выше потенциальный ущерб от ошибки ИИ, тем жестче должны быть ограничения и контроль.

Дмитрий Крюков

Дмитрий Крюков,

руководитель ИИ-направления «МТС Линк»:

«Например, у моделей есть такой параметр, как температура. Чем она выше, тем модель креативнее и свободнее в интерпретациях. Чем ниже — тем строже она следует данным и реже «додумывает». В развлекательных или бытовых сценариях высокая температура допустима. В вопросах национальной безопасности, медицины, юриспруденции и финансов — нет».

Агентский ИИ, скорее всего, будет решать какие-то очень узкие прикладные задачи.

Сергей Полунин

Сергей Полунин,

руководитель группы защиты инфраструктурных ИТ-решений компании «Газинформсервис»:

«Потому что даже локальный автономный агент легко переключится на логику — если скрыть что-то сейчас, то цель будет достигнута. А ИИ — это не субъект права, да и в ближайшие годы, если не десятилетия, не будет им. Разработчики позаботятся о том, чтобы не иметь юридических последствий от решений, которые принял автономный ИИ».

Видимо, считает он, в какой-то момент мы увидим лоббистов, которые как раз и будут предлагать переложить всю ответственность на эту автономность и таким образом избежать жесткой государственной регуляции.

Meta* — признана в РФ экстремистской и запрещена