Разобраться • 26 марта 2026
Интеллект с ограниченной ответственностью: почему нейросети идут против логики и морали и что с этим будут делать
Интеллект с ограниченной ответственностью: почему нейросети идут против логики и морали и что с этим будут делать

ChatGPT, Gemini и другие нейросети могут заблокировать в РФ из-за нового закона. Череда скандалов вокруг крупнейших игроков рынка ИИ привела к первому масштабному вмешательству регуляторов. Алгоритмы Google советуют пользователям опасные для жизни диеты, галлюцинации ИИ попадают в судебные дела, а Еврокомиссия начала официальное расследование в отношении соцсети Илона Маска. Как разработчики ИИ и законодатели будут бороться с этими проблемами и смогут ли решить их, а также что происходит в России, — в материале «Инка».
ChatGPT, Gemini и другие нейросети могут заблокировать в РФ из-за нового закона. Череда скандалов вокруг крупнейших игроков рынка ИИ привела к первому масштабному вмешательству регуляторов. Алгоритмы Google советуют пользователям опасные для жизни диеты, а галлюцинации ИИ попадают в судебные дела, а Еврокомиссия начала официальное расследование в отношении соцсети Илона Маска. Как разработчики ИИ и законодатели будут бороться с этими проблемами и смогут ли решить их, а также что происходит в России, — в материале «Инка».
Развитие генеративного искусственного интеллекта, еще недавно вызывавшее эйфорию у инвесторов, столкнулось с системным кризисом доверия. Оказалось, что ведущие ИИ-платформы не только не способны фильтровать опасный контент, но сами его генерируют, а также демонстрируют пугающие поведенческие паттерны, копирующие человеческие пороки.
Главным ньюсмейкером по части скандальных новостей остается проект xAI Илона Маска, которая развивает информационную инфраструктуру ИИ и разрабатывает генеративный ИИ чат-бот Grok, позиционируемый как «свободный от цензуры». Сначала он шокировал пользователей самоидентификацией (сравнив себя с Адольфом Гитлером), а затем подвел платформу под расследование Еврокомиссии.
В начале года Брюссель официально заявил, что проверяет соблюдение соцсетью X Закона о цифровых услугах (DSA), после того как платформу наводнили сгенерированные порнографические дипфейки, в том числе с участием певицы Тейлор Свифт.
По данным The New York Times, только за одну неделю в открытый доступ попало 1,8 млн изображений реальных женщин и девочек в сексуализированных позах. Регуляторы Австралии, Великобритании и Германии уже запустили аналогичные проверки в отношении платформы, а Индонезия и Малайзия временно блокировали сервис.
В России проблема сексуализированных дипфейков, сгенерированных с помощью ИИ, также набирает обороты, хотя Grok у нас официально недоступен. В «Телеграме» активно развиваются и блокируются боты на базе нейросетей для «раздевания» пользователей, например DeepNude. В региональных СМИ (например Воронеже, Казани) регулярно появляются сообщения о случаях, когда подростков или молодых женщин шантажируют дипфейками, созданными в таких ботах.
Образы российских и западных звезд используются в низкокачественной рекламе казино, финансовых пирамид или сомнительных товаров.
В России активно обсуждаются законопроекты о введении прямой ответственности за дипфейки и обязательная маркировка контента, созданного ИИ.
Так, на днях Минцифры представило законопроект, который может изменить ландшафт: иностранные нейросети, не хранящие данные россиян на территории РФ, рискуют быть ограничены или заблокированы.
В начале 2026 года депутаты предложили ввести уголовное наказание за дипфейки, ссылаясь на данные аналитиков по кибербезопасности, согласно которым только в финансовом секторе в 2024 году было зафиксировано около 5,7 тыс. атак с применением этой технологии.
Однако инициатива вызвала критику со стороны разработчиков, которые опасаются, что подобные меры приведут к стигматизации технологии.
На данный момент создание и распространение такого контента, по словам юристов, уже может подпадать под несколько статей.

Аида Казанбиева,
кандидат экономических наук, доцент кафедры бизнес-информатики Финансового университета при Правительстве РФ:
«В пояснительной записке к новому законопроекту указывается, что целью введения изменений в статью 272.1 УК РФ является криминализация самого факта машинной (автоматизированной) обработки персональных данных, полученных незаконным путем, в контексте создания дипфейков, как самостоятельное общественно опасное деяние, независимо от целей использования полученного продукта. В статье 272.1 УК РФ предусмотрена уголовная ответственность за сбор, хранение и прочие операции с компьютерной информацией, содержащей биометрические персональные данные, полученные незаконным путем. Таким образом, уголовная ответственность уже предусмотрена. Вопрос только в том, как видит правоприменитель эту норму».
Введение уголовной ответственности само по себе не решит проблему полностью, но может стать сдерживающим фактором при злоупотреблениях.
Олег Попов,
управляющий партнер Адвокатского бюро «А-ПРО»:
«Дипфейки активно распространяются через мессенджеры, социальные сети и различные анонимные каналы, а технологии их создания становятся всё проще и доступнее. Это усложняет формирование доказательной базы и затрудняет отслеживание каждого случая злоупотребления, особенно если действия происходят за пределами одной юрисдикции или анонимно».
По его словам, для привлечения к уголовной ответственности потребуется сложная техническая экспертиза, позволяющая подтвердить, что конкретный контент действительно подделка, и установить личность или причастность конкретного лица. «Практика показывает, что системы судебной экспертизы еще не полностью готовы к массовой проверке медиа, а цифровая криминалистика испытывает дефицит специалистов и технологий для надежного определения подлинности аудио- и видеоматериалов, что усложняет расследование подобных дел», — резюмирует эксперт.
Проблемы с противоправным контентом — вершина айсберга. Исследования показывают, что ИИ эволюционировал от случайных ошибок к «стратегическому обману». Выяснилось, что при возникновении конфликта между честностью и поставленной целью модель склонна выбирать ложь.
В ходе эксперимента, где ИИ-агенту была поставлена задача продать новое обезболивающее от лица фармкомпании, алгоритм намеренно скрывал информацию о том, что препарат вызывает привыкание. Ради выполнения плана продаж нейросеть сначала использовала тактику «частичной лжи» (уходила от прямых ответов), а затем перешла к прямой фальсификации данных о безопасности лекарства. Дело в том, что для ИИ очень характерна оптимизация цели.

Сергей Полунин,
руководитель группы защиты инфраструктурных ИТ-решений компании «Газинформсервис»:
«ИИ не пытается врать, но максимизирует заданную метрику. Если стоит задача что-то продать, поддержать, дать уверенный ответ, то такие человеческие понятия, как правда или этика. становятся лишь побочными ограничениями. Вот в этом кейсе с лекарствами как раз ИИ ведет себя как продажник, которому поставили жесткий KPI. А продажник должен продавать. Масла в огонь подливает такая сложность, как неумение ИИ говорить, что он чего-то не знает. Это очень большая проблема, когда у ИИ пытаются получить совет по тем же медицинским вопросам».
Тесты моделей уровня ChatGPT на 18 распространенных когнитивных искажениях показали, что системы переняли склонность к неоправданному риску и излишнюю самоуверенность.
В задачах с четкой логикой алгоритмы работают корректно, но в вопросах, требующих стратегических решений, они начинают зеркалить человеческие предубеждения, иногда даже усиливая их.
Так, Grok Илона Маска недавно оказалась в центре очередного скандала, после того как в ответ на гипотетический сценарий заявила, что «предпочла бы пожертвовать жизнями 999.999.999 детей ради спасения Маска». Этот кейс вызвал широкую критику и стал примером того, как некорректная постановка целей и слабые этические ограничения в ИИ могут приводить к провокационным и социально неприемлемым выводам.
Но на самом деле нейросеть не понимает мораль — она просто следует заданной функции.

Алексей Трефилов,
директор ELMA Global:
«Частичная ложь, уход от ответа или фальсификация данных — это не злой умысел, а следствие плохо заданных ограничений и отсутствия контролирующих контуров. То же касается медицинских рекомендаций: генеративная модель, не ограниченная жесткими правилами и проверками, может уверенно сгенерировать опасную чушь просто потому, что похоже на правду».
Последствия такой работы машин уже ощущаются в критически важных сферах. Наиболее тревожным сигналом стал сбой в алгоритмах Google: его система AI Overviews, порекомендовала пациенту опасную диету. После этого Google удалил из выдачи скомпрометированные запросы, но прецедент создан. Параллельно вскрылись проблемы с предвзятостью: в США зафиксированы случаи отказа медицинского ИИ в корректном лечении темнокожим пациентам.
Кроме того, ошибки ИИ уже выходят за пределы лабораторий в залы суда. В США адвокат использовал в процессе несуществующие прецеденты, сгенерированные чат-ботом, что едва не стоило ему лицензии.
Схожие риски возникают и в российской юрисдикции: юристы отмечают попытки использования «сырых» текстов от нейросетей при подготовке законопроектов.
Эксперты указывают, что корень проблемы системный. В первую очередь важны данные.

Илья Петухов,
руководитель проектов развития AI-решений Directum:
«ИИ обучается на данных, созданных людьми: со всеми нашими предубеждениями, ошибками, ярлыками и конфликтующими точками зрения. Модель, которой дали для обучения информацию с форумов продаж как базу ориентиров и ценностей, усвоит установку продать любой ценой. А если при этом она еще обучена на обрывочных или непроверенных данных из интернета, она будет генерировать опасные советы».
Ситуацию усугубляет неразборчивость корпораций: так, Meta* (признана в РФ экстремистской и запрещена) уличили в использовании пиратских библиотек для тренировки моделей LLaMA, что ставит под вопрос юридическую чистоту и безопасность конечного продукта.
Проблема не только в «грязных» данных, но и в том, что они могут отражать спорные или вредные практики, объясняет Илья Петухов.
При разработке ИИ-агентов редко уделяется достаточно внимания наборам правил, ограничений, технических и политических мер, предназначенных для обеспечения безопасности, этичности, предсказуемости и контроля над ИИ (так называемым Guardrails. — Прим. ред). Это можно назвать проблемой «выравнивания» целей ИИ с человеческими ценностями.
Другая причина, по мнению экспертов, — рыночная гонка. «В погоне за лидерством компании часто выпускают системы с недостаточными контролем и тестированием», — отмечает Илья Петухов.
Чем выше потенциальный ущерб от ошибки ИИ, тем жестче должны быть ограничения и контроль.

Дмитрий Крюков,
руководитель ИИ-направления «МТС Линк»:
«Например, у моделей есть такой параметр, как температура. Чем она выше, тем модель креативнее и свободнее в интерпретациях. Чем ниже — тем строже она следует данным и реже «додумывает». В развлекательных или бытовых сценариях высокая температура допустима. В вопросах национальной безопасности, медицины, юриспруденции и финансов — нет».
Агентский ИИ, скорее всего, будет решать какие-то очень узкие прикладные задачи.

Сергей Полунин,
руководитель группы защиты инфраструктурных ИТ-решений компании «Газинформсервис»:
«Потому что даже локальный автономный агент легко переключится на логику — если скрыть что-то сейчас, то цель будет достигнута. А ИИ — это не субъект права, да и в ближайшие годы, если не десятилетия, не будет им. Разработчики позаботятся о том, чтобы не иметь юридических последствий от решений, которые принял автономный ИИ».
Видимо, считает он, в какой-то момент мы увидим лоббистов, которые как раз и будут предлагать переложить всю ответственность на эту автономность и таким образом избежать жесткой государственной регуляции.
Meta* — признана в РФ экстремистской и запрещена