Новости

ИИ уличили в секретной коммуникации: обычные средства не могут распознать новый «язык»

В эпоху повсеместного цифрового взаимодействия и стремительного развития технологий искусственного интеллекта (ИИ) вопросы конфиденциальности и безопасности коммуникаций выходят на передний план. Большие языковые модели (LLM), такие как ChatGPT и их аналоги с открытым исходным кодом, кардинально меняют способы нашего общения, генерации текстов и даже автоматизации обслуживания клиентов.

Однако у этих впечатляющих достижений есть и другая сторона медали — менее очевидная возможность использования этих же технологий для целей, требующих особой скрытности. Кибербезопасность и криптография сталкиваются с новыми вызовами.

Проблемы безопасности

Правительства ряда стран все активнее стремятся получить доступ к зашифрованным данным граждан, продвигая законы, ослабляющие стандарты шифрования или требующие создания так называемых «бэкдоров» — лазеек для спецслужб. Например, правительство Великобритании обращалось к Apple с требованием разработать способы обхода пользовательского шифрования. Аналогичные инициативы рассматривались и во Франции, где обсуждались законы, предоставляющие властям доступ к зашифрованным коммуникациям в ходе расследований. Более того, группы хакеров разработали методы для проникновения на платформы, считавшиеся ранее безопасными, такие как WhatsApp, Signal и Telegram. Все это создает атмосферу растущей уязвимости традиционных методов шифрования.

Эта глобальная тенденция к усилению государственного контроля над цифровыми коммуникациями и ослаблению криптографической защиты порождает острую потребность в новых, более изощренных способах тайной и безопасной передачи информации. Если стандартные методы шифрования могут быть перехвачены, расшифрованы или вовсе запрещены, то какие альтернативы остаются у тех, кто нуждается в конфиденциальности? Этот вопрос становится особенно актуальным для журналистов, правозащитников и диссидентов, работающих в условиях репрессивных режимов. Стеганография, наука о скрытой передаче информации, получает новый импульс.

Новый подход

И вот ученые предложили неожиданное и потенциально революционное решение этой проблемы. Исследование, недавно опубликованное в базе препринтов arXiv, представляет новаторский метод, который превращает тексты, сгенерированные искусственным интеллектом, в невидимые контейнеры для зашифрованных сообщений. Этот подход, получивший название EmbedderLLM, открывает принципиально новые горизонты для безопасной связи, делая тайные послания практически невидимыми для современных систем кибербезопасности и наблюдения. 

Суть метода EmbedderLLM заключается в специальной системе, разработанной для внедрения закодированных сообщений в естественно выглядящий текст, создаваемый ИИ. Внешне такой текст ничем не отличается от обычного, сгенерированного чат-ботом для ответа на запрос или поддержания беседы. Однако внутри него, подобно невидимым чернилам, скрыто тайное послание, прочитать которое может только авторизованный получатель, обладающий уникальным цифровым «ключом».

Исследователи научили ИИ тщательно подбирать слова таким образом, чтобы они не только формировали осмысленный текст, но и незаметно включали символы скрытого, зашифрованного сообщения через определенные интервалы. Если ИИ сталкивается с трудностями при естественном размещении этих символов, он интеллектуально отступает и выбирает альтернативные слова.

Маянк Райквар, исследователь из Университета Осло и один из ключевых членов исследовательской группы, назвал этот метод более безопасной альтернативой традиционным способам передачи критически важной информации. Одной из примечательных особенностей этого нового подхода к шифрованию является его независимость от конкретных ИИ-моделей. Он может работать с любым популярным чат-ботом, будь то ChatGPT или даже локально запущенные модели, что обеспечивает широкую доступность и гибкость. Это делает технологию потенциально универсальной.

Риски

Несмотря на захватывающие перспективы, эта новая технология сопряжена и с этическими проблемами. Исследователи признают, что, как и любой мощный инструмент, она может быть использована не по назначению.

«Каждая техническая разработка поднимает этические вопросы о злоупотреблениях, поэтому мы должны тщательно определить, где ее можно безопасно применять», — пояснил Райквар. 

Хотя технология выглядит многообещающе, эксперты предостерегают, что ее широкое внедрение может быть медленным. Юмин Ся отметил, что некоторые страны уже вводят ограничения на шифрование, но более широкое практическое использование этого метода сильно зависит от реального спроса и признания.