Более 30 сотрудников компаний OpenAI и Google DeepMind направили заявление в поддержку иска компании Anthropic против Министерства обороны США. Поводом стало решение федерального ведомства классифицировать разработчика искусственного интеллекта как угрозу для цепочки поставок.

В документе подчеркивается, что признание Anthropic источником риска для цепочки поставок со стороны правительства стало необоснованным и произвольным использованием полномочий. Авторы заявления считают, что подобный шаг способен повлечь серьезные последствия для всей индустрии искусственного интеллекта.
В конце прошлой недели Пентагон назвал Anthropic «угрозой для цепочек поставок» — это формулировка, которая обычно применяется в отношении иностранных противников. Это произошло после того, как компания отказалась разрешить Министерству обороны использовать ее технологии искусственного интеллекта для массового наблюдения за гражданами США или для автономного применения вооружений. Представители оборонного ведомства, в свою очередь, заявляли, что должны иметь возможность применять системы ИИ в любых «законных» целях и не зависеть от ограничений со стороны частного подрядчика.
Заявление в поддержку Anthropic было внесено в судебный реестр всего через несколько часов после того, как разработчик модели Claude подал два иска против Министерства обороны и других федеральных структур, сообщил журнал Wired.
Прочитайте также
Пентагон планирует дать чат-боту Маска доступ к данным разведки
В обращении сотрудники OpenAI и Google отмечают, что если Пентагон оказался не удовлетворен согласованными условиями контракта с Anthropic, у ведомства была возможность просто расторгнуть соглашение и обратиться к другой ведущей компании в сфере искусственного интеллекта.
При этом Министерство обороны действительно заключило контракт с OpenAI вскоре после того, как объявило Anthropic риском для цепочки поставок. Этот шаг вызвал протесты среди части сотрудников компании. Кроме того, тысячи пользователей ChatGPT объявили о бойкоте сервиса и начали переходить на альтернативные решения. Основным направлением миграции стала платформа Claude, созданная компанией Anthropic.
В документе также говорится, что обозначенные Anthropic «красные линии» являются оправданными и отражают реальные риски, требующие жестких механизмов защиты. Подписавшиеся подчеркивают, что пока не существует полноценного публичного законодательства, регулирующего применение искусственного интеллекта, именно договорные и технические ограничения, которые разработчики устанавливают для своих систем, остаются ключевой гарантией против потенциально катастрофического злоупотребления технологией.
Многие сотрудники, поддержавшие заявление, в последние недели также подписывали открытые письма. В них они призывали Пентагон отказаться от присвоенной Anthropic маркировки и обращались к руководству своих компаний с просьбой публично поддержать разработчика, а также не допускать одностороннего использования их систем искусственного интеллекта государственными структурами.
Ранее соучредитель и генеральный директор Anthropic Дарио Амодей резко раскритиковал решение своего главного конкурента — компании OpenAI — заключить соглашение с Министерством обороны США. Во внутреннем обращении к сотрудникам он дал крайне жесткую оценку этому шагу, назвав действия OpenAI «дешевым спектаклем».
Подпишитесь на «Инк» в Telegram. Там мы пишем нескучным языком о самом важном для предпринимателей. Подписаться.