Сотрудники OpenAI опубликовали письмо, в котором выразили обеспокоенность быстрым развитием индустрии ИИ, несмотря на отсутствие надзора и защиты от разоблачителей, поделились новостью CNBC. «У компаний, занимающихся разработкой искусственного интеллекта, есть серьезные финансовые стимулы избегать эффективного надзора», — пишут сотрудники.
Группа нынешних и бывших сотрудников OpenAI опубликовала открытое письмо, в котором выразила обеспокоенность быстрым развитием индустрии искусственного интеллекта, несмотря на отсутствие надзора и защиты от разоблачителей для тех, кто хочет высказаться.
«У компаний, занимающихся разработкой искусственного интеллекта, есть серьезные финансовые стимулы избегать эффективного надзора, и мы не считаем, что существующих структур корпоративного управления достаточно, чтобы изменить ситуацию», — пишут сотрудники.
OpenAI, Google, Microsoft, Meta* (запрещена на территории РФ) и другие компании возглавляют гонку вооружений генеративного ИИ — рынок, который, по прогнозам, в течение десятилетия превысит $1 трлн, — поскольку компании, казалось бы, в каждой отрасли спешат добавить чат-ботов и агентов на базе ИИ, чтобы не остаться позади конкурентов.
Сотрудники написали, что ИИ-компании обладают существенной непубличной информацией о том, на что способны их технологии, о степени принятых ими мер безопасности и об уровне риска, который технология несет для различных видов вреда.
«Мы также понимаем серьезные риски, связанные с этими технологиями, — написали они. — Компании в настоящее время имеют лишь слабые обязательства делиться частью этой информации с правительствами и никакие — с гражданским обществом. Мы не думаем, что на них можно положиться в плане добровольного обмена информацией».
В письме также подробно излагаются опасения по поводу недостаточной защиты от разоблачителей в индустрии искусственного интеллекта и говорится, что в отсутствие эффективного государственного надзора «сотрудники находятся в относительно уникальном положении для привлечения компаний к ответственности».
«Широкие соглашения о конфиденциальности не позволяют нам высказывать свои опасения, за исключением тех компаний, которые, возможно, не решают эти проблемы, — пишут подписавшиеся. — Обычные меры защиты информаторов недостаточны, поскольку они направлены на противозаконную деятельность, в то время как многие из рисков, которые нас беспокоят, еще не регулируются».
В письме содержится просьба к ИИ-компаниям взять на себя обязательства:
Письмо подписали четыре анонимных сотрудника OpenAI и семь бывших сотрудников. Среди них Рамана Кумар, ранее работавший в Google DeepMind, и Нил Нанда, который в настоящее время работает в Google DeepMind, а ранее трудился в Anthropic. Письмо также поддержали три знаменитых ученых-компьютерщика, известных своими достижениями в области искусственного интеллекта: Джеффри Хинтон, Йошуа Бенгио и Стюарт Рассел.
Представитель OpenAI сказал, что они согласны с крайней важностью строгих дебатов, учитывая значимость этой технологии, и они будут продолжать взаимодействовать с правительствами, гражданским обществом и другими сообществами по всему миру.
В компании действует анонимная горячая линия по вопросам честности и неподкупности, а также комитет по безопасности, возглавляемый членами совета директоров и руководителями OpenAI, сказал представитель компании.
В мае OpenAI отказалась от спорного решения заставить бывших сотрудников выбирать между подписанием соглашения о неразглашении информации, срок действия которого никогда не истечет, и сохранением своих долей в компании. Внутренняя записка была разослана бывшим сотрудникам и передана нынешним.
В памятке, адресованной каждому бывшему сотруднику, говорилось, что во время ухода из OpenAI «вас могли проинформировать о том, что вы должны были подписать общее соглашение об освобождении, включающее положение о неразглашении, чтобы сохранить наделенные правами единицы акционерного капитала».
«Нам невероятно жаль, что мы меняем эту формулировку только сейчас; она не отражает наши ценности или компанию, которой мы хотим быть», — сказал тогда представитель OpenAI.
Открытое письмо последовало за решением OpenAI в мае распустить свою группу, занимающуюся долгосрочными рисками ИИ, всего через год после объявления о создании группы, подтвердил источник, знакомый с ситуацией. Он добавил, что некоторые члены группы переведены в другие команды внутри компании.
Команда была расформирована после того, как ее руководители, сооснователь OpenAI Илья Суцкевер и Ян Лейке, объявили о своем уходе из стартапа. Лейке написал в посте на сайте X, что культура безопасности и процессы OpenAI отошли на второй план перед блестящими продуктами.
Генеральный директор Сэм Альтман заявил на сайте X, что ему грустно видеть уход Лейка и что компании предстоит еще много работы. Вскоре после этого соучредитель OpenAI Грег Брокман опубликовал на сайте X заявление, приписываемое Брокману и Альтману, в котором утверждалось, что компания повысила осведомленность о рисках и возможностях AGI, чтобы мир мог лучше подготовиться к ним.
«Я присоединился к компании, потому что считал OpenAI лучшим местом в мире для проведения этих исследований, — написал Лейк на сайте X. — Однако я долгое время не соглашался с руководством OpenAI по поводу основных приоритетов компании, пока мы наконец не достигли точки разрыва».
Лейке написал, что, по его мнению, гораздо больше внимания должно уделяться безопасности, мониторингу, готовности и влиянию на общество. «Эти проблемы довольно сложно решить, и я обеспокоен тем, что мы не находимся на траектории их решения, — написал он. — В последние несколько месяцев моя команда плыла против ветра. Иногда мы боролись за вычислительные ресурсы, и нам становилось все труднее и труднее проводить эти важнейшие исследования».
Лейке добавил, что OpenAI должна стать компанией AGI, ориентированной на безопасность. «Создание более умных, чем человек, машин по своей сути является опасным делом, — написал он. — OpenAI несет огромную ответственность от имени всего человечества. Но за последние годы культура безопасности и процессы отошли на второй план по сравнению с блестящими продуктами».
Громкие отставки произошли спустя несколько месяцев после того, как OpenAI пережила кризис руководства, связанный с Альтманом. В ноябре совет директоров OpenAI сместил Альтмана, сообщив в своем заявлении, что Альтман не был откровенен в общении с советом директоров.
The Wall Street Journal и другие СМИ сообщали, что Суцкевер сосредоточился на том, чтобы ИИ не причинил вреда людям, в то время как другие, включая Альтмана, наоборот, стремились продвигать новые технологии.
Отстранение Альтмана от должности вызвало отставку или угрозы отставки, включая открытое письмо, подписанное практически всеми сотрудниками OpenAI, и возмущение инвесторов, включая Microsoft.
Через неделю Альтман вернулся в компанию, а члены совета директоров, голосовавшие за отстранение Альтмана, были исключены. Суцкевер, проголосовавший за отстранение, остался в штате, но уже не в качестве члена совета директоров, а Адам Д’Анджело, который также голосовал за отстранение Альтмана, остался в совете директоров.
Ранее OpenAI сообщила о создании комитета по безопасности во главе с руководителями высшего звена после того, как в середине мая был распущен предыдущий надзорный совет. Новый комитет будет отвечать за рекомендации совету OpenAI «критически важных решений по безопасности и защите проектов и операций OpenAI», говорится в сообщении компании.