Microsoft и OpenAI объявили о создании фонда в размере $2 млн для борьбы с растущими рисками использования ИИ и дипфейков для «обмана избирателей и подрыва демократии». «Фонд социальной устойчивости» призван повысить осведомленность уязвимых сообществ об искусственном интеллекте и его воздействии, сообщает TechCrunch.
В этом году 2 млрд человек придут на избирательные участки на выборах в 50 странах, поэтому есть опасения, что ИИ окажет влияние на избирателей, особенно в «уязвимых сообществах», которые могут быть более восприимчивы к тому, чтобы принимать увиденное за чистую монету.
Развитие генеративного ИИ, в том числе таких популярных чат-ботов, как ChatGPT, привело к появлению новой серьезной угрозы, связанной с создаваемыми ИИ «глубокими подделками», предназначенными для распространения дезинформации. Эти инструменты доступны и позволяют любому желающему создавать поддельные видео, фотографии или аудиозаписи высокопоставленных политических деятелей.
Избирательная комиссия Индии призвала политические партии избегать использования дипфейков и подобной дезинформации в своих онлайн-кампаниях в преддверии выборов. Именно на этом фоне крупнейшие технологические компании, включая Microsoft и OpenAI, подписали добровольные обязательства по противодействию подобным рискам, а также заявили о планах по созданию общей структуры для борьбы с фальшивками, созданными специально для введения избирателей в заблуждение.
Компании, занимающиеся разработкой ИИ, также начали бороться с этими рисками, вводя ограничения в свое программное обеспечение. Например, Google заявила, что не позволит своему чат-боту Gemini отвечать на вопросы о выборах, а материнская компания Facebook Meta* (запрещена и признана в РФ экстремистской) также ограничивает ответы на вопросы, связанные с выборами, через своего ИИ-чатбота.
OpenAI запустила новый детектор дипфейков для исследователей дезинформации, призванный помочь выявить фальшивый контент, созданный ее собственным генератором изображений DALL-E, а также присоединилась к руководящему комитету отраслевого органа Коалиции по проверке достоверности и аутентичности контента (C2PA), членами которой уже являются Adobe, Microsoft, Google и Intel.
Новый «фонд социальной устойчивости» является частью более широкой программы «ответственного» ИИ. Microsoft и OpenAI теперь стремятся «развивать образование и грамотность в области ИИ среди избирателей и уязвимых сообществ», говорится в блоге компаний.
Это предполагает выдачу грантов нескольким организациям:
По словам представителей Microsoft, эти гранты призваны обеспечить лучшее понимание ИИ и его возможностей в обществе. Например, OATS, по всей видимости, использует свой грант для проведения обучающих программ, предназначенных для людей в возрасте 50 лет и старше в США и охватывающих «основополагающие аспекты ИИ».
«Запуск Фонда социальной устойчивости — это лишь один из шагов, который отражает стремление Microsoft и OpenAI решить проблемы и удовлетворить потребности в сфере грамотности и образования в области ИИ, — заявила Тереза Хатсон, вице-президент Microsoft по технологиям и корпоративной ответственности, в своем блоге. — Microsoft и OpenAI будут и дальше преданы этой работе, и мы продолжим сотрудничать с организациями и инициативами, которые разделяют наши цели и ценности».
Ранее компания Microsoft заявила, что в течение двух лет инвестирует $2,9 млрд в расширение своей облачной инфраструктуры и инфраструктуры искусственного интеллекта в Японии, что стало последним событием в серии зарубежных экспансий крупных технологических компаний, направленных на поддержку развития ИИ.