Генеральный директор Anthropic Дарио Амодеи, стоящий во главе стартапа стоимостью $61 млрд, продолжает балансировать между стремительным развитием искусственного интеллекта и принципами безопасности. В феврале 2024 года его команда столкнулась с серьезной дилеммой — их новая модель Claude 3.7 Sonnet потенциально могла помогать в создании биологического оружия. Это открытие заставило компанию, уже готовившуюся к релизу, нажать на тормоза и провести дополнительные проверки.
Anthropic разработала уникальную систему уровней безопасности ИИ (ASL), вдохновленную стандартами биобезопасности. После тщательного тестирования модель Claude 3.7 была отнесена к уровню ASL-2, что означает ее ограниченную опасность — она может давать информацию о создании биологического оружия, но не более детальную, чем обычная поисковая система. Однако компания уже готовится к переходу на уровень ASL-3, когда ИИ сможет реально помогать в создании опасных технологий, и укрепляет свои защитные механизмы.
Дарио Амодеи, выросший в рабочей семье в Сан-Франциско, начинал свою карьеру как нейробиолог, изучая нервные структуры саламандр. Его путь в ИИ начался после прочтения книги Рэя Курцвейла «Сингулярность близка», предсказывающей слияние человека и машины к 2045 году. Амодеи убежден, что ИИ кардинально изменит мир уже к 2030 году, принеся как прорывы в лечении болезней, так и угрозу массовой безработицы.
Основанная в 2020 году бывшими сотрудниками OpenAI, компания Anthropic сознательно выбрала путь «ответственного ИИ». В отличие от многих конкурентов, она зарегистрирована как public benefit corporation — компания, сочетающая прибыльность с социальной миссией. Anthropic инвестирует значительные ресурсы в исследования безопасности, включая изучение механизмов принятия решений алгоритмами и этику взаимодействия с потенциально сознательным ИИ.
Несмотря на акцент на безопасности, Anthropic демонстрирует впечатляющие коммерческие результаты. Годовая выручка компании достигла $2 млрд, удвоившись за четыре месяца. Крупные контракты, например с страховым гигантом AIG, подтверждают востребованность ее технологий. Однако Амодеи признает, что рыночное давление делает все более сложным соблюдение принципов безопасности в условиях жесткой конкуренции.
Anthropic ожидает, что ее ИИ вскоре сможет автоматизировать большинство задач программирования — уже сейчас 37% запросов к Claude связаны с написанием кода. Следующим этапом станет способность ИИ самостоятельно улучшать свои версии (уровень ASL-5). Амодеи открыто говорит о социальных последствиях этих технологий, прогнозируя, что нейросети могут оставить без работы миллионы людей, создав необходимость в безусловном базовом доходе.
«Мы должны бороться за благоприятный исход, — подчеркивает Амодеи. — Эксплуататорские или дистопические сценарии вполне возможны, и их нужно предотвращать». В этом балансе между стремительным технологическим прогрессом и социальной ответственностью Anthropic видит свою уникальную миссию в мире искусственного интеллекта.