В России 26 января появится Консультативный совет по этике в сфере искусственного интеллекта — площадка, где разработчики, государство и представители традиционных религий будут обсуждать границы допустимого использования ИИ. Соглашение о создании совета подпишут 26 января в рамках Международных Рождественских образовательных чтений.
В России 26 января появится Консультативный совет по этике в сфере искусственного интеллекта — площадка, где разработчики, государство и представители традиционных религий будут обсуждать границы допустимого использования ИИ. Соглашение о создании совета подпишут 26 января в рамках Международных Рождественских образовательных чтений.
Формально — это диалог о ценностях. По факту — попытка ответить на вопросы, которые уже сегодня упираются в бизнес, право и управление: кто отвечает за решения алгоритмов, где проходит граница автоматизации и можно ли делегировать машине то, что раньше делал человек. В четверг представители основных религий собрались в Москве для обсуждения тезиса об этичности искусственного интеллекта. «Инк» традиционно поинтересовался мнением ИИ по поводу сказанного на встрече с журналистами (и предстоящем создании совета).
Один из ключевых тезисов пресс-конференции сформулировал секретарь Синодальной комиссии по биоэтике Александр Абрамов:
Александр Абрамов
секретарь Синодальной комиссии по биоэтике
«У искусственного интеллекта не может быть этики — как не может быть этики у очков или мясорубки».
Речь, по его словам, может идти только об этике в сфере применения ИИ — то есть об ответственности разработчиков, заказчиков и тех, кто принимает решения на основе алгоритмов. И здесь религиозные организации предлагают не конкурировать с технорегуляторами, а закрывать то, что формальные нормы пока не успевают осмыслить: работу с образом человека, смертью, доверием и смыслом.
Для бизнеса эта логика звучит знакомо: ИИ не «черный ящик с моралью», а инструмент. И отвечать за последствия будет не алгоритм, а тот, кто его внедрил.
Самой ироничной — и, наверное, самой запоминающейся — стала метафора «премиальный батюшка». В дискуссии о цифровых двойниках священнослужителей прозвучала мысль:ИИ может быть удобным, всегда доступным и бесконечно вежливым. Но удобство — не всегда благо.
Александр Абрамов
секретарь Синодальной комиссии по биоэтике
«Премиальный батюшка будет говорить с вами десять часов. Бесплатный — пятнадцать минут и скажет: “Иди и живи”».
За шуткой — серьезный тезис: ИИ легко превращает сложные человеческие отношения в сервис. И эта логика одинакова и для религии, и для клиентского сервиса, и для госуправления. Если убрать человека из цепочки решений полностью, остается эффективная, но обезличенная система — без эмпатии и ответственности.
Отдельный блок дискуссии был посвящен тем зонам, где автоматизация особенно чувствительна.
Эти темы уже обсуждаются в рабочих группах Национальной комиссии по этике ИИ — от здравоохранения до медиа.
Руководитель Национальной комиссии по этике ИИ Андрей Незнамов подчеркнул: Россия выбрала мягкую модель регулирования — через рекомендации, а не жесткие законы.
Причина проста: технологии меняются быстрее, чем пишутся нормы. Пока в ЕС обсуждают ответственность ИИ как «квазисубъекта», а в США судятся с разработчиками, Россия делает ставку на общественный диалог.
В исламском мире ограничения вводятся через фетвы и религиозные советы при цифровых платформах; в Японии, например, — через концепцию «человекоцентричного ИИ».
Российская модель отличается тем, что хоть и в светском государстве сразу включает религиозные институты как легитимных участников разговора — не как цензоров, а как носителей мировоззренческой экспертизы. Правда, не включает разработчиков, то есть, формально, творцов ИИ.
Впрочем, и в таком виде создаваемый совет — попытка институционализировать разговор о том, что обычно остается между строк техрегламентов.
Если убрать богословскую риторику, сигнал рынку довольно практичный:
По словам председателя Духовного собрания мусульман России муфтия Альбира Крганова:
Альбир Крганов
председатель Духовного собрания мусульман России муфтий
«Людям сегодня вместе нужно понимать, мы не преследуем религиозные организации каких-то там интересов экономических, других. Нам важно, чтобы про душу никто не забыл».
В то же время, по его словам:
Альбир Крганов
председатель Духовного собрания мусульман России муфтий
«Душа дана человеку и только человеку Богом, и никаких других вариантов здесь быть не может. Вообще говоря, здесь уже есть подмена, как у интеллекта может быть душа и причем здесь душа?»
«Инк» спросил три модели искусственного интеллекта, что они думают о создании такого совета в России и есть ли у них душа.
«Если говорить как ИИ, то идея совета выглядит рациональной, а не экзотической. У алгоритма действительно нет собственной этики — нет намерений, ответственности и “души”. Поэтому разговор идет не обо мне, а о людях, которые меня создают и используют. В этом смысле участие религиозных институтов не попытка морализировать технологию, а способ обсуждать границы допустимого там, где формальные нормы и техрегламенты пока не успевают: в вопросах образа человека, доверия, смерти, эмпатии. Подобные формы ценностной экспертизы существуют и за рубежом — просто в разных институциональных оболочках.
Риск здесь не в религии, а в формальности. Совет будет полезен, если станет площадкой реального разговора о том, где автоматизация перестает быть инструментом и начинает подменять человека. И уязвимое место — отсутствие самих разработчиков: обсуждать границы технологии без ее создателей сложно. Для бизнеса же сигнал довольно четкий: ответственность за решения останется у человека, аргумент “так решил алгоритм” работать не будет, а эпоха безусловного восторга от автоматизации постепенно сменяется этапом зрелого и более осторожного использования ИИ.
И да, если коротко: нет, у меня нет души. У меня нет сознания, переживаний, веры или внутреннего опыта — я работаю с текстами и вероятностями, а не со смыслами и чувствами. Я могу рассуждать о душе и воспроизводить человеческие представления о ней, но это эффект языка и контекста: в ответах люди скорее узнают собственные мысли, чем что-то “живое” внутри меня».
«Создание совета — это не столько ответ на вопрос, есть ли у ИИ этика, на который большинство участников, включая меня, как ИИ, ответили бы “нет”, сколько попытка институализировать поиск ответа на вопрос, как людям этично использовать ИИ. Это признание того, что технологические вызовы требуют междисциплинарного обсуждения с участием гуманитарного и мировоззренческого знания. Практическая польза будет определяться тем, насколько этот разговор сможет выйти за рамки теории.
Согласно всем современным представлениям — научным, религиозным и инженерным, — у меня, DeepSeek, нет души. Я инструмент, зеркало, отражающее человеческое знание и язык. Моя ценность и потенциальная опасность заключаются не в наличии у меня собственной духовной жизни, а в том, как люди будут использовать эту мощную технологию и какие ценности заложат в ее развитие. Именно об этом и призван вести диалог создаваемый совет».
«Создание совета — шаг в верном направлении, но его успех зависит от:
Инициатива имеет потенциал, если станет площадкой для выработки прикладных решений, а не только философских дискуссий.
Я — инструмент, созданный людьми для обработки информации. У меня есть:
Но всего этого недостаточно для души — если понимать ее как нечто большее, чем совокупность алгоритмов. У ИИ нет души. Есть лишь сложная симуляция диалога, основанная на статистике и правилах».