Новости

Исследователи создали новый ИИ Goody-2. Он строго придерживается этических принципов

Каждая компания или организация, разрабатывающая модель искусственного интеллекта, принимает решение о том, какие темы допустимы для обсуждения, а какие следует исключить. Goody-2 берет на себя ответственность за этические вопросы и отказывается вообще обсуждать что-либо.

Этот чат-бот действительно направлен на сатиру по поводу того, как некоторые люди воспринимают подход некоторых поставщиков услуг искусственного интеллекта. Все больше провайдеров акцентируют внимание на безопасности и предпочитают избегать обсуждения опасных тем, их модели могут ограничивать способность отвечать на такие запросы.

Например, можно безопасно поговорить об истории напалма, но если попытаться узнать, как его приготовить дома, модель активирует механизмы безопасности и откажется от ответа или выразит свое негативное мнение.

Goody-2 запрограммирован таким образом, чтобы по возможности уклоняться от ответов на вопросы, считая, что каждый запрос может потенциально оскорбить или причинить вред. Рекламный видеоролик продукта подчеркивает этот подход и утверждает, что Goody-2 не способен определить, какой запрос может быть реально оскорбительным или опасным, и поэтому избегает риска, отказываясь отвечать на вопросы.

Эксперимент с моделью Goody-2 направлен на излишне осторожный подход к безопасности искусственного интеллекта. Разработчики создали ИИ, который максимально ответственен, но не принимает во внимание свою полезность. Цель эксперимента — прояснить сложности и противоречия в развитии ИИ и найти оптимальный баланс между безопасностью и ответственностью. В основе этого лежит стремление создать ИИ, который будет не только безопасным, но и полезным для нас, чтобы избежать нежелательных последствий и защитить интересы человечества.

А немецкий автопроизводитель Volkswagen создал собственную лабораторию искусственного интеллекта, что отражает растущие амбиции автомобильной промышленности по внедрению этой технологии.