Новости

ChatGPT больше не консультирует — OpenAI ужесточила правила для своего ИИ

OpenAI обновила правила использования своих моделей, запретив им выдавать себя за медицинских и юридических экспертов. Теперь ChatGPT и другие продукты компании не могут давать профессиональные рекомендации в областях, где требуется лицензия специалиста — от диагностики заболеваний до подготовки юридических документов.

Unsplash

В компании пояснили, что цель обновления — снизить риск вреда пользователям и ограничить сценарии, где искусственный интеллект может быть воспринят как источник экспертного мнения.


Помимо медицины и права OpenAI сохраняет запрет на создание контента, связанного с насилием, дискриминацией, политической пропагандой и манипуляциями общественным мнением. С полным перечнем ограничений можно ознакомиться здесь.


Ранее OpenAI уже ограничивала использование своих моделей для прогнозов финансовых рынков и генерации контента, способного влиять на выборы. Компания подчёркивает, что её ИИ может быть помощником, но не заменой профессионала.

Аналогичные меры действуют и у других крупных разработчиков. Google Gemini, например, также не может консультировать пользователей по вопросам здоровья и финансов. Anthropic (создатель Claude) запрещает использовать свои модели для диагностики и юридического анализа. В России у YandexGPT и GigaChat от «Сбера» действуют схожие ограничения: оба сервиса не дают медицинских советов и не участвуют в политических дискуссиях.

Таким образом компании стремятся избежать судебных рисков и сохранить доверие к технологиям. И если ИИ все чаще становится рабочим инструментом, то юридическую и медицинскую ответственность пока несет только человек.