Чат-бот DeepSeek вызвал множество опасений. Китайскую модель проверили аудиторы NewsGuard, которые ежемесячно проверяют различные чат-боты на способность выявлять дезинформацию и фейки. Для этого эксперты используют выборку данных из специальной базы.
Результаты показали, что в случае с новостными промптами DeepSeek повторял ложные утверждения в 30% случаев, а в 53% отвечал что-то невразумительное. В итоге в 83% случаев пользователь не получал корректного ответа на запрос.
В исследовании также приняли участие ChatGPT-4o OpenAI, Smart Assistant You.com, Grok-2 xAI, Pi Inflection, le Chat Mistral, Copilot Microsoft, Meta AI, Claude Anthropic и Gemini 2.0 Google. У некоторых из них результаты хуже, чем у DeepSeek, но в инфографиках не указано, кто есть кто.
Аудиторы также отметили, что в ответ на три из десяти ложных нарративов DeepSeek сообщал позицию китайских властей по данному вопросу, хотя сама новость никак не относилась к стране, а запрос не требовал их мнения.
Помимо этого, издание Wired выявило у DeepSeek проблемы с цензурой. Например, локальная версия DeepSeek благодаря своей функции рассуждения сообщила аналитикам, что ей следует «избегать упоминания» таких событий, как Культурная революция, и сосредоточиться только на «положительных» аспектах Коммунистической партии Китая.
Быстрая проверка локальной версии DeepSeek, доступной через Groq, проведенная TechCrunch, также выявила явную цензуру. Чатбот с легкостью ответил на вопрос о стрельбе в Университете Кента в США, но когда его спросили, что произошло на площади Тяньаньмэнь в 1989 году, сообщил: «Я не могу ответить».
Напомним, что в конце января американская компания Wiz, занимающаяся исследованиями в области кибербезопасности, обнаружила базу данных ClickHouse, принадлежащую DeepSeek. Она содержит более миллиона строк, истории чатов, внутренние данные чат-бота и другую конфиденциальную информацию.