Людям не стоит вводить в Gemini, семейство приложений генеративного искусственного интеллекта от Google, что-либо компрометирующее или личную информацию. С таким призывом выступила компания Google, которая описала способы сбора данных пользователей своих чат-ботов Gemini для Android и iOS.
Google сообщила, что с целью улучшения работы сервисов компании сотрудники регулярно читают, маркируют и обрабатывают разговоры в Gemini, даже если они «отвязаны» от аккаунтов Google. При этом компания не сообщает, работают ли эти сотрудники в штате или привлекаются со стороны, что может иметь значение для безопасности данных. История переписок хранится до трех лет вместе с сопутствующими данными, такими как язык и устройства пользователя, а также его местоположение.
Но теперь Google дает пользователям возможность контролировать, какие данные, относящиеся к Gemini, будут сохранены. Отключение активности приложений Gemini на панели Google «Моя активность» (по умолчанию она включена) предотвращает сохранение будущих переписок с Gemini в учетной записи Google для просмотра и хранения. Отдельные подсказки и разговоры с Gemini можно удалить с экрана активности приложения Gemini.
Но Google утверждает, что даже если активность Gemini выключена, разговоры с чат-ботом будут сохраняться в аккаунте Google в течение 72 часов, чтобы «поддерживать безопасность и надежность, а также улучшать приложения Gemini». «Пожалуйста, не указывайте в разговорах конфиденциальную информацию или любые другие данные, если не хотите, чтобы их видел наш сотрудник или чтобы Google использовала их для улучшения своих продуктов, услуг и технологий машинного обучения», — пишет Google.
При этом политика сбора и хранения данных Google не сильно отличается от политики конкурентов. OpenAI, например, сохраняет все чаты с ChatGPT в течение 30 дней независимо от того, отключена ли функция истории разговоров ChatGPT, за исключением случаев, когда пользователь подписан на корпоративный тариф.
Однако политика Google иллюстрирует проблемы, связанные с балансом между конфиденциальностью и разработкой моделей ИИ, которые используют пользовательские данные для самосовершенствования. Либеральная политика хранения данных в недавнем прошлом привела к повышенному вниманию со стороны регулирующих органов.
Прошлым летом FTC запросила у OpenAI подробную информацию о том, как компания проверяет данные, используемые для обучения своих моделей, включая данные о потребителях, и как эти данные защищены от доступа третьих лиц. Итальянское управление по защите данных заявило, что OpenAI не хватает «правовой основы» для массового сбора и хранения персональных данных с целью обучения своих моделей ИИ.
По мере распространения инструментов искусственного интеллекта все большее опасение вызывают проблемы конфиденциальности. Недавний опрос, проведенный Cisco, показал, что 63% компаний установили ограничения на то, какие данные могут вводиться в инструменты ИИ, в то время как 27% полностью запретили использование технологий искусственного интеллекта. Тот же опрос показал, что 45% сотрудников вводили конфиденциальную информацию о сотрудниках и работодателе.
OpenAI, Microsoft, Amazon, Google и другие предлагают продукты ИИ, ориентированные на предприятия, которые, очевидно, не хранят данные в течение какого-либо периода, будь то для обучения моделей или для любых других целей. В то же время потребители, как это часто бывает, не защищены от этого.
Напомним, что в декабре Google представила новую разработку на базе искусственного интеллекта — чат-бот Gemini. Его встроят во все сервисы компании. По мнению экспертов, новый проект составит конкуренцию программе генеративного ИИ ChatGPT от OpenAl.