Научная фантастика изобилует ИИ, угрожающими существованию человечества. С появлением все более сложных больших языковых моделей, таких как Chat GPT, вопрос о том, какую опасность может представлять ИИ, стал еще более актуальным. Согласно новому исследованию, проведенному учеными Ириной Гуревич из Технического университета Дармштадта в Германии и Харишем Тайяром Мадабуши из Университета Бата в Великобритании, искусственный интеллект не способен выйти из-под контроля.
Модели ИИ слишком ограничены программированием, неспособны приобретать новые навыки без обучения и, следовательно, остаются под контролем человека. Это означает, что злоумышленники могут использовать их в неблаговидных целях, но развитие технологий не представляет угрозы.
«Опасения заключаются в том, что, по мере того как модели будут становиться все больше и больше, они смогут решать новые задачи, которые мы сейчас не можем предсказать. Есть мнение, что большие модели ИИ могут научиться рассуждать и планировать, — говорит Тайяр Мадабуши. — Как показывает наше исследование, страх, что искусственный интеллект сделает что-то совершенно неожиданное и потенциально опасное, не обоснован».
За последние пару лет возможноси ИИ достигли поразительных масштабов. Теперь они могут вести относительно связную беседу, причем это выглядит довольно естественно. Они не идеальны, поскольку они не являются, по сути, формой интеллекта, им не хватает навыков критического мышления, но они все равно могут убедительно передавать самую различную информацию.
Недавно было изучено, возможно ли, что так называемые эмерджентные способности, не будучи заложены в программу, могут развиться у ИИ самостоятельно. В качестве примера можно привести модель, которая не была обучена социальным ситуациям, но могла отвечать на вопросы о них.
Было замечено, что по мере расширения масштаба ИИ становятся все более мощными и могут выполнять больше задач. Но было неясно, связано ли это с возникновением поведения, с которым человек не сможет справиться. Поэтому ученые провели исследование и выяснили, действительно ли такие случаи являются эмерджентными, или программа просто действует в рамках своего кода.
Они экспериментировали с четырьмя различными моделями ИИ: ставили перед ними задачи, которые ранее были определены как эмерджентные. И они не нашли никаких доказательств развития дифференцированного мышления или того, что какая-либо из моделей способна действовать вне рамок своего программного кода. Для всех четырех моделей умение следовать инструкциям, запоминание и владение языком объясняли все проявляемые ими способности.
«Наши результаты не означают, что ИИ вообще не представляет угрозы, — говорит Гуревич. — Скорее, мы показали, что предполагаемое появление сложных мыслительных навыков, связанных с конкретными угрозами, не подкреплено доказательствами и что мы полностью контролируем процесс обучения ИИ».
Другое исследование показало, что алгоритмы машинного обучения могут анализировать эти данные и делать выводы о характере человека на основе профилей в LinkedIn, что может быть полезным для рекрутеров и организаций. Ученые провели детальный анализ профилей 406 пользователей, говорящих на немецком языке. Участники, подобранные онлайн, предоставили свои профили в LinkedIn и заполнили опросники, измеряющие уровни нарциссизма и интеллекта