Новости

Сэм Альтман рассказал о своем видении будущего ИИ: он его не опасается и считает требования к нему преувеличенными

На Всемирном экономическом форуме в Давосе Сэм Альтман, чья компания OpenAI стоит за ChatGPT, рассказал о будущем ИИ, а также о своем увольнении с поста генерального директора. Это событие бурно обсуждалось в конце 2023 года, когда Альтман был неожиданно уволен, но вскоре вернулся в компанию в той же должности.

ИИ стал одной из главных тем, обсуждавшихся на ВЭФ. В то время как одни опасаются, что человечество уже не будет прежним, другие разочарованы его неспособностью управлять автомобилем. CEO OpenAI рассказал о том, на каком этапе развития находится ИИ, о его возможностях и ограничениях этой технологии.

Альтман указал на то, что этот инструмент, имея на сегодняшний день очень ограниченные возможности и серьезные недостатки, способен повысить эффективность широкого круга процессов в самых разных сферах деятельности. Однако существуют и ограничения, о которых, по его мнению, следует помнить. «ИИ может серьезно ошибаться. Поэтому, возможно, ему не стоит управлять автомобилем, однако он незаменим при написании статей или программного кода», — сказал он.

Альтман добавил, что люди склонны прощать ошибки других людей, но они крайне требовательны к тому, что делают машины. Поэтому, чтобы сказать, что ИИ успешно справляется с управлением автомобиля, он должен быть в 10, а то и в 100 раз безопаснее. И то же касается других систем на базе ИИ, считает глава OpenAI.

Еще одним поводом для опасений является то, что на данном этапе мы не можем точно сказать, как ИИ приходит к тому или иному результату. Именно это не позволяет доверить технологии что-то более серьезное, чем заполнение медицинских форм или написание эссе.

«Я не могу заглянуть в человеческий мозг и, глядя на сотни триллионов синапсов, понять, как он работает. Но я могу попросить человека объяснить почему он совершил то или иное действие или почему он думает так, а не иначе. Узнав ход его мысли, можно понять, насколько эти размышления логичны, — сказал Альтман. — Точно так же ИИ в будущем сможет объяснить, как он пришел к тому или иному выводу, используя естественный язык. И тогда мы сможем оценить его логику».

Многие полагают, что ИИ сможет заменить людей практически во всем. И если раньше считалось, что машина не способна на эмпатию, сегодня мы знаем, что это не так. В свое время шахматы стали одной из первых жертв ИИ. Когда Deep Blue смог обыграть Каспарова, многие назвали это концом эпохи шахмат и говорили, что никто больше не будет следить за шахматными партиями. Но на сегодняшний день эта игра популярна как никогда. При этом никто не станет смотреть как два ИИ играют в шахматы.

«Людям интересно то, что делают другие люди, мы очень сосредоточены друг на друге. Поэтому я считаю, что человечество продолжит делать все то, что делает, но при этом будет использовать более мощные инструменты», — предположил Альтман.

Бурное развитие ИИ стало причиной опасений, что вскоре он заменит нас практически во всем, если возможности этого инструмента во многом превосходят человеческие. Но глава Open AI не думает, что в ближайшем будущем стоит опасаться подобного развития событий.

Он считает, что человечество не останется без работы, скорее, изменится ее суть. «Моя работа заключается в том, чтобы решать, что делать, и руководить людьми, чтобы претворить эти планы в жизнь. Я думаю, в будущем каждый из нас будет делать примерно то же самое, — сказал он. — Мы будем действовать более абстрагированно».

Такие представители индустрии, как Илон Маск и Билл Гейтс, крайне озабочены тем, что ИИ может оказаться грозным оружием. «Действительно, это очень мощная технология и мы не можем с уверенностью предсказать, что произойдет в будущем, — сказал Альтман. — То направление, в котором работает наша компания, по нашему мнению, не представляет опасности. Мы предоставили технологию широкому кругу пользователей, чтобы дать возможность обсудить ее, выяснить, какие законодательные и другие барьеры понадобятся для контроля над ней».

«Большой вопрос заключается в том, какие ценности лежат в основе ИИ, какие запросы он должен отклонять и как его работа должна меняться в зависимости от того, в какой стране находится пользователь. Мы видим, что эта технология может улучшить нашу жизнь, и все вместе должны подумать, как сделать ее безопасной. Ведь то, что возможно в одних странах, совершенно неприемлемо в других. Поэтому мне импонирует позиция людей, озабоченных вопросами безопасности. Такая озабоченность есть и у нас», — добавил он.

Что касается громкого увольнения из OpenAI и того, какой урок Альтман извлек из этого события, он сказал: «Чем ближе мы подходим к созданию по-настоящему мощного ИИ, тем большее давление мы испытываем. Но так и должно быть. Ставки очень высоки. И чем дальше, тем больше весь мир должен думать, каковы могут быть последствия и что может пойти не так. Это очень важно. Но главное, та ситуация показала, насколько у меня сильная команда. Люди, которых я нанял и обучил, смогут справиться без меня. Это очень приятное чувство».

Ранее в OpenAI заявили, что GPT-4 обеспечивает «в лучшем случае небольшое повышение» возможностей создания биологического оружия. Но компания предупредила, что будущие модели могут быть более опасными. Их знания способны помочь злоумышленникам создать биологическое и химическое оружие, а также спланировать атаку.