OpenAI меняет подход к AGI: от внезапных прорывов к постепенным улучшениям

OpenAI, разработчик ChatGPT и многих других коммерческих AI-приложений, давно нацелена на создание AGI, который «поможет всему человечеству». Однако сейчас компания значительно пересматривает свои представления о том, как может возникнуть эта кардинально новая технология. В недавнем блоге OpenAI сообщила, что больше не считает появление общего искусственного интеллекта возможным как внезапный и резкий прорыв, когда системы АИ вдруг достигнут возможностей свыше человеческих. Вместо этого организация рассматривает эволюционное развитие AGI как последовательный процесс, сопровождающийся устойчивыми улучшениями.

Изменение взгляда OpenAI на AGI способствовало переходу к более практическому подходу к вопросам безопасности. Вместо того чтобы строить теоретические сценарии, компания собирается учиться на реальном опыте использования существующих AI-систем, что хорошо перекликалось с их коммерческой стратегией.

OpenAI нацелена на создание мер безопасности, которые будут адаптироваться к росту возможностей AI. Совсем недавно они представили новую систему безопасности, способную масштабироваться по мере увеличения мощностей AI, которая сможет поддерживать безопасность даже на уровне AGI.

Компания подчеркивает, что контроль со стороны человека остается критически важным. Они убеждены, что общество должно участвовать в определении того, как работают системы AI и какие ценности они должны отражать. Таким образом, OpenAI разрабатывает инструменты, позволяющие людям эффективно взаимодействовать с AI-системами и сохранять над ними контроль, даже когда AI может обойти людей в определённых областях.

Теперь OpenAI по-другому оценивает некоторые из своих прежних решений в области безопасности. В качестве примера организация указывает на решение 2019 года не предоставлять GPT-2 в открытый доступ, считая это проявлением «чрезмерной осторожности», основанной на представлении AGI как внезапного прорыва. Тогда компания выпустила только ограниченную версию модели из-за опасений по поводу потенциального злоупотребления большими языковыми моделями для создания обманчивого, предвзятого или оскорбительного контента.

Тем не менее, Майлз Брандейдж, ранее возглавлявший отдел политических исследований в OpenAI, оспаривает новую интерпретацию решения компании о задержке выпуска GPT-2. Он утверждает, что постепенный подход к выпуску GPT-2 уже соответствовал философии итеративного развития, и многие специалисты в области безопасности поддержали бы такую осторожность, учитывая информацию, доступную на тот момент.

Недавние сообщения The Information свидетельствуют о том, что договор OpenAI с Microsoft включает довольно практическое определение AGI: система, способная превосходить людей в большинстве экономически значимых задач и генерировать не менее 100 миллиардов долларов прибыли.

Это согласуется как с пересмотренным взглядом OpenAI на AGI как на поступательный процесс, так и с критикой генерального директора Microsoft Сатьи Наделлы «абсурдных манипуляций с бенчмарками» в стремлении к самопровозглашенным достижениям AGI, а также с призывом самого Альтмана к его последователям на X «пожалуйста, успокойтесь и снизьте свои ожидания в 100 раз» относительно предполагаемого скорого появления AGI.

Источник