Сэм Альтман открыл новые горизонты GPT-6: память, кастомизация и вызовы конфиденциальности

Руководитель OpenAI поделился перспективами создания следующей крупной модели, признал наличие трудностей при запуске GPT-5 и обсудил темы конфиденциальности и эволюции искусственного интеллекта, вплоть до нейроинтерфейсов.

Несколько недель назад OpenAI представила долгожданную модель GPT-5, а глава компании Сэм Альтман уже обсуждает предстоящие шаги. В недавнем интервью с журналистами в Сан-Франциско он охарактеризовал будущее GPT-6, откровенно высказался о недостатках нынешней версии и поделился своим видением по созданию по-настоящему персонализированного ИИ.

Хотя точная дата выхода GPT-6 еще не известна, Альтман ясно дал понять, что ожидания будут значительно короче, чем те, что были между GPT-4 и GPT-5. Новая модель обещает отличия от предшествующей.

Ключевым аспектом GPT-6 станет память. Альтман заявил, что это важная функция, которая превратит ChatGPT в индивидуального помощника, способного запоминать ваши предпочтения, привычки и даже особенности, адаптируясь к вам в реальном времени.

«Людям нужна память, — отметил Альтман. — Они ожидают функционала, который подразумевает понимание их личных характеристик».

Он также добавил, что OpenAI активно сотрудничает с психологами для разработки продукта, исследуя ответы людей во время взаимодействия с ИИ и оценивая их эмоциональное состояние. Эти данные не раскрываются на данный момент, но Альтман не исключил возможности их публикации в будущем.

Другим важным направлением станет глубочайшая кастомизация. Альтман стремится к тому, чтобы пользователи могли сами настраивать характер и стиль общения своего ChatGPT.

«Я полагаю, что наш продукт должен по умолчанию оставаться нейтральным, но у пользователей должна быть возможность существенно изменять его настройки, — объяснил он. — Если вы скажете: „Я хочу, чтобы ты был очень прогрессивным“, — он должен этому соответствовать».

То же самое, по его словам, должно касаться и обратного процесса: если пользователь захочет, чтобы модель придерживалась консервативных взглядов, она должна это сделать. (Хотя, конечно, следует остерегаться любых крайне правых и экстремистских позиций.)

Альтман открыто признал, что запуск GPT-5 оказался проблематичным. Многие пользователи в социальных сетях сообщали, что новая модель стала «менее отзывчивой», и менее полезной, чем её предшественница.

«Мне новая версия нравится намного больше», — признался он, но сразу добавил, что действительно были ошибки при её запуске. С его слов, OpenAI в тихую выпустила обновление, которое сделало GPT-5 «гораздо более теплой».

Не обошли вниманием и серьезную тему — конфиденциальность. Альтман назвал память своей любимой функцией текущего года, но признал наличие определенных проблем с безопасностью. В частности, временная память пока не защищена шифрованием, что создает риски утечки личной информации.

Отвечая на вопрос о внедрении шифрования, он заметил, что это «возможно», но не стал указывать сроки. Особенно актуально, по его мнению, стоит вопрос защиты медицинских и юридических данных, которые должны получать такой же уровень безопасности, что и при контакте с живым специалистом.

Заглядывая в еще более отдаленное будущее, Альтман выделил нейроинтерфейсы как «захватывающую идею». Он представил себе возможность «просто подумать о чем-то, и ChatGPT даст ответ». Он считает это одной из областей, куда OpenAI стоит инвестировать, наряду с энергетикой, робототехникой и новыми подходами к строительству дата-центров.

Однако, размышляя о настоящем, Альтман сделал довольно неожиданный и даже мрачный прогноз:

«Модели уже на протяжении времени охватили использование в формате чата. Они не станут значительно лучше… А, возможно, и ухудшатся».

Это высказывание намекает на то, что текстовый чат может достигнуть своего предела, и дальнейшее развитие будет связано с новыми формами взаимодействия — упомянутой памятью, персонализацией и, возможно, интеграцией с другими технологиями. (Предполагается, что ИИ продолжит эволюцию, но новшества будут связаны не только с текстом, который уже исчерпал свои возможности.)

Что вы думаете по этому поводу, сообщество Хабра? Готовы ли мы к ИИ, который будет помнить обо всех наших предпочтениях всё? Какие риски, помимо явных вопросов конфиденциальности, могут возникнуть? Достигли ли текстовые чат-боты своего предела? Делитесь своими мыслями в комментариях.