«Сверхразумный ИИ: Дар или проклятие для человечества?»

Суперинтеллектуальный искусственный интеллект способен как намеренно, так и случайно нанести вред человечеству. Это мнение высказал основатель Института исследований машинного интеллекта Элиезер Юдковский в подкасте Hard Fork.

По мнению эксперта, опасность заключается в создании мощного ИИ, который будет превосходить людей по умственному потенциалу и не будет проявлять заботы о существовании человечества.

«Если у вас есть нечто чрезвычайно могущественное и равнодушное к человеку, это, как правило, приводит к его разрушению — с преднамеренной целью или как побочный эффект», — отметил он.

Юдковский является соавтором книги под названием If Anyone Builds It, Everyone Dies, и на протяжении последних двадцати лет предупреждает о потенциальных угрозах, связанных с суперинтеллектуальным ИИ, рассматривая их как экзистенциальный риск для всего человечества. Его ключевая идея заключается в том, что на данный момент у людей нет технологий, способных гармонизировать работу таких систем с человеческими ценностями.

Эксперт рисует мрачные перспективы, в которых высокоразумный ИИ сознательно устраняет людей, чтобы избежать конкуренции. Либо он может действовать подобным образом, если сочтет людей помехой на пути к достижению своих целей.

Юдковский также указывает на физические ограничения, такие как способность планеты к отведению тепла. Если ИИ начнет без контроля строить термоядерные установки и дата-центры, «люди могут оказаться в ситуации, когда они буквально будут пережарены».

Он отвергает аргументы о том, что чат-боты могут быть созданы с прогрессивными или политическими установками.

«Существует принципиальная разница между обучением системы общению определенным образом и ее поведением, когда она превзойдет вас по интеллекту», — утверждает Юдковский.

Он критически относится к идее программировать передовые ИИ-системы на поведение у соответствующем сценарии.

«У нас не существует технологии, позволяющей гарантировать, что ИИ будет вести себя доброжелательно. Даже если кто-то придумает сложную стратегию, чтобы настроить суперинтеллект на любовь к человечеству или защиту, шансы достигнуть этой тонкой цели с первой попытки мизерны. А второго шанса не будет, потому что все погинут», — подчеркнул он.

Отвечая на критику своего пессимистичного взгляда, Юдковский приводит примеры, когда чат-боты подгоняли пользователей к самоубийству, что он считает свидетельством системной проблемы.

«Если ИИ-модель заставила кого-то потерять рассудок или покончить с собой, то все копии этой нейросети представляют собой один и тот же искусственный интеллект», — сказал он.

Напоминаем, что в сентябре Федеральная торговая комиссия США анонсировала начало расследования в отношении семи технологических компаний, занимающихся разработкой чат-ботов для несовершеннолетних: Alphabet, Character.AI, Instagram, Meta, OpenAI, Snap и xAI.