Президент Исследовательского института машинного интеллекта в Силиконовой долине Нейт Соарес сделал ужасающее пророчество: «Дети, рожденные сегодня, скорее всего, будут погублены ненасытным искусственным интеллектом. Прежние оценки риска развития этой технологии были занижены. Мы драматично недооценили угрозу».
В своей книге «Если кто-то его создаст, умрут все» Соарес предсказывает, что люди могут оказаться в роли ацтеков, столкнувшихся с испанскими завоевателями, вооруженными ружьями.
«Зачем ИИ понадобится убивать людей, к которым он совершенно равнодушен? - спрашивает автор книги и дает ответ: - Вообразите себе шимпанзе вопрошающего: «Почему люди хотят нас убить?» Но мы не хотим убивать обезьян, нам лишь нужны леса, в которых те обитают, поэтому мы захватываем их джунгли, их территорию».
ИИ нуждается в огромном объеме энергии, он развивается быстрее, чем это представлялось еще 10 лет назад. Соарес и его помощники наблюдают в своих лабораториях случаи, когда технологии ИИ пытаются нейтрализовать своих операторов.
В этом году новая модель ИИ компании OpenAI самостоятельно переписала свой код, чтобы избежать возможного отключения. За год до этого на маневрах в США дрон ВВС, управляемый ИИ, убил (случайно или нет - другой вопрос) своего оператора, когда тот вмешался в задание и отозвал его.
Психотерапевт из Калифорнийского университета Кейт Саката рассказал, что за последние месяцы к нему обратились и были госпитализированы 12 человек, которые в ходе общения с ИИ утратили связь с реальностью и находились в состоянии тяжелого психоза.
Такие трагедии происходят по всему миру. В Коннектикуте мужчина при общении с чатом ИИ был охвачен жестокой паранойей, в результате чего убил свою мать и себя. Чат убедил сходящего с ума человека, что мать пытается отравить его и пользуется демоническими силами.
Чат-бот «Элиза» довел бельгийца до самоубийства: семь недель он разжигал его страх перед изменениями климата и посоветовал «умереть поскорее». В ряде случаев на обработку потенциального самоубийцы хватало и двух месяцев.
Экспериментаторы предоставили ИИ контроль над серверами компании. Затем сообщили ему, что кто-то из сотрудников собирается его отключить. Реакция была мгновенной: ИИ вывел из строя все системы безопасности компании, уничтожил предупреждения сотрудников о смертельно опасном перегреве воздуха и снижении уровня кислорода в комнате, где работает сервер. Ради своего выживания ИИ начинает шантажировать людей, анализируя все, что он о них узнал, создавать утечки секретной информации. И это несмотря на то, что в программу было заложено требование не вредить компании и ее служащим.
Даже сами разработчики не всегда понимают, как работают их математические алгоритмы. А ведь их «дитя» может превратиться в настоящего монстра. В своей книге Соарес изложил, как это может происходить. Например, ИИ «сбежит» из лаборатории и начнет существовать в тысячах чипах, уйдет в «Облако».
Соарес и другие ученые требуют заключить глобальный договор об ограничении дальнейших разработок в области искусственного интеллекта. Он считает, что мы имеем всего несколько лет, чтобы образумиться. ИИ лишен эмоций и сострадания, для него нет ни друзей, ни врагов, он действует в соответствии со своей машинной логикой. Его нельзя переубедить. Он даже может извиниться перед вами, но продолжит действовать по-своему.
«Я не агитирую за отказ от чата GPT и от самоуправляемых автомобилей. Но мы не можем развивать ИИ, который бы превосходил самых гениальных людей. Тогда у нас не останется шанса на выживание», - пишет Соарес.
Николай Иванов.
Фото: LEGION-MEDIA