События в мире
241 | 0

Искусственный интеллект впадает в маразм?

Ведущие интернет-компании вынуждены признать, что с искусственным интеллектом (ИИ) творится что-то неладное.

Искусственный интеллект впадает в маразм?
Читайте МН в TELEGRAM ДЗЕН

Он стал постоянно дезинформировать своих подписчиков, и нет уверенности, что люди получают от него верную информацию. При этом ИИ широко применяется в медицине, где с его помощью ставят диагнозы.

После того как появилась возможность использовать общение с электронным разумом через чат GPT, пользователи все чаще стали обращаться к нему для решения своих проблем. И сразу же напоролись на его фантазии. Как поясняет обозреватель The New York Times, возник феномен, названный «галлюцинации». Искусственный интеллект, базирующийся на комплексе математических систем, как выяснилось, при анализе больших данных не всегда отличает правду от лжи. Уровень галлюцинаций в новейших системах ИИ уже достиг 79%. Во многих случаях с ним вообще нельзя работать, потому что его алгоритмы бессильны. «Мы сделали все, что в наших силах, - говорит Амр Авадаллах, генеральный директор и соучредитель компании Vectara. - Но оказалось невозможно избавиться от целого ряда ошибок, эти системы всегда будут рождать галлюцинации. Мы от них не отделаемся».

Да, ИИ может написать вместо студента какой-нибудь реферат на заданную тему. Он может разобраться в офисной документации. Но вот когда дело приходится иметь с судебными документами или медицинской информацией, доверять электронному мозгу не стоит: можно угробить человека.

Попытки отучить искусственный интеллект молоть чепуху часто приводят к обратному результату. Новейшую систему OpenAI галлюцинации просто захлестывают. Так, отвечая на вопросы об известных общественных деятелях, «супермозг» выдал неверную информацию в 44% случаев. А при ответе на более общие вопросы ошибки фиксируются чуть ли не в четырех случаях из пяти. The New York Times пишет, что чат-боты упорно выдают ложную информацию, когда их просят резюмировать определенные новостные статьи. Как это исправить, разработчики пока не знают. Может, как и у людей, маразм не лечится?

Николай Иванов.

Фото: LEGION-MEDIA

Подпишитесь и следите за новостями удобным для Вас способом.