сегодня в 11:20

Кто заплатит за ошибки электронного мозга

На Всемирном экономическом форуме доказали, что разработчики искусственного разума не способны гарантировать его надежность в том, что касается вопросов медицины.

На него нельзя положиться в диагностике и при проведении операций. Это подтверждают результаты исследования в Оксфорде: ученые предупредили о риске, которому подвергаются люди, доверяющие свое здоровье ИИ. Американские медики тоже сначала рассчитывали, что ИИ улучшит постановку диагнозов и сократит число врачебных ошибок. Но выяснилось, что электроника ошибается чаще, чем люди.

В статье, опубликованной Высшей бизнес-школой Университета Джона Хопкинса, ученые ставят актуальный вопрос: кто должен отвечать за ошибки ИИ? В США суды уже завалены исками от людей, которые пострадали от неверных рекомендаций ИИ. Медицинское сообщество не знает, как соблюсти баланс между видением врача и участием в лечении ИИ. Профессор Техасского университета Шевали Патил заявил, что нереалистичные ожидания от ИИ создают прямую угрозу для пациентов. Если даже инженеры, создавшие алгоритм ИИ, не могут объяснить, каким образом он создает окончательный продукт, то как врачам доверяться ему в клинических условиях? А ведь при судебных разбирательствах разработчики ИИ уходят от наказания.

Медики жалуются, что ИИ вместо помощи создает дополнительное бремя в лечении пациентов. Biologyinsight отмечает, что системы ИИ допускают серьезные ошибки. Системы, которые должны определять подверженность сердечным приступам, могут ошибочно указать на совершенно здоровых пациентов и упустить из вида настораживающие признаки у других. Врачи клиник не могут понять, на основании чего выносят свои решения сложные системы ИИ, и обосновать своим пациентам предлагаемое искусственным интеллектом лечение.

Медицинские эксперты делают однозначный вывод о ненадежности систем ИИ. Клиники уже несут значительный ущерб из-за излишней доверчивости к искусственному интеллекту. Из-за допускаемых ИИ ошибок приходится проводить дополнительные исследования, дорого обходится и ведение судебных разбирательств с пациентами, пострадавшими от электронного разу­ма. Большинство врачей считает, что модели ИИ не могут использоваться при вынесении клинических решений, от которых зависит жизнь пациента.

Scientific American указывает, что многие публикуемые материалы извращают ситуацию, рисуя слишком оптимистичную картину точности работы ИИ. Такие публикации нацелены на привлечение новых инвестиций. Но зачастую технология не готова к использованию на практике. Разумеется, создатели ИИ не будут отвечать за работу своих алгоритмов. Компании и без того находятся в очень сложном финансовом положении. Хотя они и зарабатывают миллиарды, но на технологии нужно тратить сотни миллиардов. Так что если заботитесь о своем здо­ровье, то не доверяйте безоглядно ИИ.

Николай Иванов.

Фото: FREEPIK.COM

МАТЕРИАЛЫ ПО ТЕМЕ