Искусственный интеллект не справляется с прогнозированием преступлений

​Друзья, недавно я прочитал любопытную новость о том, как искусственный интеллект для предсказания преступлений провалился.
Искусственный интеллект не справляется с прогнозированием преступлений

Оказывается, полиция в некоторых городах США уже больше 10 лет использует специальное программное обеспечение, которое должно предсказывать, где и когда может произойти преступление. Этот искусственный интеллект анализирует данные о прошлых преступлениях и на основе сложных алгоритмов выдает полиции прогноз о вероятных местах преступлений в будущем.

Звучит как фантастика и похоже на сюжет фильма "Минорити ропорт". Но на практике эта система провалилась - предсказывает преступления крайне плохо.

Журналисты проанализировали тысячи прогнозов одной такой системы под названием Geolitica за 2018 год. И выяснили, что всего 0,5% предсказаний совпали с реальными преступлениями! Полицейские даже признали, что почти не использовали эти прогнозы на практике, потому что они бесполезны.

В итоге полиция отказалась от этого бесполезного искусственного интеллекта. А деньги лучше бы потратили на реальную профилактику преступности и работу с местным сообществом.

В общем, очередное напоминание, что искусственный интеллект - это не волшебная палочка. И применять его нужно очень осторожно, особенно в такой важной сфере как правопорядок. А вы как считаете, друзья? Может ли искусственный интеллект когда-нибудь научиться точно предсказывать преступления?

11:12
166
Нет комментариев. Ваш будет первым!
Посещая этот сайт, вы соглашаетесь с тем, что мы используем файлы cookie.