СМИ: Работа ИИ-систем небезупречна и нуждается в контроле со стороны человека
ИИ-продукты, которые нередко используют в полиции и системе образования, допускают слишком много ошибок и должны контролироваться человеком, говорится в опубликованной в четверг агентством Bloomberg статье Парми Олсон (Parmy Olson), автора книги о хакерах «Мы — Anonymous» (We Are Anonymous).
В пример приводится ПО американской компании ProctorU. Алгоритмы продукта призваны сигнализировать о нестандартном поведении учеников и нештатных ситуациях на экзамене — подозрительных жестах, шпаргалках, появлении посторонних лиц. Исследование компании показало, что представители учебных заведений перепроверили только 11% случаев, распознанных алгоритмами как подозрительные.
При этом, как показывает практика, ИИ может посчитать, что человек списывает, если тот просто смотрит в пол. Хотя на самом деле учащийся в этот момент просто задумался.
Напомним, ранее сообщалось о том, что житель США провёл за решеткой 11 месяцев по ложному обвинению в убийстве своего знакомого, единственным доказательством причастности к убийству послужили данные, полученные с помощью ИИ-системы.