antony_w (antony_w) wrote,
antony_w
antony_w

«Даже несовершенные алгоритмы улучшают судебную систему»



Предвзятость ИИ-судей стала одним из самых обсуждаемых вопросов в 2017 году. Но, как показывают исследования, иногда искусственный интеллект оказывается более рассудительным и справедливым, чем человек. New York Times объясняет, почему судебная система выигрывает от применения ИИ.

Стоит ли отпускать подсудимого под залог или можно обойтись без залога — такой выбор регулярно приходится делать американским судьям. Обычно решение выносится стремительно, а на его обдумывание не остается времени. Судьям приходится полагаться на интуицию и личные предпочтения. В результате чаще всего подсудимых отпускают под залог.

Чтобы сделать решения более взвешенными, некоторые суды в США начали использовать алгоритмы. Программы просчитывают все возможные риски и определяют, можно ли отпустить подозреваемого до суда и на каких условиях это лучше сделать. Эксперимент в штате Вирджиния показал, что ИИ в два раза чаще отпускал подсудимых. Но при этом количество преступлений, совершаемых подозреваемыми в ожидании суда, не увеличилось.

Аналогичный эксперимент провели в Нью-Джерси. В результате количество заключенных, ожидающих суда, сократилось на 16%. На уровне преступности это никак не сказалось.

Успешные опыты работы с алгоритмами проводились и ранее. Еще в 2008 году в Филадельфии компьютерная программа помогала решать, каких преступников стоит выпускать условно-досрочно. В итоге полиция тратила меньше времени на контроль за освобожденными с низкой степенью риска, а уровень преступности при этом не вырос. Более того, судебная система получила выгоду от содержания меньшего количества заключенных, так как это помогло сократить расходы.

По мнению авторов NYT, эти примеры доказывают, что грамотно использованные данные и статистика помогают выносить более справедливые решения, в которых нет непоследовательности и скрытой предвзятости.

Однако это зависит от качества алгоритмов. Некоторые системы несовершенны и переносят на себе предубеждения разработчиков. Причиной служат неверные расчеты и статистика. Но большинство разработок, уверены авторы, не должны вызывать подозрений.

В 2016 году организация ProPublica проанализировала 7000 судебных случаев и обнаружила, что темнокожим правонарушителям алгоритмы чаще присуждают средний и высокий показатель риска рецидивизма. Аналитики пришли к выводу, что в программе укоренены расистские предрассудки. Но некоторые эксперты отмечают, что алгоритм не может действовать предвзято — он учитывают только статистические факторы, и раса не становится для ИИ отягчающим фактором.

«В силу социальных и экономических причин темнокожие заключенные в данном регионе действительно чаще совершают преступления после освобождения», — пишут авторы. Они приходят к выводу, что в решении алгоритма виноваты не предубеждения, а социальное неравенство. Поэтому, на первый взгляд, такая программа может показаться предвзятой и несовершенной, но по факту механизм ее работы вполне логичен.

Tags: искусственный интеллект, суд
Subscribe

Posts from This Journal “суд” Tag

promo antony_w august 17, 2014 11:48 18
Buy for 10 tokens
Есть блог, в котором написано много постов про роботов: ссылка И там есть несколько статей о замене рабочих мест человека роботами: Уже к 2018 году роботы отберут у человека часть профессий Рабский труд без зарплаты Армия роботов: зачем она нужна обильной людьми Поднебесной и кому может…
  • Post a new comment

    Error

    default userpic

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 0 comments