Раскрыть 
  Расширенный 
 

Как искусственный интеллект может стать идеальным оружием в руках авторитарных лидеров

08/18/2017 7 Дней
weapon

В 1976 году немецкий физиолог Франц Йозеф Галль решил, что сделал открытие, которое изменит мир. Тщательно изучив контуры человеческого черепа, он предположил, что на его основании можно судить о человеке, в том числе о его умственных способностях, личности, умениях и социальных установках.

В результате появилась псевдонаука френология, которая дала почву для «научного» обоснования расизма. Почти столетие спустя итальянский антрополог Чезаре Ломброзо основал школу криминологии, в которой преступность рассматривалась как врожденная склонность. Он считал, что преступников можно вычислить, измерив расстояние между определенными чертами лица. Его теории нашли отклик в других областях, таких как евгеника, с их помощью оправдывали рабство, существование арийской расы и другие исторические преступления против человечества.

Позже эти теории были развенчаны, однако они нашли отражение в искусственном интеллекте и машинном обучении, которые получают сегодня все большее распространение. Исследователи считают, что алгоритмам машинного обучения уделяют слишком большое значение и прибегают к ним во время принятия самых разных решений, начиная от увольнения школьного учителя и заканчивая освобождением под залог. Что еще страшнее, решения машин часто называют «объективными» и «непредвзятыми», хотя на самом деле это не так.

Частные компании уже взялись за разработку специальных программ для правоохранительных органов. Например, израильская компания Faception, которая занимается распознанием черт лица, утверждает, что ее алгоритмы способны вычислить террориста или педофила с вероятностью 80%. Сейчас она активно ищет покупателей в полицейских управлениях и правительственных структурах.

На самом деле, эта программа анализирует фотографии людей, совершивших преступление, и сопоставляет их. Другими словами, она просто выделяет определенные черты лица у преступников и нацепляет ярлык на людей с похожими чертами. Она как будто возрождает френологию, только с позиции компьютера и обучающих алгоритмов.

В итоге, программа не помогает избавиться от предрассудков, а, напротив, отражает и усиливает их.

«Нам всегда следует быть настороже, если речь заходит о системах машинного обучения, свободных от предрассудков. В конечном итоге, именно на наших предрассудках и строится набор данных для обучения», – сказала Кейт Кроуфорд, главный научный сотрудник Microsoft.

Кроуфорд считает, что особую опасность предвзятые и невразумительные алгоритмы машинного обучения представляют в неправильных руках. Она напомнила, как примитивные компьютерные системы помогали тиранам совершать зверства, например, табулирующие машины Холлерита помогали нацистам выслеживать евреев во время Второй мировой войны.

Сегодня алгоритмы могут стать идеальным оружием в руках авторитарных лидеров, которые хотят избавиться от оппозиции и маргинализированных групп. Например, суды округа Броуард, Флорида, используют подобные системы для оценки «степени риска» преступников, и как-то так получается, что среди обвиняемых в одних и тех преступлениях оказывается куда больше афроамериканцев, нежели белых.

В своей книге «Оружия математического разрушения» математик Кэти О’Нил приводит несколько примеров того, как системы машинного обучения отражают и максимально усиливают человеческую предубежденность. Причина в том, что многие из этих систем были разработаны третьей стороной и не прошли проверку на предрассудки и честность.

Инструментальные средства анализа ИИ не должны проверять запатентованный исходный код системы, считает О’Нил. Они должны анализировать входные данные и готовые решения, чтобы помочь людям понять, работает ли система правильно и честно или искажает результаты под влиянием человеческих предубеждений. 

На более фундаментальном уровне следует убедиться, что системы разработаны в первую очередь с учетом этики. Это означает, что на каждом этапе работы параллельно с STEM-образованием и построением новых стандартов должно проводиться обучение нормам этики, чтобы ошибки, допущенные системой правосудия в прошлом, не проникли в программный код роботов и нейронных сетей в будущем.

Информационная служба 7days.us

 
 
 

Похожие новости


Газета «7 Дней» выходит в Чикаго с 1995 года. Русские в Америке, мнение американцев о России, взгляд на Россию из-за рубежа — основные темы издания. Старейшее русскоязычное СМИ в Чикаго. «7 Дней» это политические обзоры, колонки аналитиков и удобный сервис для тех, кто ищет работу в Чикаго или заработки в США. Американцы о России по-русски!

Подписка на рассылку

Получать новости на почту