Ru
В прошлом году произошли прорывы, и последствия вскоре станут нам яснее и важнее.
Технологии
34 0 580

Guardian об искусственном интеллекте: это великая сила и великая безответственность

Возможно ли слияние таких двух сущностей, как человеческая глупость и искусственный интеллект, и чего нам реально следует опасаться.

Оглядываясь на прошедший год, задаешься прекрасным вопросом, что же больше проявилось в событиях его сформировавших, — человеческая глупость или искусственный интеллект.

В настоящее время этот термин в основном используется для обозначения машинного обучения: методов, которые позволяют компьютерным сетям обнаруживать шаблоны и законы, скрытые в гигантском количестве данных из реального мира. Это нечто близкое к тому, что могут делать части биологического мозга. В этом смысле искусственный интеллект это то, что позволяет работать самоуправляемым автомобилям, которые должны быть способны распознавать окружающую среду и действовать соответствующим образом. Это то, что скрывается за жуткими навыками программ по распознаванию лиц, и то, что позволяет умным личным помощникам отслеживать устные команды и реагировать на них. И конечно это то, что стимулирует рекламную и маркетинговую отрасль в их неустанных попытках исследовать и использовать наши когнитивные и эмоциональные уязвимости.

СМЕНА ПРАВИЛ ИГРЫ

Использование китайским правительством машинного обучения в целях проведения политических репрессий далеко не ограничивается использованием камер наблюдения. В недавнем отчете правительственного аналитического центра высоко оценивается способность «прогнозировать траекторию развития интернет-инцидентов… превентивно вмешиваться и направлять общественное мнение во избежание вспышек негодования в Интернете и улучшать возможности социального управления».

В прошлом году произошли прорывы, последствия которых станут яснее и важнее. Первый был концептуальным: дочерняя компания Google DeepMind, которая уже разрушила ожидания о том, чего может достичь компьютер в шахматах, создала машину, способную самостоятельно себя обучать правилам подобных игр, а затем, после двух-трех дней сосредоточенного обучения, выиграть у любого человека и любого другого компьютерного игрока.

AlphaZero не может освоить правила любой игры. Она работает только с играми с «идеальной информацией», в которых все релевантные факты известны всем игрокам. В принципе, на шахматной доске ничего нельзя спрятать — все грубые ошибки ожидают того, чтобы их сделали, как сказал один гроссмейстер, но для того чтобы увидеть, что содержится в этом простом шаблоне требуется замечательный и, как оказывается, нечеловеческий разум.

Компьютеры, способные обучаться с нуля, как это может делать AlphaZero, являются важной вехой в развитии разумной жизни на этой планете. Но в этом присутствует довольно нервирующий смысл: этот вид искусственного интеллекта кажется уже живым.

По сравнению с обычными компьютерными программами он действует по причинам, непонятным внешнему миру. Его можно обучить, как попугая, поощряя желаемое поведение; фактически это описывает весь его процесс обучения. Но он не может быть сознательно разработан во всех деталях, как пассажирский самолет. Теоретически, если авиалайнер терпит крушение, возможно реконструировать все маленькие шаги, которые привели к катастрофе, понять, почему каждый из них произошел, и каким образом он повлек за собой следующий. Обычные компьютерные программы могут быть отлажены таким образом. Это верно даже тогда, когда они взаимодействуют в крайне запутанном и усложненном виде. Но нейронные сети, тот тип программного обеспечения используемого практически во всем, что мы называем искусственным интеллектом, не могут в принципе быть отлажены таким образом. Мы знаем, что они работают, и можем с помощью обучения побуждать их работать лучше. Но в их естественном состоянии совершенно невозможно реконструировать процесс, посредством которого они делают свои (в значительной степени правильные) заключения.

ДРУГ ИЛИ ВРАГ?

Можно заставить их представлять свое мышление в виде, понятном для людей. Фактически, в ЕС и в Великобритании это может быть незаконно, если только не при определенных обстоятельствах: Общее положение о защите данных (GDPR) дает людям право знать, на каком основании компьютерные программы принимают решения, влияющие на их будущее, хотя это не было проверено на практике. Этот вид проверки безопасности является не просто мерой предосторожности против распространения предубеждений и неправомерной дискриминации – он также необходим для того, чтобы создать продуктивные партнерские отношения между людьми и их новейшими инструментами.

Одним из наименее спорных видов использования машинного обучения является интерпретация медицинских данных: при некоторых видах рака и других болезнях при сканировании компьютеры уже способны лучше людей обнаруживать опасные закономерности. Но их можно обучать и дальше, чтобы они также выводили контрольный список факторов, которые в совокупности приводят их к выводам, и люди могут извлекать из них пользу. Маловероятно, что это будут действительно те особенности, на основе которых программа принимает решения: также расширяется область знаний о том, как обмануть классификацию изображения крошечными изменениями, невидимыми для человека. Например, можно запечатлеть простую схематичную картину рыбы и можно добавлять в нем точки до тех пор, как она будет классифицироваться как кошка.

Еще более тревожно то, что, к примеру, случайное искажение знака остановки может привести к тому, что система компьютерного зрения воспримет его за знак ограничения скорости. Звуковые файлы также могут быть преднамеренно изменены, чтобы системы распознавания речи могли их неправильно интерпретировать. С растущим использованием голосовых помощников это является очевидными возможностями для преступников. И хотя машинное обучение делает возможным распознавание отпечатков пальцев, оно также позволяет создавать искусственные отпечатки пальцев, которые действуют как отмычки для разблокировки устройств.

БОРЬБА ЗА ВЛАСТЬ

Второй грандиозный прорыв прошлого года повысил вероятность плохого исхода событий. Это гораздо более широкое распространение мощного программного и аппаратного обеспечения. Хотя для обучения большинства нейронных сетей необходимы огромные объемы данных и большие вычислительные мощности, однажды обученная нейронная сеть может работать на очень дешевом и простом оборудовании. Это часто называют демократизацией технологий, но на самом деле это ее анархизация. Демократии имеют средства для обеспечения выполнения своих решений; анархии не имеют возможность даже принимать решения. Распространение этих возможностей среди авторитарных правительств с одной стороны, и криминальных группировок с другой, представляет собой двойную проблему для либеральных демократий. Технологии наделяют нас новыми видами почти невообразимой власти, но в то же время отнимают у нас некоторую власть, и возможно также некоторое понимание, которое, как мы думали, всегда будем иметь.