Цифровое зеркало

Кто ответит за решение робота?

Цифровизация меняет представления об этике. Сегодня мы должны говорить уже не только об этичности человеческих взаимоотношений, этических вопросах, возникающих в результате совместного проживания людей. Искусственный интеллект становится полноправным соседом по планете.
8 февраля 2019

Этично ли ругаться с навигатором или роботом-пылесосом? Ученые-разработчики это только приветствуют, чем разнообразнее модальность в общении с искусственным интеллектом, тем лучше он учится. Но не очеловечиваем ли мы его, вступая с ним в общение на равных?

Это, конечно, вопрос философский. Но именно философы должны описать образ будущего мира, создать его единую интегрированную картину, исходя из которой сможет действовать законодательная и исполнительная власть. Именно этому посвятил свои последние труды основатель нашего журнала Геннадий Климов. Он очень опасался того, что называл «цифровизацией глупости». И сегодня мы видим наглядные примеры этого явления.

Айзек Азимов, 100-летие которого мы недавно отметили, еще в 1942 году сформулировал Три основных закона робототехники: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам».

Тогда казалось, что роботами будут такие человекообразные махины, которые будут повиноваться нашим приказам, но с которыми будет страшновато находится на одной планете (см. фильмы про Терминатора).  Может быть, именно из-за предостережений фантастов развитие робототехники пошло совсем другим путем, и теперь мы должны переживать из-за того, как сложатся наши взаимоотношения с сущностью гораздо менее персонализированной.

В мировой IT-индустрии вопросы этичности взаимоотношений человеческого и искусственного интеллекта обострились в 2018 году. Во всех глобальных корпорациях были созданы комиссии по этике, которые рассматривают возникающие прецеденты.  До России актуальность этой проблемы дошла, как всегда, несколько позже.  В 2019 году активно шло обсуждение платформенных решений цифровизации. Но специалисты теории и практики этого процесса сходятся во мнении, что 2020-й год будет посвящен обсуждение этических вопросов.

Один из главных вопросов - распределение ответственности. Непонятно, кто несет ответственность за решения алгоритмов? Этот первый вопрос, который задают чиновники. Что, если по решению искусственного интеллекта выдали пособие не тому человеку, или пропустили контрабандный товар? В случае с неправильным решением, принятым человеком, есть, кого оштрафовать или посадить. А тут-то как поступить?

В прошлом году эксперты IT-отрасли обсуждали с Министерством юстиции РФ понятие «техническое лицо» (наряду с физическим и юридическим). Тогда Минюст был не готов дискутировать на эту тему. Возможно, по мере перехода нашего мира на новый киберфизический уровень «техническое лицо», которое само что-то решило, окажется полноценным действующим персонажем законов и подзаконных актов.  Но вопрос наказания остается открытым. В настоящий момент если алгоритмы ошибаются, то страдают люди, которым не повезло, а не разработчики.

Следующая проблема: насколько граждане готовы доверять решениям, которые принимаются алгоритмами? Опросы свидетельствуют, что людей, готовых доверить решение роботу-судье в России больше, чем в остальном мире (возможно, из-за глубокого недоверия к существующей судебной система). Но если обучить робота-судью на тех решениях, которые выносят судьи сейчас, получим то же самое, только быстро. Самообучающиеся нейросети непрозрачны, нельзя проследить, почему алгоритм пришел к таким выводам.  

Пока приведу классический кейс из этой сферы. Компания Амазон разработала автоматизированную систему подбора персонала, и обучила ее на примере предыдущих решений. Искусственный интеллект решил, что лучшие кандидаты – белые мужчины, поскольку именно белых мужчин предпочитали принимать на работу кадровики-люди. То есть, при цифровизации закрепляются прежние предрассудки. Пока во всех сферах, касающихся управления или права, не удавалось избежать эффекта наложения истории. Приходится отключать алгоритмическую сеть, чтобы она не удваивала ошибки. На данный момент не существует решений, которые реализуют принцип справедливости в цифровом мире. Получается лишь ухудшение, та самая цифровизация глупости.

Эксперты РАНХиГС, готовившие доклад об этических проблемах цифровизации для прошедшего в начала 2020 года Гайдаровского форума, называют три области возникновения таких проблем: большие данные, «бесчеловечность» искусственного интеллекта, социальное неравенство. Что происходит с данными, мы уже видим: государство не успевает их контролировать и защищать. Полностью исчезает понятие приватности. За нами ведется постоянное наблюдение с помощью камер. В Китае или Сингапуре не предупреждают об их наличие, они везде, даже в туалетах. В Москве тоже к тому идет. Камеры видеонаблюдения снабжаются системой распознавания лиц. Получается, мы отдаем наши данные без согласия, с потенциалом тотальной слежки. Когда мы подписываем договор о любом сервисе, мы его никогда не читаем, и, как правило, разрешаем с нашими данными делать что угодно.  О том, во что это может вылиться, мы писали в предыдущей колонке.

В случае алгоритмизации государственных сервисов усугубится социальное неравенство. Пострадают пенсионеры, старики, жители отдаленных населенных пунктов, тех, у кого меньше цифровая грамотность.

И даже такие удобные вещи, вошедшие в нашу жизнь, как цифровые системы доставки еды и заказа такси привели к усилению ...эксплуатации людей, по сути, к современному рабству. Технологические платформы разделили слои населения на тех, кто может дешево и быстро заказать такси или пиццу, и тех, кто проводит по 20 чесов за рулем или на ногах, доставляя вам этот сервис.

Пока вопросов больше, чем ответов. И мы продолжим писать об этих вопросах.