«Роботы заменят нянь и сиделок?»
Эксперт Елена Середкина о том, готовы ли мы доверить роботам заботу о ребёнке или пожилом родственнике
Искусственный интеллект и роботы играют всё большую роль в нашей жизни. Они заменяют человека не только на производстве, но и в решении социальных вопросов: например, могут быть нянями, сиделками, администраторами, гидами, консультантами. Могут ли роботы быть этичными, какова специфика их взаимодействия с детьми и пожилыми людьми, кто отвечает за этические ошибки роботов? Об этом — в интервью с кандидатом философских наук, доцентом кафедры философии и права ПНИПУ, экспертом в области этики роботов Еленой Середкиной.
— В чём суть проблемы этичности искусственного интеллекта?
— Искусственный интеллект превосходит способности человека. Например, алгоритмы анализируют огромные массивы данных в режиме реального времени, поэтому могут самостоятельно принимать решения вместо нас. Но насколько это этично и безопасно? Есть риск, что алгоритмы сделают ошибочный выбор, подвергнут опасности отдельного человека или целые социальные группы.
Яркая иллюстрация такой ситуации показана в фильме «Я, робот» (2004). Главный герой Спунер ненавидит роботов, потому что во время аварии робот спас не маленькую девочку, а его — взрослого сильного мужчину. С точки зрения статистики шансы Спунера на выживание были выше. Так что это было логичное, рациональное и морально безответственное решение бездушного искусственного интеллекта. Человеческая мораль предполагает прямо противоположное: первым спасать ребёнка как более слабое существо.
— Проблема этики актуальна для всех роботов?
— Роботы в зависимости от цели их создания выполняют разные роли. Промышленные воспринимаются только как инструменты — их внедряют, чтобы увеличить производство, повысить качество продукции, сократить человеческие жертвы.
А вот социальных роботов наделяют кардинально другими задачами, они отличаются от домашней техники или оборудования на заводе, потому что напрямую взаимодействуют и общаются с человеком в социальной среде и становятся социальными агентами.
Роботы не устают, не болеют, не раздражаются и могут стать отличными социальными работниками — нянями, сиделками, администраторами, гидами, консультантами, курьерами и др. Они умеют вести диалог, в том числе с соблюдением человеческих норм. Например, приветствуют в начале беседы, а после неё — прощаются, выявляют потребности, выполняют необходимые задачи, распознают эмоции и соответствующе реагируют на них. И вопросы этики связаны в первую очередь с ними.
— Этичные роботы — это какие?
— Основной вопрос этики звучит так: быть моральным — значит совершать правильные поступки или быть хорошим?
Нисходящий подход к программированию социальных роботов заключается в том, что этику воспринимают как изучение правильного поведения. Прослеживается аналогия с правовой системой: если робот следует определённым законам, то он моральный. Главная задача программиста — разработать набор конечных правил. Но в этом подходе есть недостаток — как применить это на практике с учётом возможных последствий.
Представьте, что робота запрограммировали «не лгать», он попадает в руки врагов и честно выдаёт секретную информацию. Он вроде бы следует моральному принципу, но при этом теряет свою ценность, наносит вред.
Похожая ситуация складывается, если запрограммировать робота по одному из законов робототехники, о которых говорил писатель-фантаст Айзек Азимов: робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
Большой вопрос вызывает пункт о «бездействии». Не приведёт ли это к тому, что робот будет постоянно вмешиваться в жизнь людей, спасая их от потенциальной угрозы? А что если бездействие робота предотвращает сиюминутный вред для одного человека, но ставит под угрозу будущее многих? В обоих случаях искусственный интеллект наносит непреднамеренный вред, он не знает о вероятных угрозах, рисках и последствиях.
— Какая есть альтернатива?
— Второй подход к программированию социальных роботов — восходящий. Он основывается на этике добродетели и обучении методом проб и ошибок. Главный вопрос звучит не «что я должен делать?», а «каким я должен быть?». Акцент с хороших и плохих поступков переносится на хороших и плохих роботов.
При этом подходе действует моральный партикуляризм — искусственному интеллекту для правильного поведения недостаточно просто следовать конечному набору универсальных правил, потому что их не может быть. Каждый случай уникален. Например, общих утверждений в формате «ударить женщину — аморально» или «помочь человеку — благо» нет. Создать программное обеспечение по такому подходу нельзя.
В итоге разработчики следуют гибридному подходу в программировании морально компетентных роботов, выбирая сильные стороны разных этических концепций.
— И всё же этическая ошибка робота возможна. Кто несёт за неё ответственность?
— Это очень сложный вопрос, который пока не решён. Тем не менее уже сейчас можно выделить главный вектор развития.
Приведу пример с беспилотными автомобилями. Вероятно, что в авариях при участии таких транспортных средств будет какая-то форма совместной ответственности, как в системе строительства. Если беспилотный автомобиль кого-то сбивает, вина распределяется между всеми заинтересованными сторонами: проектировщиками умных дорог, производителем автомобиля, конструктором транспортных средств, программистом искусственного интеллекта, пассажиром, поведением жертвы до происшествия и др.
Эти роли, в свою очередь, разделены между сотнями или тысячами людей, поэтому важно посредством законов и накопленного опыта регулировать степень ответственности каждой стороны при взаимодействии социальных роботов с людьми.
Однако анализ этических кодексов ИИ в Европе, США, Китае, Японии и России вскрывает одну явную тенденцию. Этические спецификации для искусственного интеллекта нового поколения начинаются с очень чёткой предпосылки, согласно которой технологии всегда должны находиться под контролем людей и только люди обладают полными полномочиями по принятию решений. В этом смысле не идёт речь об автономии машинного интеллекта. Этический кодекс искусственного интеллекта в России также опирается на эту моральную установку.
— Есть ли специфика взаимодействия роботов с детьми?
— Наблюдая или взаимодействуя со слишком человекоподобным роботом, взрослый человек испытывает отторжение вплоть до отвращения почти на бессознательном уровне. Это феномен «зловещей долины». Его открыл японский учёный-робототехник Масахиро Мори и назвал так из-за характерного «провала» на графике симпатии. Внезапное психологическое и когнитивное отторжение появилось из-за несоответствия между гиперреальной внешностью человека и нереалистичными движениями робота.
Дети гораздо быстрее адаптируются к новым технологиям, включая антропоморфных (человекоподобных) роботов, потому что это их реальность. Они с младенческого возраста погружены в цифровую среду.
— Какие риски взаимодействия детей с роботами существуют?
— С одной стороны, роботы в учебном процессе вызывают интерес у детей, привлекают внимание и не дают «летать в облаках». Они могут эффективно настроить подачу знаний для любого возраста в экспериментальной, игровой или другой форме. Способны повторять тему «с энтузиазмом» до тех пор, пока она не усвоится, выбирают задания с учётом индивидуальных особенностей и интересов детей. У роботов нет предвзятого отношения к ребёнку, и он не наградит осуждающим взглядом за неверный ответ.
С другой стороны, действительно есть ряд рисков. Исследовательница Шерри Таркл считает, что взаимодействие с антропоморфным роботом разрушает человеческое общение как таковое. Роботы не умеют дружить, они предлагают только иллюзию отношений.
Учёба с роботом со временем приводит к тому, что дети начинают частично копировать его манеру «общения». Поведение ухудшается, дети не понимают тонкости коммуникации — что делать, когда диалог с живым человеком не выстраивается так, как нужно. То есть они не учатся гибкости общения с учётом статуса, мировоззрения, желаний и настроения людей-собеседников.
Кроме того, если в памяти робота хранится «досье» на ребёнка, то эту информацию важно защищать от взлома третьими лицами.
Учитель-человек многое знает о своих учениках, но влезть к нему в голову невозможно. А ещё он наделён качествами креативности и душевности, которые часто становятся ключевым фактором в раскрытии способностей детей. Живой учитель не просто воспроизводит контент, но становится наставником на пути человека.
— В какой сфере социальные роботы действительно полезны?
— По данным Росстата, к 2046 году количество пожилых людей в России достигнет 37,4 млн человек, это 26,9% населения. Такие показатели побьют рекорд 2018 года перед началом пенсионной реформы (25,8%). При этом более молодое поколение не сможет оставить работу и посвящать много времени уходу за родственниками. В связи с объективным фактом старения населения и нехваткой ресурсов (в том числе человеческих) в недалёком будущем начнёт активно развиваться ассистивная робототехника.
Ассистивные роботы — это разновидность социальных роботов. Они создаются, чтобы помогать людям с ограниченными возможностями, для которых выполнение даже простых бытовых задач становится сложным. Такие роботы легко позвонят родственникам по видеосвязи, достанут вещь с полки, поднимут с пола предмет, откроют двери, помогут встать с постели и передвигаться по дому или улице, сокращая риск падения.
Некоторые ассистивные роботы способны заменить медицинских работников в уходе за пациентами — они напоминают о приёме таблеток, измеряют жизненные показатели, при необходимости вызывают скорую. Такие «домашние помощники» улучшают качество жизни людей и помогают им стать более независимыми.
— А в чём ограничения искусственного интеллекта? В каких ситуациях роботы не могут помочь?
— В роботах заложены чёткие инструкции действий и реакций. Если происходит событие, выходящее за рамки их программы, то они теряются, глючат, то есть не могут действовать вне шаблона. Даже примитивные для человека решения стоят больших усилий и времени для робота. Чтобы положить предмет на заставленную полку, мы просто отодвигаем любую вещь и кладём на освободившееся место нужный предмет. Тут нет никаких мыслительных затрат, всё происходит на автомате за секунды. Роботу придётся вместо одной задачи обработать несколько (при условии, что этот алгоритм в нём запрограммирован).
Андроиды не обладают интуитивным знанием, когда люди просто понимают что-то и всё. Например, человек в сильной стрессовой ситуации начинает смеяться, так у него срабатывает защитный механизм. Робот фиксирует смех как проявление положительной эмоции, но не понимает, что его причина — критическое нездоровое состояние человека.
Роботы не работают со смыслами и не дают каких-то субъективных оценок, связанных, например, с эстетикой. Мы наделяем предметы смыслами и переносим их от одного объекта к другому, даже если они абсолютно разные. Допустим, дизайнер создал причудливое кресло на одной ножке — мы просто понимаем это. Робот знает, что кресло — это объект на четырёх ножках со спинкой и специальным углублением. Но он не может найти этот смысл в дизайнерской вещи, потому что она не соответствует встроенному в него шаблону.
— Как современная наука смотрит на проблему этики роботов?
— В настоящее время учёные рассматривают область этических аспектов робототехники с трёх сторон. Первый — робоэтика. Это прикладная этика профессионального сообщества, то есть специалистов-робототехников и всех, кто вовлечён в процесс создания, проектирования и производства роботов.
Инженеры не могут самостоятельно формулировать этические принципы робототехнической деятельности, поэтому им на помощь приходят гуманитарные науки, в первую очередь философия и этика. В широком смысле слова робоэтика изучает отношения между наукой, техникой и обществом. В узком смысле она имеет дело с этическими вопросами, возникающими в результате интеграции роботов в общество.
Этика робототехники — это разработка морального кода в виде программы, которая устанавливается в робота. Люди считают, что робот ведёт себя морально, если его действия соответствуют вложенной в него инструкции, и аморально, если он совершает нечто недопустимое по причине, например, технического сбоя или некомпетентного программирования. По этому принципу робот ничего не знает о морали и просто следует приказам, будь то плохо или хорошо, у него нет «самосознания».
Наконец, этика роботов. Этот подход наделяет их статусом полноценных моральных агентов. То есть искусственный интеллект сам принимает решения, делает моральный выбор и несёт ответственность за свои поступки подобно человеку. В реальности таких роботов нет и они не появятся в ближайшем будущем.
Сейчас во всём мире мораль роботов определяется как корректное программирование робота инженерами с учётом знаний специалистов по этике. Пока роботы — это качественные помощники, которые упрощают нашу жизнь, но по-настоящему не заменят человеческого общения и тепла.
Подпишитесь на наш Telegram-канал и будьте в курсе главных новостей.