Первое право робота (original) (raw)
Весной 2009 года в Нью-Йорке магистрантка Tisch School of Arts Кейси Кинзер провела первый в серии экспериментов, среди прочего выявлявший реакцию людей на антропоморфные объекты - примитивных андроидов. При всех претензиях, которые можно предъявить к организации этого эксперимента, главный его вывод, видимо, не подлежит сомнению - реакция людей во взаимодействии с андроидами явно не соответствует тому уровню сложности, который на сегодняшний день имеют эти системы. Коротко говоря, люди имеют тенденцию относиться к антропоморфным движущимся объектам как к живым, а возможно, и сознательным, существам.
Вероятно, дальнейшие эксперименты в этой области позволят более точно установить, при каких именно условиях человек наделяет неодушевленный механизм субъектностью. Однако сам факт такого наделения заставляет задуматься о будущей роли андроидов в социальной среде и о проблеме установления прав роботов.
Живое или неживое?
Поведение "Твинбота" Кейси Кинзер предельно примитивно - он способен лишь двигаться вперед на низкой скорости. Вместе с тем, "Твинбот" активно апеллировал к эмоциональной реакции окружающих. Приветливая рожица, нарисованная на картонной панели и флажок "Помогите" на метровом шесте, прикрепленном к корпусу - вот коммуникативные средства, использованные Кинзер для того, чтобы задействовать скрытый в толпе "ресурс" социального взаимодействия. Ресурс этот в силу каких-то неизвестных еще обстоятельств оказался достаточным как минимум для того, чтобы позволить "Твинботу" преодолеть достаточно сложную трассу и достигнуть своей конечной цели, проехав около полутора километров за сорок минут при помощи тридцати людей. Прохожие изменяли направление робота не только с учетом его места назначения, но и с заботой о его безопасности, и даже говорили с ним, обращаясь, пусть и неосознанно, как с живым существом.
Мог ли "Твинбот" столкнуться на своем пути с агрессивным поведением людей? Разумеется, мог, причем вероятность проявления такой реакции оценивалась экспериментатором как весьма высокая. Что сдержало возможные проявления агрессии в данном случае - возможный предмет отдельного исследования, но нельзя не признать, что неосознанное наделение робота субъектностью может иметь как позитивные, так и негативные проявления. Робот, апеллирующий к "социальному ресурсу" толпы или отдельного человека, может стать привлекательным объектом и для вымещения скрытой агрессии. В случае "обычных" технических средств такая проблема не возникает (если не считать обычных в стрессовых ситуациях пинаний колеса машины или ударов кулаком по боковой стенке телевизора), в случае же техники "социально интегрированной" просто отмахнуться от нее уже нельзя.
Сознательное или несознательное?
Но не доводим ли мы ситуацию до абсурда? Обосновывая необходимость признания прав роботов, не приходим ли мы к необходимости защищать от насилия автомобили и телевизоры? На сегодняшний день ничто не приводит нас к выводу, что современные андроиды, не говоря уже о муляжах, подобных "Твинботу", когда-либо обретут сознание, подобное человеческому. Нужно ли в этой ситуации идти на поводу у подсознательных реакций и признавать субъектность роботов, так сказать, официально?
Чтобы ответить на этот вопрос, попробуем ответить точно - каким образом мы можем определить, что нечто обладает сознанием? Этот вопрос - переформулировка так называемой "сильной проблемы сознания", одного из наиболее трудных философских и научных вопросов, рассматривающихся сегодня. С точки зрения как нейрологии, так и кибернетики, саморегуляция и адаптация системы не предусматривает обязательного наличия сознания. С точки зрения существования в среде и даже социального взаимодействия, сознание - сущность избыточная. Объяснение причин возникновения, роли и самой природы сознания находится за гранью науки, философская же дискуссия по этому вопросу достаточно резка.
Наиболее остро сильная проблема сознания формулируется в виде задачи о "философском зомби". Философский зомби - это антропоморфное существо, которое и выглядит, и ведет себя абсолютно так, как обычный человек, но при этом начисто лишено какого-либо сознательного опыта и ощущения "я". Каким образом можно было бы отличить человека от философского зомби? Поскольку их реакции по определению ничем не отличаются друг от друга, способов их различения не может существовать. Почему же мы не являемся философскими зомби? Может ли вообще существовать философский зомби? Не углубляясь в подробности дискуссии, отметим только то, что ответ на эти вопросы имеет непосредственное отношение к перспективам искусственного интеллекта.
Каким образом мы сможем определить, что у роботов появилось сознание? Тест Тьюринга - проверка способности искусственного разума к осмысленному общению - ничего не скажет нам о наличии или отсутствии личностного опыта. Как поведет себя человек, столкнувшись с роботами, способными пройти тест Тьюринга? Провозгласит ли их равными себе? Низведет ли до статуса рабов? Рабочего скота? Бытовой техники, вроде телевизора и автомобиля? Каким бы ни был окончательный выбор, каково его общее мировоззренческое обоснование? Список вопросов можно продолжать бесконечно. Весьма серьезна и обратная проблема - насколько мы уверены, что у современных антропоморфных роботов-компаньонов, которые через несколько лет станут доступны коммерчески, отсутствует сознание? Даже раскрытие принципов, на которых запрограммированы эти роботы, ничего не изменит в нашей уверенности или неуверенности, поскольку и выявление принципов работы нервной системы человека никак не повлияла на нашу способность решить эту проблему.
Принцип признания субъектности
Мы убедились, что в конечном итоге только от самого человека зависит, будет ли признана субъектность роботов и на каком этапе их развития это произойдет. Никаких объективных критериев для этого не существует и не будет существовать до получения какого-либо решения сильной проблемы сознания. Мы не углублялись в те социальные последствия, которые вызовет непризнание или запоздалое признание прав роботов - все эти последствия детально проанализированы в фантастической литературе: "Мечтают ли андроиды об электрических овцах?" Филиппа Дика, "Снова и снова" Клиффорда Саймака, "Наказание без преступления" Рэя Брэдбери.
Независимо от решения сильной проблемы сознания - выделения ли объективных критериев его существования или признания его артефактной природы - наиболее предсказуемым с социальной точки зрения вариантом мы считаем формулирование приблизительно такого принципа признания субъектности:
Признание субъектности является неминуемым следствием высокого потенциала социального взаимодействия (обратное логически неверно: из низкого социального потенциала НЕ следует непризнание субъектности)
Субъектность априори признаваемого человеческого существа не подвергается сомнению этим принципом. Любой биологический или небиологический объект, априори не признаваемый человеческим существом, наделяется субъектностью в соответствии с этим принципом, если так или иначе мобилизует "ресурс социального взаимодействия", природа которого, естественно, нуждается в четком прояснении. С другой стороны, далеко не всякое техническое оборудование способно мобилизовать этот "скрытый ресурс", поэтому не имеет смысла наделять его субъектным статусом. "Твиботы" Кейси Кинзер, имеющие ограниченный потенциал социального взаимодействия, попадают в промежуточную категорию между социально полноценными индивидами и социально незначащим оборудованием - категорию, которую можно назвать "социоботами".
В этом смысле возможных будущих носителей искусственного интеллекта целесообразно называть андроидами/гиноидами в собственном смысле слова, а прототипы роботов-компаньонов и "Твинботы" - социоботами (или другим аналогичным по смыслу термином). И те, и другие, и третьи являются субъектами, права которых нуждаются в декларации и соблюдении, поскольку способны к социальному взаимодействию, то есть субъективно наделяются личностными качествами. Естественно, в перечне их прав будут фигурировать как общие, так и специфические, обусловленные их радикальными различиями.
Первое право роботов
С точки зрения декларирования прав, целесообразно объединять андроидов, социоботов и социально незначащих роботов (например, манипуляторы) под общим термином "роботы", чтобы избежать дополнительных сложностей, связанных с классификацией на подтипы в том случае, если конкретный искусственный объект будет сочетать в себе свойства нескольких подтипов. В этом случае нужно иметь в виду, что социоботы могут, строго говоря, не являться роботами в традиционном понимании этого термина (как в случае с "Твинботами"). Нужно отметить и то, что обыденное использование слова "робот", как правило, акцентирует именно социальный, а не технический аспект значения термина.
Разумеется, детальная разработка декларации прав роботов - дело будущего, требующее значительных усилий. Однако первое право, на котором, на наш взгляд, должны основываться последующие разработки, мы попытаемся сформулировать здесь.
Робот имеет право не сталкиваться с проблематизацией своей субъектности.
Такая формулировка вытекает из всего сказанного выше. Не все роботы наделяются субъектностью в соответствии с выше предложенным принципом признания субъектности, но ко все роботам без исключения должно применяться сформулированное "первое право". Робот, активно задействующий "ресурс социального взаимодействия" неизменно вызовет жесткую полемику относительно наличия у него сознания, подобного человеческому, и как следствие, необходимости признания его частью общества. Признание за роботом права избежать такой полемики и получить то или иное общественное признание ориентированно главным образом на роботов будущего, социальная интеграция которых будет действительно высокой. Однако признание этого права ДО реального появления таких роботов позволило бы обществу более своевременно (и безболезненно) адаптироваться к новым проблемам.
Принятие "первого права" требует в перспективе и принятия позитивного решения относительно субъектных прав андроидов. Пока же такое решение не принято, единственной возможностью обеспечить соблюдение этого права становится осознание ответственности конструктора. Соответственно, конструктору робота стоит всеми возможными средствами избегать двусмысленных ситуаций в отношении его статуса. Это означает, прежде всего, уход от ситуации, в которой робот становился бы частным случаем задачи философского зомби.
Для реализации этого мы предлагаем разделить два фактора, могущие привести к такой проблематизации:
- фактор социальной сложности
- фактор поведенческой сложности
Эти два фактора, как показывет эксперимент Кинзер, не совпадают. Фактор социальной сложности (включающий в себя, кроме всего прочего, элемент антропоморфности) связан с проблемой учета субъективных реакций на присутствие робота; фактор же поведенческой сложности - с объективными проблемами сознания. Не существует средств распознать наличие или отсутствие сознания у потенциально существующего робота с достаточно сложными стереотипами поведения.
В соответствии с таким разделением, уход от ситуации философского зомби подразумевает следующее: высокая сложность поведения робота по возможности не должна сочетаться с высокой социальной сложностью. И наоборот, в случае, например, высокоантропоморфных роботов (медицинских фантомов итп) их поведение не должно быть усложнено сверх необходимого минимума. В общем случае, необходимо разработать ортогональные "социальную" и "техническую" шкалы и в дальнейшем избегать высоких значений обеих этих шкал одновременно.
Ортогональность этих шкал имеет принципиальное значение - низкая антропоморфность не отменяет сильной проблемы сознания, фактор антропоморфизма здесь важен лишь психологически; однако и низкая сложность поведения не снимает проблему субъективной привязанности к будущим социоботам. Лишение "искусственного интеллекта" человеческого облика - лишь тот необходимый минимум защиты, который мы можем в текущих условиях предоставить и потенциальному "иному разуму", и самим себе.