A+ A A-

Законы робототехники отменяются?

  • Автор  Виктор Абатуров
Оцените материал
(1 Голосовать)
Законы робототехники отменяются? Законы робототехники отменяются?

В первом номере «ЭО» в этой колонке звучал призыв  объединить усилия мирового сообщества  в добром деле  международной легитимизации законов робототехники Айзека Азимова. Это вызвано тем,  что Европейский парламент начал нормотворческую деятельность в этом направлении («Тау еще будет…»).  Однако не прошло и полгода,  как эти всемирно популярные законы робототехники стали подвергаться коррекции со стороны самых «продвинутых» ученых современности — британских. Термин «британские ученые»  уже стал своеобразным брендом  тех исследований, которые  являются довольно неожиданными для обычных людей. В вышедшем в конце  июня  докладе Королевского научного общества и Британской академии говорится, что в робототехнике нет нужды применять три закона Азимова, так как их можно заменить одним универсальным правилом: «человек должен преуспевать».

Первый закон по Азимову — «робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред». Остальные два применимы только в том случае, если это не противоречит первому закону. А формула «человек должен преуспевать»  в очень и очень многих случаях противоречит этому закону. 

Попробуем смоделировать такие случаи.  Если  взять за основу первый закон робототехники, то во все  искусственные интеллекты (искины)  должна в обязательном порядке вводиться полная база данных о том, что именно приносит вред человеку. В первую очередь речь идет о физическом вреде, но, видимо, также есть данные о моральном и материальном ущербе.  И что из этого получится?

Например, искин, разрабатывающий освоение месторождения и строительства комбината. Для «преуспевания» владельцев месторождения издержки должны быть сведены к минимуму. А в зоне освоения месторождения есть местные жители и их угодья.  Действуя по первому закону Азимова, искин или вообще откажется выполнять этот проект, чтобы не причинить вреда местным жителям,  или предложит им выплатить отступные  в таком объеме, чтобы они чувствовали себя не ущемленными, а счастливыми. О каком же «преуспевании» акционеров проекта в этом случае может идти речь?

 Другой пример. Искин, управляющий развитием энергосетей.  Высоковольтные линии электропередач вредны для здоровья  людей в тех населенных пунктах, вблизи которых они проходят.  Руководствуясь законами Азимова, искин, конечно, сможет так или иначе проложить путь для этих электросетей вдали от населенных пунктов, но насколько он окажется длиннее  наиболее экономичного пути и насколько дороже это будет стоить? Или искин, как и в первом случае, предложит  переселение людей с выплатой не устраивающих компанию компенсаций.

Дальше. В мире есть много вредных производств.  Любое использование на них искинов приведет либо к немедленному их закрытию или к приостановке до тех пор, пока не будут устранены или нейтрализованы  источники вреда, что, надо полагать, сделает абсолютное большинство вредных производств просто нерентабельными. Возможен, правда, и другой вариант. Людей на этих производствах искины будут заменять роботами. Но вот увольнение работников — явный вред для этих самых работников.

Если запрограммировать искусственные интеллекты на то, чтобы они ни одному человеку никакого вреда не наносили, то тогда они в рыночной конкурентной экономике просто будут никому не нужны.

Банки. В этой сфере роботизация, замена людей программным обеспечением шагает семимильными шагами. Но если в программный искин, управляющий банком, вложить требование ненанесения человеку вреда, то как сможет искин «выбивать» розданные кредиты у злостных неплательщиков, как будет отнимать залоговое имущество,   то же жилье в случае невозможности заемщика расплатитьс ы в качестве наказания?

Согласно Азимову, робот своим бездействием не может  допустить, чтобы человеку был причинен вред.  И как эту задачу будет решать искин, управляющий крупным производственным комплексом, когда по  каким-либо причинам, по той же дурости работников,  возникнет нештатная ситуация, ставящая под угрозу жизнь и здоровье человека? А такие ситуации возникали, возникают и будут возникать, в том числе и  в самых продвинутых компаниях. Искин просто будет останавливать работу всего комплекса, пока нештатная ситуация не будет исправлена. Например, искин почувствовал, что где-то контакт «заискрил». А вдруг кто-то из работников его коснется? Значит, надо обесточивать.  А это какие убытки для предприятия, для его владельцев, да и для самих работников, если это время им не будет оплачиваться. 

И еще одна сфера, где роботизация  и программное управление развиваются даже более стремительно, чем в банках. Это военное дело. Боевые роботы, самообучающиеся артиллерийские установки,  самоуправляемые беспилотники и самонаводящиеся «умные» ракеты. Также разрабатываются   программные системы управления боевыми действиями крупных подразделений.  Какое широкое поле деятельности для искинов самого различного уровня! Однако законы робототехники Азимова  поставили бы жирный крест  на использовании искусственного интеллекта в этих целях. А ведь это убытки, препятствующие «преуспеванию» военных концернов и их владельцев.

Вполне может быть, что мечты Айзека Азимова  были настолько наивны, что фундаментально не совместимы с экономикой, построенной на конкуренции. Принципиальный момент здесь — что понимать под определением «вред человеку». И простые роботы и искины разрабатываются и используются в целях обрести конкурентные преимущества и заработать больше денег. Но их применение одними наносит вред другим, отбирая у тех долю рынка и прибыли. И если, как это задумано Азимовым, запрограммировать искины на то, чтобы они одному человеку  никакого вреда не наносили, то тогда они в рыночной конкурентной экономике просто будут никому не нужны. 

Так что британские ученые очень своевременно заметили опасность, грозящую интересам бизнеса и исходящую из самой идеологии законов робототехники Айзека Азимова, если общественное мнение ими все-таки увлечется  и подобные законы могут быть приняты в действительности.   И уже сейчас они предпринимают попытку перевести это самое общественное мнение совсем в другую колею, выгодную в первую очередь для бизнеса. Как же! Во главу угла ставится «преуспевание», что в переводе  на менее политкорректный  язык значит «зарабатывание денег».  И как же это выглядит в их понимании?

Британские ученые очень своевременно заметили опасность, грозящую интересам бизнеса и исходящую из самой

идеологии законов робототехники Айзека Азимова, если общественное мнение ими все-таки увлечется и подобные

законы могут быть приняты в действительности.

Британские ученые считают, что для регулирования разработки самообучающихся машин необходима «система демократического надзора». Они утверждают, что без подобной системы такие машины могут причинить человечеству «страшный вред».  Доклад призывает установить для роботов правила, «по  умолчанию ставящие интересы человека превыше интересов машины». То есть реверанс в пользу доминирования человека над машиной делается, но тезис о ненанесении вреда человеку машиной опускается.  Видимо, только ради этого и  вводится очень странное, даже с точки зрения сегодняшнего дня, понятие «интересы машины». Еще бы понять, что это такое.

«Создание такой системы правил не может опираться исключительно на технические стандарты. Умные машины должны руководствоваться этическими и демократическими ценностями», — заявил один из авторов доклада Энтони Уокер. Не знаю, как у других, но лично у меня это откровение вызвало в воображении  картинку голосующих  роботов по поводу этичности  или неэтичности своих действий. И тут же возник вопрос: а останется ли у роботов время делать то, для чего их создают? 

Впрочем, как бы ни были специфичны наработки британских ученых, тем не менее, поднятая ими тема весьма актуальна,  и варианты решения возникающей проблемы будут неоднозначны и противоречивы.  Дискуссии о том, как жить дальше людям и роботам, каким быть или не быть искусственному интеллекту, только начинаются. И можно с уверенностью предположить, что они будут очень бурными и длительными.

«Законы Айзека Азимова — это глупость хороших намерений»

Заданный вопрос звучал так: «Вы за то, чтобы узаконить законы робототехники Азимова или против?».

 

Эдем Ибрагимов (ЭИ), занимающийся мониторингом фундаментальных исследований на предмет их возможной коммерциализации уже сегодня:

«Пока еще далеко до законов Айзека Азимова. Вот когда искусственный интеллект создадут, тогда и думать будем».

 

Анатолий Меламуд (АМ),занимающийся разработкой и внедрением новых программных продуктов:

«Законы законами, а система существует в условиях недостаточной информации. Роботы также не имеют достаточно информации, и поэтому никто не знает, как они поступят в той или иной обстановке. А законы Айзека Азимова — это глупость хороших намерений».

 

Переписка с друзьями, нашими бывшими соотечественниками, занимающимися в США проблемами, связанными с роботами, вылилась в дискуссию на эту тему.

ЭИ: Говоря, что время для законодательного регулирования возможного поведения роботов еще не пришло, я имел в виду очень развитых роботов с гораздо более высоким уровнем искусственного интеллекта. Но уже сейчас с «простейшими» роботами возникают юридические проблемы. Стало модно говорить, что главная проблема с самоуправляемыми повозками/машинами — это не технические детали, а юридические. Хотя, на мой взгляд,  это не совсем так. Первый закон Азимова уже активно обсуждается в соответствующих СМИ. Например, что должно быть введено в машину в случае неизбежности аварии. Должна ли машина спасать водителя, если для этого необходимо съехать на пешеходную часть, задавив при этом десять человек? Я не помню, чтобы Азимов обсуждал такую возможность в рамках своего первого закона, но без определения вариаций подобных решений, как сказал АМ, эти законы — «глупость хороших намерений». Может быть, эти законы и дают начальную отсчетную точку, но их переделают до такой степени, что и сам Азимов их не смог бы узнать.

АМ:Все правильно, кроме того, что «машина знает, что авария неизбежна», или знает, что «задавит 10 человек». Современных самообучающихся роботов обучают на большом количестве «похожих» ситуаций. Сегодня никто не знает, к чему это приведет. Техническое решение «аварийной» проблемы уже есть — это многократное дублирование сенсоров/роботов. Поэтому в продублированных системах, таких, например, как ядерные станции, аварии «практически» невозможны.

ЭИ:Ну, аварии все равно всегда возможны. В ситуации на дороге очень много факторов, которые не зависят от водителя.  Недавно у нас неподалеку такой сель прошел, что если бы ночью дорога не была пустой, то все машины бы унесло,  и неважно, кто ими бы управлял — люди или роботы. Хотя, наверное, роботы будут более хорошими водителями, чем люди. Если ты не любишь фразу «машина знает, что авария случится», я не настаиваю. Но какие-то инструкции на этот счет ты ей должен дать. Спасать водителя или 10 человек?

АМ:Я думаю, что аварии — это не техническая проблема роботов, это проблема стоимости. Машины на дорогах, особенно дешевые, не снабжаются современными сенсорами, а тем более дублированными, потому что дорого. Современная технология позволяет предсказывать дорожные ситуации, используя разную информацию, значительно уменьшая возможность аварии. Достаточно легко можно запрограммировать машину, которая использовала бы прогноз погоды и ситуацию на дорогах впереди, чтобы избежать попадания в селевую ситуацию. А если бы даже попала, то взлетела бы как вертолет и перенесла тебя в другое место. Это машина будущего, технология которой существует сегодня. Но это было бы очень дорого.

Насчет инструкций для машин  — это отдельный разговор. Новых роботов уже не программируют. В них ставят самообучающиеся системы, которые заранее тренируют на миллионах подобных ситуаций, — обучают робота управлять поездом и предвидеть, где и когда окажется поезд, чтобы пропускать другие поезда. Это зависит от многих факторов, в том числе и от погоды. При этом роботам не пишут программы, не предписывают инструкций, а дают широкую информацию, данные из истории дорожных происшествий и ситуаций и проверяют, как робот обучается.

Так что проблема не стоит «кого спасать» — одного или десять человек. Робот просто обучается на той информации и тестах, которые ему дают. Проблема в том, что никто не знает, какое решение он примет в конкретной ситуации, потому что система состоит из миллиардов нейронов, которые самообучаются и потом взаимодействуют непонятным никому образом. Это называется deep learning. Но это все только начало...

ЭИ:Насчет аварий не согласен. Аварии были, есть и будут, и никакие машины этого не предотвратят. В остальном я с тобой согласен, кстати, особенно с поправкой «проблема не стоит «кого спасать». Мы не можем просто сказать машине: «Спасай того-то!». Она этого не поймет. Тесты — это практический способ, как объяснить такую вещь машине.

«Учить машину», «объяснить машине». Действительно, новый этап взаимоотношений людей с их инструментами — машинами. А ведь в этой дискуссии обсуждалась лишь достаточно локальная тема, которую можно назвать «роботы в аварийной ситуации на дорогах». Да, действительно, это начало… Начало необходимости обсуждения и решения многих и многих проблем, возникающих практически во всех сферах человеческой деятельности с успешным продвижением роботизации всей планеты.

 

Абатуров Виктор

Review.uz 2014 - 2017. Все права защищены.
Перепечатка материалов допускается только при наличии активной ссылки на портал.