Почему не стоит бояться восстания роботов

Почему не стоит бояться восстания роботов

Спросите у любого человека на улице, чем может быть опасен искусственный интеллект. Скорее всего, вы получите ответ: «Роботы восстанут и всех нас уничтожат». Восстание роботов — самый популярный мотив на тему опасностей ИИ в массовой культуре. Это хороший сюжет для фильма, но реальное восстание ИИ, скорее всего, будет выглядеть прозаичнее.

Философ Ник Бостром описал в своей одноименной книге концепцию «суперинтеллекта» — сильного самообучаемого ИИ, который может обрести свою волю. Бостром считает, что благодаря самообучению у суперинтеллекта могут появиться свои потребности и цели. Не исключено, что для достижения своих целей он использует людей, а в самом пессимистичном сценарии и уничтожит другие, «живые» интеллекты — то есть нас.

Почему нам не стоит бояться восстания ИИ?

В первую очередь потому что роботов программируют люди. Исследователь машинного обучения Педро Домингос пишет в своей книге «Верховный алгоритм»: «Шансы, что искусственный интеллект, вооруженный Верховным алгоритмом, захватит мир, равны нулю. Причина проста: в отличие от людей, компьютеры не обладают собственной волей. Они порождение инженеров, а не эволюции. Даже бесконечно мощный компьютер будет всего лишь продолжением нашей воли, и бояться нам нечего».

Марк Цукерберг сформулировал это предельно четко в одном из интервью: «Созданные нами машины по умолчанию служат человеку, и это не должно измениться, если мы будем делать все правильно». Он также обращает внимание на разницу между «слабым» и «сильным» ИИ:

«Если мы можем создать машину, которая делает что-то лучше, чем человек, это еще не значит, что она сможет сама открывать новые знания, связывать разные типы информации или контекста или делать сверхчеловеческие вещи. Это очень важно понимать».

Об этом стоит сказать подробнее. Все те «искусственные интеллекты», о которых мы регулярно читаем в новостях («ИИ победил профессионального пилота в воздушном бою», «ИИ победил человека в го», «ИИ нарисовал картину Рембрандта»), — это так называемые слабые ИИ — узкоспециализированные программы, умеющие решать ограниченный спектр задач, для которых они были созданы. Искусственный интеллект, известный нам из книг и фильмов, называют сильным ИИ. Сильный ИИ — это, грубо говоря, настоящий интеллект, сравнимый с человеческим, а то и превосходящий его. Сильный ИИ — это философский камень компьютерных наук. Даже самые оптимистично настроенные разработчики признают, что до создания реального ИИ пока очень далеко. Хотя бы по той причине, что науке не до конца известно, как устроены человеческий мозг и мышление. А моделировать что-то, не зная, как это устроено, очень сложно, какими радужными ни казались бы перспективы машинного обучения.

О чем нам действительно стоит переживать?

Несмотря на то что сильного ИИ в обозримом будущем не предвидится, слабый ИИ тоже может принести человечеству много проблем.

Например, ИИ может попасть в плохие руки. Супероружием XX века было ядерное оружие. Ему на смену придет ИИ. Недавно программа ALPHA победила опытного пилота на симуляторе воздушного боя. ALPHA определяет тактический план воздушного боя в 250 раз быстрее человека, может одновременно уклоняться от десятков враждебных ракет, совершать точные выстрелы по нескольким целям и наблюдать за противником. Если подобное оружие попадет в руки диктаторов или агрессоров, это приведет к невиданной ранее высокотехнологичной и разрушительной войне. Более того, мощнейшее интеллектуальное оружие может стать массово доступным.

Его смогут использовать преступники, террористы, психи и все, кто сможет себе это позволить. Никакие законы не могут гарантировать, что это не случится.

Даже оставаясь в надежных руках, ИИ может быть использован не для самых лучших целей. Недавно известный ученый Стивен Хокинг рассказал в интервью Ларри Кингу о своих опасениях по поводу развития ИИ. Хокинг наряду с Илоном Маском и Стивом Возняком — один из многих публичных интеллектуалов, обеспокоенных милитаризацией ИИ. «Правительства вовлечены в гонку вооружений ИИ: они разрабатывают оружие и самолеты с помощью умных технологий. Финансирование более полезных для человечества проектов, например ранней диагностики заболеваний, имеет намного низший приоритет», — говорит Хокинг. Он уверен, что искусственный интеллект мог бы приносить больше пользы людям: «Представьте себе алгоритмы, способные быстро обрабатывать идеи ученых, диагностировать рак и прогнозировать события на фондовых рынках».

Технологии ИИ уже создают вокруг нас мир невиданной ранее прозрачности, к которому мы, возможно, еще не готовы. Сервис распознавания лиц FindFace, основанный на нейросетях, стал поводом для многих громких новостей. С его помощью фотограф находил в соцсетях случайных пассажиров метро. Двачеры использовали FindFace для травли порноактрис. Самое интересное впереди: сейчас технологию распознавания лиц FindFace внедряют в систему городского видеонаблюдения Москвы. По словам разработчиков, программа будет не только находить в толпе разыскиваемых людей (преступников или пропавших без вести), но и автоматически определять подозрительное поведение незнакомых прохожих. Со временем подобные сервисы станут доступными любому. Готовы ли мы к жизни в обществе, где нет границы между частным и публичным?

Чем больше мы полагаемся на ИИ, тем больше риск поломки или взлома важных систем. Главное правило безопасности в подключенном мире звучит так: «Все, что может быть подключено, может быть взломано».  Представьте себе ситуацию, в которой злоумышленники захотят убить вас с помощью вашего умного дома. А если речь идет о системе управления атомной электростанцией? Со временем все больше сложных промышленных и инфраструктурных систем будут управляться программами с искусственным интеллектом, и тогда к их физическим уязвимостям добавятся киберугрозы. Уже сейчас можно оставить без света целую область, находясь за тысячи километров от нее.

Автоматизация оставит представителей многих профессий без работы. Для сторонников свободного рынка это неприятная тема: в их парадигме любая инновация, ломающая существующий порядок вещей, — благо (созидательное разрушение по Шумпетеру). Да, в перспективе человечество все равно будет в выигрыше. Технологии не только уничтожают, но и создают новые рабочие места, профессии и целые отрасли. Технооптимисты любят повторять: если бы человечество сдерживало прогресс ради сохранения рабочих мест, 90% людей сейчас занимались бы сельским хозяйством. Но между радужным будущим и настоящим — сложный и плохо прогнозируемый переходный период, во время которого сотни миллионов, а может, и миллиарды людей потеряют работу и средства к существованию. Это может привести к глубочайшему социально-экономическому кризису в истории человечества. Технооптимисты скажут: всех спасет безусловный базовый доход, работа — для машин, жизнь — для людей. С развитыми странами все понятно. Но кто будет выплачивать деньги жителям остальных стран? Мировое правительство? При критическом рассмотрении переход всей мировой экономики на безусловный базовый доход кажется еще более утопичным, чем полет на Марс.

5652406766_74a59993e7_o

У автоматизации труда есть еще одно неочевидное, но очень серьезное последствие: она усугубит неравенство между богатыми и бедными странами. Чем больше низкоквалифицированного труда в стране, тем больше риск его автоматизации. Если Великобритании грозит автоматизация всего 48% рабочих мест, то Эфиопии — целых 85% (по оценкам исследователей из Оксфорда). Развитые страны будут повышать производительность экономики, автоматизируя все новые отрасли производства. Самые благополучные рано или поздно придут к безусловному базовому доходу. Для остальных картина выглядит не так радужно. Из-за стремительной автоматизации труда рабочие места в развивающихся странах будут исчезать до того, как эти страны разбогатеют, — исследователи из Оксфорда называют это преждевременной деиндустриализацией.

Одной из причин экономического роста таких стран, как Китай и Южная Корея, было предоставление дешевой рабочей силы развитым западным экономикам. Из-за роботизации этот путь развития может стать недоступным развивающимся странам Африки, Азии и Латинской Америки.

При этом всевозможные коллизии, которые могут произойти вследствие ошибок и неверных решений систем ИИ, пока юридически никак не регулируются. Классический вопрос: как должен действовать робот, если при любом раскладе человеческие жертвы неизбежны? Параллельно с робототехникой (а возможно, и опережая ее) должна развиваться робоэтика — наука о том, как должны вести себя роботы. Робототехническое право должно определить, кто несет ответственность за ошибки ИИ: разработчик, оператор или сам агент ИИ (не исключено, что в будущем роботы тоже могут стать субъектами права). Разработчикам нужны четкие правила разработки интеллектуальных систем. Но пока разработки в этом направлении только идут, а несчастные случаи уже происходят: автопилот Tesla не спас водителя от смертельной аварии, робот в калифорнийском торговом центре сбил с ног и переехал годовалого ребенка. Правила современной робототехники пишутся кровью, как бы фатально это ни звучало.

Что со всем этим делать?

Разработанные недавно правила безопасности ИИ от Google и правила сотрудничества ИИ и человека от CEO Microsoft Сатьи Наделлы сильно отличаются от трех законов робототехники, придуманных писателем Айзеком Азимовым в середине прошлого века. Реальные проблемы робототехники оказались намного сложнее, чем мог предположить Азимов. Более того, роботы и алгоритмы уже давно используются для уничтожения людей. Наши взгляды на разработку ИИ должны идти в ногу со временем, а не застревать в 60-х.

Совместная разработка ведущими компаниями и правительствами правил робототехники и робоэтики сможет предотвратить Робоармагеддон. Напомним: чтобы роботы восстали, нужно, чтобы их неправильно запрограммировали. Правильное юридическое регулирование отрасли поможет избежать неприятных казусов, когда никто не несет ответственности за ошибку, совершенную интеллектуальной системой.

Недавно подразделение Google DeepMind совместно с Оксфордским институтом будущего представило концепцию «красной кнопки», позволяющей выключить роботизированную систему в случае, если она может нанести вред себе или окружающим. Не исключено, что в будущем подобие такой «красной кнопки» будут встраивать во все интеллектуальные системы.

rusty-robot-1505297

Реальность интереснее Скайнета

Развитие искусственного интеллекта несет несравненно больше преимуществ, чем опасностей. Давайте отставим в сторону фантазии о сверхразуме и посмотрим вокруг: даже слабые ИИ значительно облегчают нашу жизнь. ИИ используют для диагностики и лечения сложных заболеваний (Домингос пишет: ни один живой ученый не способен найти лекарство от рака просто из-за сложности и объема данных, которые нужно обработать; с этой задачей может справиться только ИИ), защиты от киберпреступлений (DARPA проводит конкурс среди компьютерных систем, способных находить и исправлять уязвимости, — вот где настоящая фантастика!), экономии энергии (Google сэкономил 15% электроэнергии, передав управление датацентрами ИИ). Благодаря машинному обучению вы можете перевести любой пост в Facebook в один клик; Google Translate тоже использует машинное обучение. Технологии ИИ становятся для нас чем-то незаметным, но жизненно важным, как электричество.

Фантаст Артур Кларк (кстати, тоже составивший свои три закона) сказал: любая достаточно развитая технология неотличима от магии. Латвийский художник, спроектировавший робота с помощью нейросети, говорит: «Робот, созданный искусственным интеллектом, — это звучит завораживающе и даже мистически. Сегодняшние технологии граничат с чудесами».

Не стоит бояться киношного восстания роботов. Лучше оглянитесь вокруг и оцените, в какую магию превращается наша жизнь благодаря технологиям.

Мадуро обвинили в госперевороте, глава парламента призвал к протестам. Что происходит в Венесуэле

Почему не стоит вводить «пункты трезвости» и уголовную ответственность для водителей

Самые интересные образовательные события в Киеве 17–21 апреля

Что такое современное государство и что с ним не так

«Мы должны защищать украинский язык — но не законами»: интервью ведущего и журналиста Андрея Куликова

Что нужно знать о кандидате в президенты Франции Жане-Люке Меланшоне

Самые интересные образовательные события в Киеве 10–14 апреля