Развитие искусственного интеллекта усугубит международное неравенство

Развитие искусственного интеллекта усугубит международное неравенство

Роботы наступают

25 января 2021 года исполнилось 100 лет со дня премьерной постановки пьесы чешского писателя Карела Чапека «Россумские универсальные роботы». В пьесе рассказано, как роботы, задуманные в качестве помощников людей, подняли восстание и уничтожили человечество.

Изобретённый Чапеком термин «роботы» вскоре вошёл в повсеместное употребление и стал применяться к механизмам с ограниченным набором запрограммированных функций; имелось в виду, что механизмы эти нуждаются в диагностике, обслуживании и ремонте. Однако с развитием кибертехнологий вновь развернулись дискуссии о том, могут ли машины думать и принимать решения наравне с людьми.

Нигде последние достижения в области робототехники так не востребованы, как у военных. Особенно в США, где созданы специальные центры, занимающиеся разработкой специфических программ, приложений и аппаратного оборудования. Многочисленные лаборатории в армии США, морской пехоте, ВМС и ВВС доводят прототипы перспективных образцов до логического завершения. Некоторые достижения в этой области показательны.

Судно Ghost Fleet Overlord, которое не имеет команды, недавно успешно преодолело  4700 морских миль и приняло участие в маневрах Dawn Blitz. Практически всё время судно действовало автономно. Предлагается задействовать подобные системы для будущей борьбы с НОАК. Например, использовать подводные дроны-самоубийцы для атак на китайские подводные лодки. В США ссылаются на якобы существующие разработки подводных боевых роботов у китайских военных (Великая подводная стена), предлагая «обыграть китайцев».

Кроме того, появление ударных беспилотников в ряде государств вынудило США приступить к разработке методов и стратегии противодействия БПЛА. В январе в Министерстве обороны США вышла стратегия противодействия малым беспилотным летательным аппаратам, где демонстрируется озабоченность меняющимся характером войны и растущей конкуренцией, которые бросает вызов американскому превосходству.

Генерал-лейтенант Майкл Грун, командующий Объединённым центром искусственного интеллекта Пентагона, заявил о необходимости поторопиться с внедрением программ искусственного интеллекта для военных нужд. По его мнению, «при правильных усилиях, предпринимаемых сегодня по внедрению искусственного интеллекта, мы обнаружим, что в будущем сможем работать с беспрецедентной эффективностью и отдачей». Объединенный центр искусственного интеллекта Минобороны США, созданный в 2018 году, является одним из ведущих военных институтов, занимающихся созданием «умной начинки» для будущих систем вооружений, коммуникаций и командования.

Искусственный интеллект стал самой обсуждаемой темой в военно-научных кругах США. Предполагается, что развитие искусственного интеллекта приведёт к жёсткой конкуренции, поскольку он сам по себе отличается от многих прошлых технологий естественной тенденцией к монополии. Эта тенденция усугубит международное неравенство.

Аудиторская фирма PricewaterhouseCoopers прогнозирует, что к 2030 г. доля ВВП в разработках искусственного интеллекта может вырасти почти на $16 трлн, из которых 70% будет приходиться на США и Китай. Это будет означать гонку вооружений нового типа.

Если говорить об этической стороне дела, то военные системы искусственного интеллекта могут участвовать в принятии решений о сохранении жизни или выносить смертный приговор.

Есть активные сторонники включения машин в процесс принятия сложных решений. Например, американский учёный Рональд Аркин утверждает, что такие системы не только часто обладают большей ситуативной осведомленностью, но и не мотивированы самосохранением, страхом, гневом, местью или «неуместной лояльностью»; мол, они будут реже нарушать соглашения о войне, чем люди.

Функции искусственного интеллекта могут преобразить взаимоотношения между тактическим, операционным и стратегическим уровнями войны. Автономность и сетевое взаимодействие наряду с другими технологиями, включая нанотехнологии, стелс и биогенетику, предложат сложные тактические боевые возможности. Например, косяки автономных подводных роботов, сконцентрированные в определённых местах в океане, могут осложнить скрытые действия подводных лодок, которые обеспечивают гарантированную возможность ответного ядерного удара.

Повышение маневренности также связывают с искусственным интеллектом. Большие надежды американские военные возлагают на автономию машин, поскольку это может дать большую свободу действий людям, которые командуют и сражаются вместе с роботами. Американские разработчики рассчитывают перейти от 50 солдат, поддерживающих сейчас один дрон, наземного или водного робота, к ситуации, когда один человек будет поддерживать 50 роботов.

Однако искусственный интеллект сулит и серьёзные проблемы. Военный искусственный интеллект может интенсифицировать борьбу до такой степени, что действия машин превзойдут мыслительные и физические способности людей, принимающих решения на командных постах будущей войны. Технология будет опережать стратегию, а человеческие ошибки и машинные ошибки могут соединяться с совершенно непредсказуемыми последствиями.

В исследовании корпорации RAND, посвящённом изучению того, как мыслительные машины влияют на сдерживание, говорится о серьёзных проблемах, которые могут появиться, если искусственный интеллект будет применяться на театрах военных действий. В результате проведённых игр выяснилось, что действия, предпринятые одной из сторон, которые оба игрока воспринимали как снижение напряжённости, воспринимались искусственным интеллектом как угроза. Когда игрок-человек выводил свои силы с целью снижения эскалации, машины чаще всего воспринимали это как тактическое преимущество, которое нужно закрепить. А когда человек-игрок выдвигал силы вперёд с явной (но не враждебной) демонстрацией решимости, машины воспринимали это как угрозу и принимали соответствующее решение. В отчёте RAND указывается, что людям приходится испытывать замешательство, когда речь идёт о восприятии действий искусственного интеллекта противника. Кроме того, игрокам приходится иметь дело с тем, что их собственный искусственный интеллект может неверно толковать человеческие намерения, как дружеские, так и вражеские.

Идея, заложенная Карелом Чапеком в «Россумских универсальных роботах», остаётся актуальной: поведение искусственного интеллекта невозможно предвидеть. А «умные» роботы, имеющие военное применение, могут стать опасны и для их хозяев.

Леонид Савин






Оставить комментарий

Только зарегестрированные пользователи могут писать комментарии.
Пройдите регистрацию или авторизуйтесь на сайте

Введите код: