{headers}
Главная > Армия и конфликты > Искусственный интеллект убьет, а не спасет. Проверено в США.
Искусственный интеллект убьет, а не спасет. Проверено в США.23-03-2020, 18:00. |
По мере развития технологий искусственного интеллекта все большей популярностью начинает пользоваться идея его использования в военном деле. Считается, что ИИ внимательнее, четче в принятии решений и значительно быстрее в их реализации. А еще он опирается на значительно более широкую базу знаний, чем может быть опыта у человека. Единственная проблема – страх отдать компьютеру право на самостоятельное открытие огня. Все ранее проводимые такие эксперименты заканчивались плачевно. Сбой в программе и ЧП, часто даже с человеческими жертвами. Но сама по себе идея продолжала жить, особенно актуализируясь в кризисные времена. В том числе в виде переноса ИИ с тактического на стратегический уровень. То есть решение «нажать кнопку» остается за человеком, но обработка массива входящих данных и выработка оптимальной стратегии доверяется ИИ. На днях корпорация RAND, с привлечением специалистов Пентагона, провела командно-штабную военную игру по вполне реалистичному сценарию. Пользуясь ослаблением главного геополитического конкурента Китай предпринимает попытку расширения зоны своего полного контроля в регионе. США и их главный союзник в АТР – Япония – пытаются такое не допустить. Решения на уровне начальников баз, командиров кораблей, подводных лодок, сухопутных частей и авиационных подразделений принимали люди, но общую картину, на основе которой они это делали, формировал ИИ. Предполагалось, что обе стороны начинать глобальную ядерную войну не желают и в своих действиях всячески стремятся от критической эскалации уклониться. Но практика учений показала, что в случае использования ИИ в стратегическом звене, дело неизбежно заканчивается обменом глобальными ядерными ударами. Расхождения начинались уже на начальном этапе первых бескровных инцидентов с беспилотниками. Люди пытались максимально избегать шагов, ведущих к неизбежному усилению ответной реакции, тогда как ИИ руководствовался только целесообразностью достижения единственной главной цели – пресечь действия оппонента и вернуть стратегическое положение на карте к докризисному состоянию. Даже при минимальном стремлении к эскалации насилия компьютер более чем на порядок быстрее переходил к жестким силовым действиям, либо сопряженным с высоким риском человеческих потерь у противника, либо прямо их предполагающих. В результате этап мелких инцидентов, эскалацию ответа на котором людям еще удавалось сгладить, преодолевался чрезвычайно быстро и войска начинали получать «оборонительные» приказы откровенно агрессивного свойства. В том числе при действиях в нейтральных водах и ничейном воздушном пространстве. После чего случался какой-нибудь крупный инцидент, вроде потопления американо-японскими силами ПЛО китайской ракетной подводной лодки в районе островов Спратли. Что в итоге оказалось спусковым крючком роста жесткости ответа, вынуждавшего к еще большей жесткости, чтобы еще большей жесткости. И дальше все заканчивалось обменом стратегическими ядерными ударами, избежать которых люди уже не могли. Алгоритм обработки данных ИИ просто не оставлял им иного выбора. В заключении экспериментаторы отметили, что даже гибридные (ИИ + люди) военные системы ведут к коренному изменению эскалационной логики и динамики принятия решений. Причем главным фактором негативной неопределенности становится не противник, а именно искусственный интеллект, логика действий которого остается людям непонятной. Даже учитывая тот факт, что люди сами же создают и программируют ИИ. Вернуться назад |