Подписаться RSS 2.0 |  Реклама на портале
Контакты  |  Статистика  |  Обратная связь
Поиск по сайту: Расширенный поиск по сайту
Регистрация на сайте
Авторизация

 
 
 
   Чужой компьютер
  • Напомнить пароль?


    Навигация


    Важные темы

    в данной ситуации начавшие операцию отряды ССО, во-первых, имели ограниченную задачу — занять и


    Неприятная для Запада реальность ситуации на украинском фронте доходит до все большего количества


    У Украины давно нет ни собственных снарядов, ни техники, ни денег. И люди заканчиваются. И западная


    Джозеф Робинеттович настоятельно и жестко потребовал от Конгресса США принять его план по спасению


    ... Все последние годы Россия в ответ на кривляния- беснования непартнеров сохраняла холодное


    Реклама









    » Искусственный интеллект убьет, а не спасет. Проверено в США.

    | 23 марта 2020 | Армия и конфликты | | Просмотров: 349 | автор: MGM

    По мере развития технологий искусственного интеллекта все большей популярностью начинает пользоваться идея его использования в военном деле. Считается, что ИИ внимательнее, четче в принятии решений и значительно быстрее в их реализации. А еще он опирается на значительно более широкую базу знаний, чем может быть опыта у человека. 

    Единственная проблема – страх отдать компьютеру право на самостоятельное открытие огня. Все ранее проводимые такие эксперименты заканчивались плачевно. Сбой в программе и ЧП, часто даже с человеческими жертвами.

    Но сама по себе идея продолжала жить, особенно актуализируясь в кризисные времена. В том числе в виде переноса ИИ с тактического на стратегический уровень. То есть решение «нажать кнопку» остается за человеком, но обработка массива входящих данных и выработка оптимальной стратегии доверяется ИИ.

    На днях корпорация RAND, с привлечением специалистов Пентагона, провела командно-штабную военную игру по вполне реалистичному сценарию. Пользуясь ослаблением главного геополитического конкурента Китай предпринимает попытку расширения зоны своего полного контроля в регионе. США и их главный союзник в АТР – Япония – пытаются такое не допустить. Решения на уровне начальников баз, командиров кораблей, подводных лодок, сухопутных частей и авиационных подразделений принимали люди, но общую картину, на основе которой они это делали, формировал ИИ.

    Предполагалось, что обе стороны начинать глобальную ядерную войну не желают и в своих действиях всячески стремятся от критической эскалации уклониться. Но практика учений показала, что в случае использования ИИ в стратегическом звене, дело неизбежно заканчивается обменом глобальными ядерными ударами.

    Расхождения начинались уже на начальном этапе первых бескровных инцидентов с беспилотниками. Люди пытались максимально избегать шагов, ведущих к неизбежному усилению ответной реакции, тогда как ИИ руководствовался только целесообразностью достижения единственной главной цели – пресечь действия оппонента и вернуть стратегическое положение на карте к докризисному состоянию.

    Даже при минимальном стремлении к эскалации насилия компьютер более чем на порядок быстрее переходил к жестким силовым действиям, либо сопряженным с высоким риском человеческих потерь у противника, либо прямо их предполагающих. В результате этап мелких инцидентов, эскалацию ответа на котором людям еще удавалось сгладить, преодолевался чрезвычайно быстро и войска начинали получать «оборонительные» приказы откровенно агрессивного свойства. В том числе при действиях в нейтральных водах и ничейном воздушном пространстве. После чего случался какой-нибудь крупный инцидент, вроде потопления американо-японскими силами ПЛО китайской ракетной подводной лодки в районе островов Спратли. Что в итоге оказалось спусковым крючком роста жесткости ответа, вынуждавшего к еще большей жесткости, чтобы еще большей жесткости. И дальше все заканчивалось обменом стратегическими ядерными ударами, избежать которых люди уже не могли. Алгоритм обработки данных ИИ просто не оставлял им иного выбора.

    В заключении экспериментаторы отметили, что даже гибридные (ИИ + люди) военные системы ведут к коренному изменению эскалационной логики и динамики принятия решений. Причем главным фактором негативной неопределенности становится не противник, а именно искусственный интеллект, логика действий которого остается людям непонятной. Даже учитывая тот факт, что люди сами же создают и программируют ИИ.



    Комментарии (0) | Распечатать | | Жалоба

    Источник: https://alex-leshy.livejournal.com/1457873.html

    Голосовало: 0  
     
    Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.

    Другие новости по теме:

     

    » Добавление комментария
    Ваше Имя:
    Ваш E-Mail:
    Код:
    Кликните на изображение чтобы обновить код, если он неразборчив
    Введите код:

     


    На портале



    Наш опрос
    Чем вы готовы пожертвовать ради России в противостоянии с Западом?




    Показать все опросы

    Облако тегов
    Австралия Австрия Азербайджан Аргентина Армения Афганистан Африка БРИКС Балканы Белоруссия Ближний Восток Болгария Бразилия Британия Ватикан Венгрия Венесуэла Германия Греция Грузия ЕАЭС Евросоюз Египет Израиль Индия Ирак Иран Испания Италия Казахстан Канада Киргизия Китай Корея Латинская Америка Ливия Мексика Молдавия НАТО Новороссия Норвегия ООН Пакистан Польша Прибалтика Приднестровье Румыния СССР США Саудовская Аравия Сербия Сирия Турция Узбекистан Украина Финляндия Франция Чехия Швеция Япония

    Политикум пишет









    Реклама

    Популярные статьи














    Главная страница  |  Регистрация  |  Добавить новость  |  Новое на сайте  |  Статистика  |  Обратная связь
    COPYRIGHT © 2014-2023 Politinform.SU Аналитика Факты Комментарии © 2023
    Top.Mail.Ru