Подписаться RSS 2.0 |  Реклама на портале
Контакты  |  Статистика  |  Обратная связь
Поиск по сайту: Расширенный поиск по сайту
Регистрация на сайте
Авторизация

 
 
 
   Чужой компьютер
  • Напомнить пароль?


    Навигация


    Важные темы

    Те силы, которые хотят свалить Путина, понимают, что их единственный шанс — натравить народ на


    Итак, почти во всех более-менее экономически развитых странах введены ограничения, связанные с


    Мы живем в захватывающие времена. Неизвестность, которая ожидает всех нас, способна взволновать и


    То, что происходит сейчас, это глобальный слом миропорядка. Совсем не важно, рукотворна ли природа


    Полагаю, что это - очень интересная аналитическая статья по поводу происходящих вокруг событий. В


    Реклама






    Добавить новость в:




    » Искусственный интеллект убьет, а не спасет. Проверено в США.

    | 23 март 2020 | Армия и конфликты |

    По мере развития технологий искусственного интеллекта все большей популярностью начинает пользоваться идея его использования в военном деле. Считается, что ИИ внимательнее, четче в принятии решений и значительно быстрее в их реализации. А еще он опирается на значительно более широкую базу знаний, чем может быть опыта у человека. 

    Единственная проблема – страх отдать компьютеру право на самостоятельное открытие огня. Все ранее проводимые такие эксперименты заканчивались плачевно. Сбой в программе и ЧП, часто даже с человеческими жертвами.

    Но сама по себе идея продолжала жить, особенно актуализируясь в кризисные времена. В том числе в виде переноса ИИ с тактического на стратегический уровень. То есть решение «нажать кнопку» остается за человеком, но обработка массива входящих данных и выработка оптимальной стратегии доверяется ИИ.

    На днях корпорация RAND, с привлечением специалистов Пентагона, провела командно-штабную военную игру по вполне реалистичному сценарию. Пользуясь ослаблением главного геополитического конкурента Китай предпринимает попытку расширения зоны своего полного контроля в регионе. США и их главный союзник в АТР – Япония – пытаются такое не допустить. Решения на уровне начальников баз, командиров кораблей, подводных лодок, сухопутных частей и авиационных подразделений принимали люди, но общую картину, на основе которой они это делали, формировал ИИ.

    Предполагалось, что обе стороны начинать глобальную ядерную войну не желают и в своих действиях всячески стремятся от критической эскалации уклониться. Но практика учений показала, что в случае использования ИИ в стратегическом звене, дело неизбежно заканчивается обменом глобальными ядерными ударами.

    Расхождения начинались уже на начальном этапе первых бескровных инцидентов с беспилотниками. Люди пытались максимально избегать шагов, ведущих к неизбежному усилению ответной реакции, тогда как ИИ руководствовался только целесообразностью достижения единственной главной цели – пресечь действия оппонента и вернуть стратегическое положение на карте к докризисному состоянию.

    Даже при минимальном стремлении к эскалации насилия компьютер более чем на порядок быстрее переходил к жестким силовым действиям, либо сопряженным с высоким риском человеческих потерь у противника, либо прямо их предполагающих. В результате этап мелких инцидентов, эскалацию ответа на котором людям еще удавалось сгладить, преодолевался чрезвычайно быстро и войска начинали получать «оборонительные» приказы откровенно агрессивного свойства. В том числе при действиях в нейтральных водах и ничейном воздушном пространстве. После чего случался какой-нибудь крупный инцидент, вроде потопления американо-японскими силами ПЛО китайской ракетной подводной лодки в районе островов Спратли. Что в итоге оказалось спусковым крючком роста жесткости ответа, вынуждавшего к еще большей жесткости, чтобы еще большей жесткости. И дальше все заканчивалось обменом стратегическими ядерными ударами, избежать которых люди уже не могли. Алгоритм обработки данных ИИ просто не оставлял им иного выбора.

    В заключении экспериментаторы отметили, что даже гибридные (ИИ + люди) военные системы ведут к коренному изменению эскалационной логики и динамики принятия решений. Причем главным фактором негативной неопределенности становится не противник, а именно искусственный интеллект, логика действий которого остается людям непонятной. Даже учитывая тот факт, что люди сами же создают и программируют ИИ.



    Комментарии (0) | Распечатать | | Жалоба

    Источник: https://alex-leshy.livejournal.com/1457873.html

    Голосовало: 0  


    Или через КИВИ кошелёк

     
    Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.

    Другие новости по теме:

     

    » Добавление комментария
    Ваше Имя:
    Ваш E-Mail:
    Код:
    Кликните на изображение чтобы обновить код, если он неразборчив
    Введите код:

     


    На портале



    Наш опрос
    Чем вы готовы пожертвовать ради России в противостоянии с Западом?




    Показать все опросы

    Облако тегов
    Австралия Австрия Азербайджан Аргентина Армения Афганистан Африка БРИКС Балканы Белоруссия Ближний Восток Болгария Бразилия Британия Ватикан Венгрия Венесуэла Германия Греция Грузия ЕаЭС Евросоюз Египет Израиль Индия Ирак Иран Испания Италия Казахстан Канада Киргизия Китай Корея Латинская Америка Ливия Мексика Молдавия НАТО Новороссия Норвегия ООН Пакистан Польша Прибалтика Приднестровье Румыния СССР США Саудовская Аравия Сербия Сирия Турция Узбекистан Украина Финляндия Франция Чехия Швеция Япония

    Реклама



    Фито Центр











    Популярные статьи

    Главная страница  |  Регистрация  |  Добавить новость  |  Новое на сайте  |  Статистика  |  Обратная связь
    COPYRIGHT © 2014-2020 Politinform.SU Аналитика Факты Комментарии © 2019