Почему военным не стоит доверять искусственному интеллекту в стратегии
“Нужен человеческий разум, чтобы принимать моральные и этические решения”"Вам нужен человеческий разум, чтобы принимать моральные, этические и интеллектуальные решения в невероятно запутанной, чреватой, пугающей ситуации", - сказал Джон Линдсей, доцент Школы кибербезопасности и конфиденциальности и Школы международных отношений им. Сэма Нанна
В основе принятия решений ИИ лежат четыре ключевых компонента: данные о ситуации, интерпретация этих данных, определение наилучшего способа действия в соответствии с целями и ценностями и действие. Развитие машинного обучения упростило прогнозирование, что делает данные и суждения еще более ценными. Хотя ИИ может автоматизировать все - от торговли до транзита, суждение - это тот случай, когда человек должен вмешаться, считают Линдсей и профессор Университета Торонто Ави Голдфарб.
"Условия, при которых ИИ работает в коммерции, труднее всего обеспечить в военной среде из-за ее непредсказуемости", – считают они
На войне, как правило, нет большого количества объективных данных, а суждения о целях и ценностях по своей сути противоречивы, но это не значит, что это невозможно. Исследователи утверждают, что ИИ лучше всего использовать в бюрократически стабилизированной обстановке в зависимости от конкретной задачи.
Конкуренция с ИИ может подтолкнуть противников к манипулированию или нарушению данных, чтобы сделать обоснованное суждение еще более трудным. Таким образом, вмешательство человека станет еще более необходимым, считают исследователи.