Минобороны выступило за запрет использования алгоритмов генеративного искусственного интеллекта (ChatGPT и пр.)

Министерство обороны России выразило озабоченность в отношении использования алгоритмов генеративного искусственного интеллекта, таких как ChatGPT. Они считают, что такие технологии представляют угрозу национальной безопасности, поскольку могут использоваться для введения россиян в “когнитивные ловушки”, манипулировать ими с помощью дезинформации или даже собирать и передавать личные данные иностранным разведывательным агентствам, таким как ЦРУ или MI5. Также были выражены опасения по поводу технологий, подобных DeepFake, которые, по мнению министерства, способны манипулировать россиянами и подвергать их пропаганде.

Минобороны утверждает, что такие технологии ИИ могут использоваться в двойных целях, аналогично ядерным технологиям, и подчеркивает важность разработки Россией собственных аналогичных инструментов. Упоминается существующая российская нейросеть Кандинский, которую они называют “русским DALL-E”.

Кроме того, министерство высказало конкретные опасения, такие как потенциальное использование этих технологий ИИ странами НАТО для влияния на мышление россиян и риски, представляемые открытыми языковыми моделями в утечке частей обучающих данных, которые могут включать личные и конфиденциальные сведения.

Позиция Минобороны включает предостережение против интеграции иностранных моделей ИИ, особенно крупных языковых моделей, в критически важные системы, такие как системы поддержки принятия решений, медицина, военное дело и критическая информационная инфраструктура в России. Они выступают за разработку внутренних, доверенных систем с ГИИ

LEAVE A RESPONSE

Ваш адрес email не будет опубликован. Обязательные поля помечены *