«Ростех» объявил о разработке программного обеспечения, которое будет предсказывать массовые беспорядки на основе анализа информации в социальных сетях и СМИ, а также обрабатывать данные с «умных камер». Как объяснили разработчики, система сможет не только выявить угрозу массовых беспорядков, но и предотвратить эскалацию конфликта, если он уже возникнет.
Как общество отреагирует на новую форму контроля? Многое зависит от презентации системы гражданам. Одновременно она может быть воспринята и как Защитник, и как Большой Брат, отмечает политический обозреватель, политконсультант Дарья Полянкина. Запрос на безопасность - один из важнейших, постоянно растущих трендов в обществе. Поэтому многие жители страны могли бы отнестись к новой системе позитивно. В самом деле, кто бы отказался от технологии, способной предотвратить насилие? Однако выбор времени для презентации обществу системы предотвращения массовых беспорядков, на мой взгляд, выбрано неудачно. Информационное поле перегрето новостями о технологических новинках, которые могут изменить привычный уклад жизни. Такой контекст, безусловно, влияет на восприятие людей, вызывает тревогу и недоверие.
Что касается самого проекта, пока сложно понять, как система одновременно сможет анализировать и контент в соцсетях, и сообщения СМИ, и записи камер наблюдения. Даже на уровне обывателя ясно, что к текстам, изображениям и видео не подходят одни и те же критерии оценки.
Не стоит забывать и о том, что любая система контроля провоцирует злоумышленников на изобретение способов ее обхода. С естественным интеллектом технологии преступников вполне справляются: взять хотя бы тех же телефонных мошенников. Об этой угрозе знают все, но от раза к разу они находят новые способы обмана граждан. Справится ли искусственный интеллект, сможет ли в действительности предвосхитить насилие, предотвратить незаконные действия? Смогут ли люди (правоохранители) отреагировать корректно и вовремя? Ведь программа сама по себе никого не удержит от агрессии. И получится ли отличить реальную угрозу от банального выплеска эмоций в соцсетях?
В текущей общественно-политической ситуации, на фоне повышенной тревожности, которую подогревает и затянувшаяся пандемия, в комментариях на различных площадках зачастую присутствует ярко выраженный негатив. Но между словом и делом в вопросах массовых беспорядков лежит колоссальная пропасть, которую многие активные в интернете граждане не перейдут никогда. Поэтому для меня открытым остается вопрос механизма работы описанной системы в части контроля текстов СМИ и соцсетях. Не запустит ли искусственный интеллект лавину сообщений, которые без реальной необходимости будут попадать к силовикам? И не сведется ли всё к тому, что огромный штат специалистов будет вынужден вручную проверять каждое сообщение? Ведь таким образом будут полностью нивелирован фактор скорости реакции.
Стоит также учесть, что для обучения искусственного интеллекта у России недостаточно «своего» материала. Массовые беспорядки – нехарактерная для нашей страны форма протеста. Даже в ходе каких-либо публичных акций эпизоды насилия единичны. А системе надо переработать много примеров, чтобы научиться не только опознавать опасные действия, но и предвосхищать их. Не на французских же видеозаписях тренировать наш искусственный интеллект, в самом деле.
Думаю, на данный момент говорить о скором внедрении подобной системы контроля преждевременно. Но если решение будет принято, и технология покажет работоспособность, перед ее запуском необходимо будет тщательно подготовить общественное мнение и учесть все юридические аспекты. Общество не готово к еще одной контролирующей технологии. Нужна уверенность в том, что ее цель – обезопасить людей. И, конечно, всегда найдутся активные и подчас имеющие широкую аудиторию спикеры, которые представят новую систему не Защитником, а злым и жестоким Большим Братом. Не пользой, а угрозой.
Печать