Фонд «Центр Защиты Прав СМИ»
Защищаем тех,
кто не боится говорить

Нейросеть закачала игры. Искусственный интеллект предложили подключить к их мониторингу

Настоящий материал (информация) произведен и (или) распространен иностранным агентом Фондом «Центр Защиты Прав СМИ» либо касается деятельности иностранного агента Фонда «Центр Защиты Прав СМИ»

Подведомственный Роскомнадзору Главный радиочастотный центр (ГРЧЦ) предложил использовать искусственный интеллект (ИИ) для мониторинга контента видеоигр. Нейросети должны сократить время на поиск запрещенной информации, например наличия в игре сценариев и сюжетов, содержащих детскую порнографию, призывы к совершению самоубийств и употреблению наркотиков. В случае реализации инициатива может повлиять на доступность видеоигр и игровых платформ для пользователей, считают эксперты.

“Ъ” ознакомился с исследованием Научно-технического центра (НТЦ) ГРЧЦ, посвященным мировому опыту регулирования и применения ИИ.

В нем аналитики центра, в частности, предлагают использовать ИИ для защиты граждан, и в первую очередь детей, от вредоносной информации путем мониторинга внутриигрового контента.

В ГРЧЦ “Ъ” пояснили, что в качестве примеров такой информации можно привести наличие в игре сценариев и сюжетов, содержащих детскую порнографию, призывы к совершению самоубийств и употреблению наркотиков. «Игры становятся сложнее, а человек не может охватить всю полноту предлагаемых сюжетных развилок»,— говорит руководитель НТЦ ГРЧЦ Александр Федотов. Существуют игры с глубокими продуманными вселенными, в которых есть свои мифология, история, фольклор и книжные произведения, «для изучения подобного контента можно потратить сотни или тысячи часов, что для человека сложно», отмечает он. В ГРЧЦ уточнили, что ИИ может использоваться как рекомендательный сервис, но решение по каждому признаку нарушения должно приниматься экспертом на основании всей имеющейся информации.

Активное внедрение технологий ИИ подтверждает актуальность исследования ГРЧЦ, считают в Роскомнадзоре. При этом этика требует, чтобы алгоритмы находились под контролем и надзором человека, чтобы их использование не приводило к нарушению прав и свобод граждан, отметили в ведомстве. Ранее глава Роскомнадзора Андрей Липов рассказал в интервью “Ъ”, что искусственный интеллект может повысить эффективность мониторинга телеэфира, радио и сети (см. “Ъ” от 25 мая).

То, что предлагают сделать в ГРЧЦ,— это нейросетевая вспомогательная программа для автотестов, когда алгоритм сам пробегает по всем уровням игры, со всеми говорит и в итоге выдает отчет, в том числе с технической информацией, объясняет продюсер студии Owlcat Games Максим Фомичев.

При использовании комбинации нескольких нейросетей анализировать контент в играх и выявлять противоречивые моменты возможно, «основная сложность, что для каждой новой игры необходимо тренировать отдельную сеть, которая будет учиться ее проходить», говорит руководитель Liquid Studio Accenture в России Арсений Кондратьев. С учетом текущих аппаратных возможностей, скорее всего, это займет месяцы, а также придется задействовать очень много серверов, полагает эксперт. Исходя из этого, скорее всего, технологию будет сложно масштабировать, считает господин Кондратьев.

По мнению основателя портала rawg.io Гаджи Махтиева, подобная инициатива может создать реальные сложности разработчикам игр. «Прогонять большие игры через ИИ на предмет поиска чего-то незаконного или неэтичного в теории возможно, но это в результате может привести к ограничению доступности игры или платформ для их размещения по формальным признакам»,— отмечает он.

Дело в том, что одна из особенностей всех игровых вселенных сегодня — огромное количество UGC (User Generated Content — пользовательский контент), когда сами люди в игре делают то, что им интересно, «и в таком случае манипулировать «незаконным контентом» станет проще, и под санкции можно подтянуть все что угодно, включая сообщения в чате», рассказывает Гаджи Махтиев.

163,4 миллиарда рублей составил российский рынок видеоигр в 2020 году, по данным My.Games.

Сейчас игры перед релизом проходят принятые во всем мире фильтры, возрастные маркировки, проверку со стороны платформ, где они размещаются (PlayStation Store, Steam, AppStore и другие). Кроме того, есть и неформальные фильтры, когда сообщество активно придает огласке те или иные неоднозначные моменты в играх, подчеркивает Гаджи Махтиев. Так, например, объясняет он, было с игрой «Hatred», авторов которой игроки начали обвинять в ультранасилии еще до релиза.

 

Источник: Татьяна Исакова, Юлия Степанова, Коммерсантъ

Фото: pexels.com