Главная » Экономика » Борис Едидин: угрозы связаны с большим количеством информации о конкретном пользователе

Борис Едидин: угрозы связаны с большим количеством информации о конкретном пользователе

Гигантов ИТ-индустрии многократно обвиняли в злоупотреблении собранной информацией об аудитории, которая в дальнейшем используется ими для настройки своих рекомендательных сервисов. Хотя, с одной стороны, это удобно, когда алгоритм знает обо всех предпочтениях пользователя и предлагает ему подходящий интересный контент. Но с другой —непонятно, как именно обрабатывается информация и как настраиваются и работают рекомендательные сервисы. То есть очевидно, что алгоритмы могут использоваться не только на благо пользователя, но и в манипулятивных целях, намеренно выдавая ему определенные публикации, корректируя его ленту. О проблеме «Ленте.ру» рассказал заместитель генерального директора АНО «ИРИ» по правовым вопросам Борис Едидин

Эксперт уверен, что основная угроза связана с тем, что, обладая огромным количеством информации о конкретном пользователе, ИТ-компании могут погружать пользователей в информационный мешок, где они самостоятельно формируют информационную повестку. Технологические компании, по его словам, погружают пользователя в некий информационный мешок, в котором могут навязывать любую общественно-политическую повестку.

Особая опасность связана с тем, что технологические компании прекрасно понимают, кто является их пользователем: ребенок, подросток или взрослый человек, уверен эксперт. «Таким образом, наше общество жестко сегментируется, теряются связи между поколениями, между различными социальными группами, и общество теряет целостность», — рассказал Борис Едидин.

Эксперты давно предупреждали о подобных опасностях непрозрачных рексервисов, а недавно миллиардер Илон Маск, собирающийся приобрести Twitter, обвинил алгоритм новостной ленты соцсети в том, что он «манипулирует» пользователями. Кроме того, складывается ощущение, что рекомендательные сервисы зачастую выходят из-под контроля своих создателей.

Корень проблемы с алгоритмами, уверены эксперты, кроется в том, что изначально целью подобных сервисов было удержать пользователя у экрана как можно дольше. Чем более интересный контент предлагается аудитории, тем дольше она остается на площадке, и тем больше рекламы она сможет увидеть, следовательно, тем больше соцсеть сможет заработать. В результате, стремясь привлечь как можно больше внимания аудитории, алгоритмы начинают продвигать контент, набирающий больше всего пользовательских реакций, а именно фейки, треш, скандальные материалы.

Такой контент больше всего эмоционально заряжен, поэтому резонансные новости, теории заговора, экстремистские и оскорбительные высказывания и прочий деструктив очень часто попадаются аудитории. Так, в 2021 году американские исследователи обнаружили, что рекомендательные алгоритмы YouTube предлагают пользователям видеоролики, которые нарушают собственные правила онлайн-площадки. Согласно данным эксперимента, подобные материалы составили 71 процент от общего количества просмотренных участниками исследования видео.

Таким «безумием» страдают алгоритмы не только видеохостинга, но и других представителей западного бигтеха. В прошлом году эксперты из британской Revealing Reality обнаружили, что даже минимальное взаимодействие подростков с контентом про фитнес, похудение и диеты может спровоцировать алгоритмы Instagram (запрещенная в России соцсеть; принадлежит компании Meta, признанной экстремистской организацией и запрещенной в России) на рекомендацию публикаций, подталкивающих к изменению своего тела, что может привести к ужасающим последствиям для здоровья и психики ребенка.

При этом Instagram (запрещенная в России соцсеть; принадлежит компании Meta, признанной экстремистской организацией и запрещенной в России) знал, что все аккаунты, задействованные в эксперименте, были зарегистрированы на подростков, но все равно предлагал им ориентированную на взрослого пользователя рекламу. А совсем недавно соцсеть TikTok и ее материнскую компанию ByteDance обвинили в халатности и распространении некачественного продукта, после того как 10-летняя пользовательница Найла Андерсон умерла из-за выполнения опасного челленджа. Девочка узнала о нем из рекомендаций платформы.

Работа алгоритмов способна привести и к масштабным конфликтам в реальной жизни. Эксперты не раз отмечали, что рекомендательные сервисы могут загонять людей в «информационные тоннели», изменяя точку зрения пользователей и способствуя поляризации общества. В результате напряжение в онлайне может привести к росту напряженности и настоящим трагедиям в офлайне.

Так, в декабре 2021 года представители народности рохинджа подали коллективный иск против Facebook (запрещенная в России соцсеть; принадлежит компании Meta, признанной экстремистской организацией и запрещенной в России), обвиняя платформу в разжигании ненависти в конфликте в Мьянме. Как выяснилось, такие сообщения не удалялись, а, наоборот, показывались пользователям в приоритетном порядке из-за их популярности. Таким образом, особенности работы алгоритмов привели к усилению геноцида. По утверждению истцов, соцсеть в данной ситуации бездействовала.

Проблема заключается и в том, что ИТ-гиганты не просто используют подобные механизмы, а отказываются раскрывать принцип их работы. «Мы не знаем, по каким критериям, правилам это происходит. Эта информация должна быть открыта. И это не только российская проблема — это проблема всего мирового сообщества», — отмечает глава Совета при президенте России по развитию гражданского общества и правам человека (СПЧ) Валерий Фадеев.

Российские эксперты уже не раз заявляли о непрозрачности рекомендательных алгоритмов. Так, депутат Госдумы России Антон Горелкин подчеркивал, что «нам нужно стремиться к тому, чтобы все рекомендательные алгоритмы, во-первых, могли быть отключены, и кнопки отключения должны быть. Во-вторых, они должны быть прозрачны, должен быть общественный контроль». В настоящее время законопроект о рекомендательных алгоритмах социальных сетей и видеохостингов готовится к внесению в Госдуму России.

Ожидается, что интернет-ресурсы будут обязаны информировать пользователя об обработке его данных рекомендательной системой, человек должен иметь возможность в любой момент отказаться от такой обработки. На сайте должны быть опубликованы правила работы рекомендательного алгоритма, содержащие перечень данных о пользователях и их предпочтениях, источниках их получения.

Стоит подчеркнуть, что наша страна не одинока в стремлении обуздать рекомендательные сервисы платформ, тренд на регулирование алгоритмов усиливается во всем мире. Так, в Китае с 1 марта этого года вступил в действие новый закон, который запрещает онлайн-платформам рекомендовать фейковые сообщения, а также обязывает информировать пользователей об основных принципах работы таких механизмов. В документе также прописано, что пользователи должны получить возможность управлять алгоритмом, изменяя его параметры, или вовсе отказаться от получения предложений.

Источник

Оставить комментарий

Ваш email нигде не будет показан. Обязательные для заполнения поля помечены *

*