Интернет показывает только то, что мы хотим увидеть

Исследования показывают, что чем точнее механизм рекомендаций учитывает интересы пользователя, тем скорее пользователь попадает в зависимость от так называемого «пузыря фильтров».

Интернет показывает только то, что мы хотим увидеть

В наши дни алгоритмы машинного обучение чаще всего используются в процедурах алгоритмов рекомендаций. Наверняка, хоть один раз Вы заходили на сайты Netflix и YouTube; Google и Facebook используют эти процедуры для ранжирования контента в строке поиска и новостной ленте. Алгоритмы  очень удобны, но у них есть и серьезные недостатки. Может быть, кто-то слышал эти слова раньше: «пузыри фильтров» и « эхо-камеры».

Тревога назревает давно. В 2011 году Элайя Паризер, сейчас занимающий пост генерального директора компании Upworthy,  рассказал о «пузырях фильтров» на конференции TED. А еще раньше  профессор права Гарварда Касс Санстейн в своей книге «Republic.com» точно предсказал эффект  так называемой «групповой поляризации».  Развитие Интернета в будущем бросит вызов здоровой демократии.

Обе идеи оказались на слуху после выборов 2016 года в США.  Они привели к публикации многочисленных научных работ. В 2019 году одно из подразделений Google, компания  DeepMind, провела  еще одно исследование.

В новой статье ученые рассказывают, как различные алгоритмы рекомендации могут ускорить или замедлить эти два явления. «Эхо-камеры», по их словам, усиливают интересы пользователей за счет многократного просмотра страниц с одинаковым контентом.  «Пузыри фильтров» сильно ограничивают объем разнообразного контента, видимого пользователю. Среди ученых эти явления относятся к теории о «потерянной обратной связи». Высокий уровень потерь в данном случае происходит из-за сильного влияния «пузыря фильтров» или «эхо-камеры».

Они взяли абсолютно новые веб-страницы и изучили поведение пяти различных алгоритмов рекомендации.  Для точного прогнозирования интересов пользователя страницам задали разные степени приоритета. Было обнаружено, что алгоритмы с  высоким приоритетом точности приводят к быстрой деградации системы поиска. Оказалось, что лучший способ борьбы с «пузырями фильтров» или «эхо-камерами» – разработка новых исследовательских алгоритмов, прогнозирующих интересы пользователя, а не выбирающих рекомендации из массива информации. Поможет так же и расширение этого массива информации для подбора рекомендаций.

Джозеф Констан, профессор информатики Университета Миннесоты, ранее занимавшийся исследованиями «пузырей фильтров», утверждает, что результаты анализа компании DeepMind не удивительны. Ученые уже  давно поняли разницу между точным прогнозом и эффективным исследованием в системах рекомендаций.

Несмотря на проведенные исследования,  разработчики программ не хотят внедрять новые алгоритмы. «Всегда легче  «быть правым», рекомендуя безопасный выбор», — говорит Констан.

Также он критикует исследование DeepMind исследование в имитаторах машинного обучения, а не интерактивных систем с участием реальных пользователей. «Меня всегда беспокоит работа, которая ограничивается симуляционными исследованиями (или анализом данных в автономном режиме)», — говорит он. «Люди устроены сложнее компьютеров. С одной стороны, мы знаем, что они ценят разнообразие, но с другой стороны нам ясно, что если  сильно расширим рекомендации – пользователи решат, что мы не заслуживаем доверия, и наши поисковые системы потеряют популярность.»

Источник

Что будем искать? Например,ChatGPT

Мы в социальных сетях