Дегуманизация интернета: есть ли повод для опасений?

Сегодня предлагаю порассуждать на тему, которая не только глубоко спрятана в недрах узкопрофессиональной статистики, но и при обнаружении противится лёгкому осмыслению.

Лили Хэй Ньюман, замечательный блогер Future Tense, партнёрского проекта Slate, New America и Университета штата Аризона, днями выложила графический результат одного исследования агентства Statista. Выложила, видимо, потому, что цифры на диаграмме показались забавными и в определённом роде парадоксальными.

Смысл статистического среза в том, что трафик в интернете, порождённый людьми, занимает лишь 38,5%, а всё остальное — это результат деятельности компьютерных систем. Дабы усилить wow-эффект, Statista разделила «неживой» трафик на два подвида — «хороший» (good) и «вредоносный» (malicious). Под «хорошим» понимается трафик, создаваемый поисковыми системами и «другими хорошими ботами» (какими — поговорим чуть позже), а под «вредоносным» — скрейперы контента (то есть боты, ворующие на креативных сайтах все новые публикации), «hacking tools» (инструменты взлома), спам-боты и «прочий плохой трафик, порождённый компьютерами».

Ничего, кроме цифр, в публикации Лили нет, и это не удивительно, ибо с наскока, как я уже сказал, осмыслить данные невозможно. Остаётся лишь хлопнуть в ладоши: «Смотри-ка, какой он малюсенький!» — и ткнуть пальцем в те самые 38% человеческого трафика. Чем Лили Ньюман и не преминула заняться. На большее не хватило времени, тем не менее — спасибо за наводку на исходную информацию :-).

У нас времени хоть отбавляй, поэтому предлагаю проанализировать полученную информацию, которая, повторю, парадоксальна.

Для начала сравним разбивку трафика в интернете с тем, что творится в риаллайфе. Здесь нас поджидает первая маленькая сенсация: в привычной ноосфере (я так часто употребляю этот термин Вернадского, не будучи уверенным в адекватном его понимании, что, полагаю, будет не лишним напомнить его значение: «область общества и природы, сформированная человеческим сознанием») доля информационного потока, генерированного Homo sapiens, не 38%, а 0,0000000038%! А скорее всего — и сильно того меньше.

Неожиданно, не правда ли? На самом деле картинка очевидная — стоит лишь осознать иллюзию восприятия, которая заставляет нас думать, что вся ноосфера заполнена информацией, рождённой человеком. Эта иллюзия возникает потому, что мы интуитивно ограничиваем информационное пространство языковым текстом и аудиовизуальными потоками, которые сами создаём. Между тем за рамками этого искусственного ограничения курсирует такой бесконечный объем бит, что страшно становится: от писка летучих мышей до радиосигналов из космоса! Весь этот колоссальный поток информации более чем релевантен, поскольку не только наделён своим смыслом и значением, но ещё и оказывает прямое воздействие на нас самих и на наше отражение в ноосфере.

Из их наблюдений рождается первый парадокс: 38% человеческого трафика в интернете — это не мало, а феноменально много! Что, в свою очередь, позволяет сделать вывод о зачаточной стадии развития мировой компьютерной сети. Именно что зачаточной, поскольку для достижения естественного баланса между человеческим информационным следом и тем, что можно условно назвать «фоном среды обитания» — тех самых микроскопических (однако же органичных!) 0,0000000038% — потребуются едва ли не столетия.

Однако самый крутой wow-эффект скрывается в данных Statista вовсе не в 38%, потрясших Лили Ньюман, а в распределении «доброго» и «злого» трафика, нечеловеческого происхождения (31% — good, 30,5% — bad). Лично для меня эта пропорция явилась источником великой радости, потому как априорно представлял её себе в совершенно ином виде — 1 к 100 в пользу «злого» трафика! По крайней мере теперь мы наверняка знаем, что интернет в частности и вся наша цивилизация в целом не являются порождением злой стороны человеческой природы (весьма модная сегодня гипотеза).

Здесь, правда, тоже всё далеко от однозначности. Во-первых, возникают большие сомнения в правомерности наложения аксиологических критериев на объект, находящийся в принципе за рамками морально-этических моделей (то есть: как вообще трафик может быть «плохим» или «хорошим»?). Во-вторых, меня лично не устраивает конкретная сегрегация, предложенная Statista. Последний момент — весьма принципиален.

Судите сами: трафик поисковых систем и коммерческой аналитики априорно отнесён к «хорошему». С какой же это стати? Да, с одной стороны, этот трафик облегчает работу Google, зато с другой — способствует формированию и дальнейшему усилению «пузыря фильтров», который, вполне возможно, является самой большой опасностью, исходящей от интернета, для существования человека («Рождение нового стиля из трагедии персонализации»).

Или взять, к примеру, скрейперы, ворующие ваш контент. Мне попадалось уже несколько исследований, которые убедительно демонстрировали: работа киберворов чрезвычайно способствует росту популярности авторов качественного контента! Закономерности здесь прослеживаются точно такие же, что и в положительной роли пиратства, которое, помимо своей воли раскручивает и музыкантов, и режиссёров, и актёров (в накладе оказываются, правда, все посредники, но о них у нас голова должна болеть в последнюю очередь).

Проиллюстрировать пользу скрейперов могу даже на личном примере: если вы наберёте название любой моей статьи в поисковой системе, то увидите, что она растиражирована на десятки и сотни порталов, причём контент многих из них явно сформирован в результате работы скрейпера. Хорошо это или плохо? По мне так очень хорошо :-).

Такие вот забавные мысли породила в моей пятничной (читай — утомлённой трудовой неделей) голове одна маленькая статистическая диаграмма. Из всего сказанного мне бы хотелось выделить именно позитивный смысл «дегуманизации интернета» — процесса, который не просто не даёт ни малейшего повода для опасений, но и является более чем естественным для развития новой цифровой реальности.

Что будем искать? Например,ChatGPT

Мы в социальных сетях