Filtro burbulas – ne teorija, o kasdienybė
Kiekvieną kartą atidarydami naujienų portalą ar socialinį tinklą, matome pasaulį, kurį kažkas jau sutvarkė už mus. Ne redaktorius, ne žurnalistas – algoritmas. Ir šis algoritmas nėra neutralus. Jis žino, kad paspaudėte ant straipsnio apie elektromobilius, kad tris minutes skaičiote komentarus po politiko interviu, kad slinkote pro vieną nuomonę greičiau nei pro kitą. Iš šių duomenų jis konstruoja jūsų informacinę aplinką – ir daro tai efektyviau nei bet kuris žmogus galėtų.
Eli Pariseris dar 2011 metais pavadino šį reiškinį „filtro burbulu”. Praėjo daugiau nei dešimt metų, technologijos tapo sudėtingesnės, o problema – gilesnė. Tai, ką matome ekrane, vis labiau atspindi ne pasaulio įvairovę, o mūsų pačių ankstesnius pasirinkimus.
Kaip tai veikia iš tikrųjų
Algoritmai optimizuojami pagal vieną pagrindinį rodiklį – įsitraukimą. Laikas, praleistas puslapyje. Paspaudimai. Dalijimasis. Komentarai. Ir čia slypi esminis paradoksas: labiausiai įsitraukimą generuoja turinys, kuris sukelia stiprias emocijas – pyktį, baimę, pasipiktinimą, patvirtinimą. Ne tas, kuris informuoja objektyviai, o tas, kuris rezonuoja su tuo, ką jau tikime.
Naujienų portalai tai supranta. Dalis jų sąmoningai kuria turinį, kuris „veikia” algoritmiškai – sensacingi antraštės, poliarizuojančios temos, emocinė kalba. Tai ne sąconspiracy teorija, o verslo modelis. Jei algoritmas apdovanoja įsitraukimą, o įsitraukimą generuoja emocinis turinys – redakcijų paskata rašyti kitaip tampa labai maža.
Rezultatas: žmogus, kuris reguliariai skaito vieno politinio spektro šaltinius, pamažu gauna vis mažiau priešingų nuomonių – ne todėl, kad jų nėra, o todėl, kad algoritmas išmoko, jog tokio turinio jis neskaito ilgai.
Personalizacija kaip patogumas ir kaip problema
Svarbu nesupaprastinti. Personalizacija turi ir prasmingą pusę – niekas nenori skaityti visko apie viską. Filtravimas padeda orientuotis informacijos pertekliuje. Problema ne pati personalizacija, o tai, kad ji veikia neskaidriai ir be jokios vartotojo kontrolės.
Jūs negalite atidaryti „Google News” ar „Delfi” ir pamatyti, kodėl jums rodomas būtent šis straipsnis, o ne kitas. Negalite paprašyti algoritmo rodyti daugiau nuomonių, su kuriomis nesutinkate. Negalite išjungti personalizacijos ir gauti „neutralų” srautą – nes tokio srauto tiesiog nėra. Kiekvienas vartotojas mato skirtingą tikrovės versiją, ir niekas to jam nepasakė.
Tai fundamentaliai skiriasi nuo tradicinės žiniasklaidos. Laikraštis spausdino tą patį turinį visiems skaitytojams. Galima buvo nesutikti su redakcijos linija, bet bent jau visi matė tą pačią redakcijos liniją. Dabar kiekvienas turi savo versiją – ir dažnai net nežino, kad ji yra versija.
Kodėl mes patys to norime
Būtų patogu kaltinti tik technologijų kompanijas. Bet sąžininga analizė reikalauja pripažinti: mes patys aktyviai renkamės patvirtinimą. Kognityvinė psichologija tai vadina „patvirtinimo šališkumu” – polinkiu ieškoti informacijos, kuri patvirtina tai, ką jau manome.
Algoritmai šio polinkio nesukūrė. Jie jį tiesiog industrializavo. Padarė jį efektyvesnį, greitesnį ir mažiau pastebimą. Žmogus, kuris anksčiau turėjo aktyviai rinktis, kokius šaltinius skaityti, dabar to net nedaro – algoritmas parenka už jį, ir parinkimas atitinka tai, ko žmogus pats norėtų pasirinkti.
Tai sukuria užburtą ratą: mūsų elgesys formuoja algoritmą, algoritmas formuoja mūsų informacinę aplinką, aplinka formuoja mūsų įsitikinimus, įsitikinimai formuoja mūsų elgesį.
Tai, kas lieka po burbulo
Klausimas, kurį verta užduoti sau: ar tai, ką šiandien žinote apie pasaulį, yra tai, kas iš tikrųjų vyksta – ar tai, ką algoritmas nusprendė jums rodyti? Skirtumas gali būti didesnis, nei atrodo.
Sprendimas nėra atsisakyti technologijų ar grįžti prie popierinių laikraščių. Sprendimas – sąmoningumas. Aktyviai ieškoti šaltinių, su kuriais nesutinkate. Klausti, kodėl matote tai, ką matote. Suprasti, kad informacinis patogumas dažnai reiškia informacinį siaurumą. Algoritmai yra galingi tiek, kiek mes jiems leidžiame. O leidžiame dažniausiai todėl, kad nežinome, jog tai darome.