Bańka filtrująca

filtrowanie wyników w wyszukiwarce poprzez użyty w niej algorytm

Bańka filtrująca (ang. filter bubble)[1][2], także bańka informacyjna[3][4] – sytuacja polegająca na tym, że osoba korzystająca z sieci otrzymuje informacje wyselekcjonowane przez algorytmy na podstawie danych zgromadzonych na jej temat podczas jej wcześniejszej aktywności (np. wyszukiwań w wyszukiwarkach internetowych)[5]. Powoduje to, że użytkownik otrzymuje informacje zgodne ze swoimi poglądami i nie zostaje nakierowany na odmienne tematy lub punkty widzenia[6].

Przykładem tego zjawiska są wyniki spersonalizowanych wyszukiwań w wyszukiwarce Google i strony aktualności w serwisie Facebook[7]. Termin został ukuty przez internetowego aktywistę Eliego Parisera w książce The Filter Bubble: What the Internet Is Hiding from You (2011)[8]. Według Parisera użytkownicy mają mniejszy kontakt z konfliktogennym punktem widzenia, a także, będąc we własnych bańkach informacyjnych, są intelektualnie odizolowani[9]. Pariser wskazał przykład, w którym jeden z użytkowników szukając w Google’u frazy „BP” otrzymał wiadomości inwestycyjne nt. przedsiębiorstwa British Petroleum, natomiast inny szukający dostał informacje nt. eksplozji platformy wiertniczej Deepwater Horizon; autor podkreślił, że te dwa wyniki wyszukiwania były „uderzająco różne” (ang. strikingly different)[10][11][12]. W opinii Parisera efekt bańki może mieć negatywne konsekwencje w publicznym dyskursie, ale pojawiły się także kontrastujące opinie sugerujące, że ten efekt jest minimalny[13].

Najnowsze badania pokazują, że bańki informacyjne całkowicie odcinające użytkowników od opinii sprzecznych z ich poglądami są zjawiskiem zupełnie marginalnym, a znacznie większe ograniczenie w otwarciu na nowe informacje stanowi nawet środowisko, w którym żyje dana jednostka[14]. Jak pisze Sebastian Randerath: "Bąbelki filtracyjne nie rządzą naszym życiem. Spersonalizowane filtrowanie według algorytmów nie jest przyczyną kształtowania opinii publicznej i ma jedynie trywialny wpływ na wyniki wyszukiwania w głównych wyszukiwarkach"[15].

Założenia edytuj

 
Eli Pariser (2012)

Pariser zdefiniował własną koncepcję bańki filtrującej, w bardziej formalny sposób, jako „indywidualny ekosystem informacji, który został przygotowany przez te algorytmy”[10]. Także innych terminów używano do opisania tego zjawiska, są to m.in. „ramki ideologiczne” (ang. ideological frames)[11] lub „otaczająca was, podczas przeszukiwania Internetu, przenośna sfera”[16]. Dotychczasowa historia wyszukiwania jest z biegiem czasu gromadzona, kiedy użytkownik Internetu sygnalizuje zainteresowanie konkretnymi tematami poprzez „klikanie linków, przeglądanie znajomych, umieszczanie filmów w swojej kolejce i czytanie wiadomości”[16]. Firma internetowa używa wówczas tych informacji do dostarczenia użytkownikowi odpowiednich reklam lub by znalazły się one w bardziej widocznym miejscu na stronie z wynikami wyszukiwania[16]. Obawy Parisera są podobne do tych przedstawionych wcześniej przez brytyjskiego fizyka i programistę Tima Bernersa-Lee, którego raport w 2010 roku opublikowano w dzienniku „The Guardian”. Napisał on, że zgodnie z zasadą efektu opisanego w piosence „Hotel California”, który ma miejsce, strony serwisów społecznościowych odgradzają zawartość od innych konkurencyjnych stron (przez co zagarniana jest większa część wszystkich użytkowników Internetu), co skutkuje tym, że „im więcej klikasz, tym bardziej jesteś zamknięty” na informacje w obrębie konkretnej strony internetowej. Według Bernersa-Lee staje się to „zamkniętym silosem treści” z możliwym podziałem World Wide Web[17].

W publikacji The Filter Bubble Pariser ostrzega, że potencjalnym minusem filtrowanego szukania jest to, iż to „zamyka nas na nowe pomysły, tematy i ważne informacje”[18], a także „tworzy wrażenie, że wszystko, co istnieje, to wyłącznie nasza własna korzyść”[11]. W jego opinii takie zjawisko jest potencjalnie szkodliwe zarówno dla jednostek, jak i społeczeństwa. Skrytykował on koncern Google i Facebooka za oferowanie użytkownikom „zbyt dużo słodyczy, a za mało marchewek”[19]. Autor ostrzegł również, że „niewidoczne algorytmiczne edytowanie sieci” może wszystkim korzystającym z Internetu ograniczać kontakt z nowymi informacjami oraz zawęzić im horyzont[19]. Według Parisera niekorzystnym efektem filtrujących baniek jest także szkodzenie ogółowi społeczeństwa w tym sensie, że mogą one spowodować „osłabienie obywatelskiego dyskursu” (ang. undermining civic discourse), a także możliwe jest, iż ludzie mogą stać się bardziej podatni na „propagandę i manipulacje”[11]. Autor w swojej książce napisał:

Świat skonstruowany ze znanych nam myśli jest światem, w którym nie ma się czego uczyć… (od momentu kiedy występuje) niewidoczna autopropaganda, indoktrynująca nas naszymi własnymi ideami[20].

Eli Pariser

Bańka filtrująca została opisana jako nasilający się fenomen, który został nazwany splinternetem (inne nazwy: bałkanizacja Internetu, cyberbałkanizacja[a][21]), co dzieje się, kiedy Internet zostaje podzielony na podgrupy ludzi podobnie myślących, którzy zostają izolowani w ich własnych wirtualnych społecznościach i pozbawieni są możliwości kontaktu z innymi poglądami; termin „cyberbałkanizacja” został ukuty w 1996 roku[22][23][24].

Reakcje edytuj

Istnieją sprzeczne informacje na temat skali zjawiska filtrowania spersonalizowanego i czy jego aktywność jest korzystna, czy szkodliwa. Analityk Jacob Weisberg, pisząc dla internetowego czasopisma „Slate”, zrealizował niewielki eksperyment nienaukowy mający na celu przetestowanie teorii Parisera. W badaniu wzięło udział pięciu jego współpracowników mających różne zaplecze ideologiczne, którym nakazał wyszukiwać w ten sam sposób. Rezultaty wszystkich pięciu zapytań wyszukiwania okazały się niemal identyczne u czterech różnych szukających. Sugerował on, że „bańka filtrująca” nie ma zastosowania, co spowodowało, że postanowił on napisać, iż sytuacja, w której wszyscy ludzie są „karmieni w korycie «Daily Me»” (ang. feeding at the trough of a Daily Me), była przesadzona[11].

Badanie naukowe przeprowadzone w Wharton School, które analizowało rozwiązania spersonalizowane, również potwierdziło, że w przypadku internetowego gustu muzycznego filtry te właściwie mogą tworzyć wspólność, a nie podział[25]. Konsumenci w rzeczywistości używają filtra, by rozszerzyć swój gust, a nie po to, by go ograniczać[25]. Recenzent książek Paul Boutin przeprowadził podobny eksperyment wśród ludzi mających różniące się historie szukania. Wyniki tego badania były zbliżone do tych zrobionych przez Weisberga, które pokazały niemal identyczne rezultaty wyszukiwań[13]. Jonathan Zittrain, profesor prawa na Uniwersytecie Harvarda, zakwestionował stopień, do którego filtry personalizujące zniekształcają wyniki wyszukiwań w Google’u; powiedział on, że „efekty personalizacji wyszukiwania były łagodne”[11]. Ponadto pojawiły się doniesienia, że użytkownicy mają możliwość wyłączenia ustawień personalizujących w wyszukiwarce Google[26] poprzez usunięcie historii online lub też innymi metodami[13]. Rzecznik Google’a zasugerował, że algorytmy zostały celowo dodane do ich wyszukiwarek po to, by „ograniczały personalizację i promowały różnorodność”[11].

Pomimo to istnieją informacje, że Google oraz inne strony są w posiadaniu dużych ilości danych, które mogą umożliwić im dalsze personalizowanie doświadczeń użytkownika w Internecie, jeśli tylko zechcą tak zrobić. Jeden z opisów sugerował, że Google jest w stanie śledzić dotychczasową historię użytkownika, nawet jeśli nie posiada on prywatnego konta w Google’u lub nie jest tam zalogowany[13]. Inny opis mówił, że Google zebrał informacje „warte 10 lat” zgromadzone z różnych źródeł, takich jak Gmail, Mapy Google, a także innych serwisów, pomijając ich wyszukiwarkę[12]. Przy takiej personalizacji Internetu dla każdego użytkownika oprócz potrzeby udostępnienia w sieci rozległej przestrzeni dyskowej (przeznaczonej na gromadzenie danych) proces taki byłby też dla przedsiębiorstwa internetowego wymagający technicznie. Analityk Doug Gross z amerykańskiej telewizji CNN zasugerował, że filtrowane wyszukiwanie wydaje się być bardziej pomocne dla konsumenta niż dla obywatela i ułatwiłoby szukającemu „pizzy” konsumentowi znalezienie lokalnego dostawcy w oparciu o spersonalizowane szukanie i odpowiednie odfiltrowanie odległych pizzerii[12]. Strony internetowe, np. dzienników „The Washington Post” czy „The New York Times” starają się stworzyć mechanizmy z informacjami spersonalizowanymi, mające na celu dostosowanie rezultatów wyszukiwania do takich, które są akceptowalne przez użytkownika, lub takich, z którymi będzie się on zgadzać[11].

Zobacz też edytuj

Uwagi edytuj

  1. Termin cyberbałkanizacja, gdzie „cyber” oznacza Internet, a „bałkanizacja” odnosi się do regionu w Europie, który został podzielony według języków, religii i kultur, został ukuty na papierze przez naukowców politechniki MIT – Vana Alstyne’a i Brynjolfssona.
  2. Wyszukiwarka, której właściciele zapewniają, że nie korzysta z bańki filtrującej.

Przypisy edytuj

  1. Remigiusz Żulicki, Michał Żytomirski. Próba wypracowania metodologii pomiaru baniek filtrujących w wyszukiwarce Google. „Zarządzanie Mediami”. 8(2), s. 244, 2020. 
  2. Tomasz Książek: Bańka filtrująca i błąd konfirmacji w świadomości użytkowników internetu. SBP. ISBN 978-83-65741-36-3.
  3. Joanna Szpyt-Wiktorowska. Strategie mediów wobec baniek informacyjnych. „Zarządzanie Mediami”. 6(1), s. 41, 2018. 
  4. Adrian Grycuk: Fake newsy, trolle, boty i cyborgi w mediach społecznościowych. [w:] Analizy BAS [on-line]. Biuro Analiz Sejmowych, 8 lutego 2021. s. 8. [dostęp 2021-02-15].
  5. Jak jesteśmy profilowani w sieci? | Cyfrowa Wyprawka. cyfrowa-wyprawka.org. [dostęp 2016-05-02]. [zarchiwizowane z tego adresu (5 marca 2016)].
  6. Engin Bozdag, Jeroen van den Hoven: Breaking the filter bubble: democracy and design. [w:] Ethics and Information Technology 17(4) [on-line]. springer.com, 2015. [dostęp 2021-02-15].
  7. John Bohannon: Is Facebook keeping you in a political bubble? | Science | AAAS. sciencemag.org, 7 maja 2015. [dostęp 2016-05-02]. [zarchiwizowane z tego adresu (24 marca 2016)]. (ang.).
  8. Aaron J. Barlow, Robert Leston: Beyond the Blogosphere: Information and Its Children. ABC-CLIO, 2012, s. 233. ISBN 978-0-313-39287-0. [dostęp 2016-05-03].
  9. Pietro Michelucci: Handbook of Human Computation. Springer Science & Business Media, 2013, s. 870. ISBN 978-1-4614-8806-4. [dostęp 2016-05-03].
  10. a b The Filter Bubble. 10 października 2010. [zarchiwizowane z tego adresu (27 kwietnia 2016)]. Cytat: Since Dec. 4, 2009, Google has been personalized for everyone. So when I had two friends this spring Google „BP,” one of them got a set of links that was about investment opportunities in BP. The other one got information about the oil spill… (ang.).
  11. a b c d e f g h Jacob Weisberg: Bubble Trouble: Is Web personalization turning us into solipsistic twits?. 10 czerwca 2011. [zarchiwizowane z tego adresu (12 czerwca 2011)]. (ang.).
  12. a b c Doug Gross: What the Internet is hiding from you. cnn.com, 19 maja 2011. [zarchiwizowane z tego adresu (9 kwietnia 2016)]. Cytat: I had friends Google BP when the oil spill was happening. These are two women who were quite similar in a lot of ways. One got a lot of results about the environmental consequences of what was happening and the spill. The other one just got investment information and nothing about the spill at all. (ang.).
  13. a b c d Paul Boutin: Your Results May Vary: Will the information superhighway turn into a cul-de-sac because of automated filters?. 20 maja 2011. [zarchiwizowane z tego adresu (14 grudnia 2015)]. Cytat: By tracking individual Web browsers with cookies, Google has been able to personalize results even for users who don’t create a personal Google account or are not logged into one… (ang.).
  14. Seth Flaxman, Sharad Goel, Justin M. Rao, Filter Bubbles, Echo Chambers, and Online News Consumption, „Public Opinion Quarterly”, 80 (S1), 2016, s. 298–320, DOI10.1093/poq/nfw006, ISSN 0033-362X [dostęp 2023-12-10].
  15. Myth #22: We all live in filter bubbles. [online], 50 Myths of the Internet [dostęp 2023-12-10] (ang.).
  16. a b c Shira Lazar: Algorithms and the Filter Bubble Ruining Your Online Experience?. 1 czerwca 2011. [zarchiwizowane z tego adresu (13 kwietnia 2016)]. Cytat: a filter bubble is the figurative sphere surrounding you as you search the Internet. (ang.).
  17. Bianca Bosker: Tim Berners-Lee: Facebook Threatens Web, Beware. 22 listopada 2010. [zarchiwizowane z tego adresu (16 marca 2016)]. Cytat: Social networking sites are threatening the Web’s core principles … Berners-Lee argued. „Each site is a silo, walled off from the others,” he explained. „The more you enter, the more you become locked in…”. (ang.).
  18. First Monday: What’s on tap this month on TV and in movies and books: The Filter Bubble by Eli Pariser. 2011. [zarchiwizowane z tego adresu (9 listopada 2015)]. Cytat: Pariser explains that feeding us only what is familiar and comfortable to us closes us off to new ideas, subjects and important information. (ang.).
  19. a b Bianca Bosker: Facebook, Google Giving Us Information Junk Food, Eli Pariser Warns. 7 marca 2011. [dostęp 2011-04-20]. [zarchiwizowane z tego adresu (9 grudnia 2012)]. Cytat: When it comes to content, Google and Facebook are offering us too much candy, and not enough carrots. (ang.).
  20. Invisible sieve: Hidden, specially for you. The Economist, 30 czerwca 2011. [zarchiwizowane z tego adresu (12 maja 2016)]. Cytat: Mr Pariser’s book provides a survey of the internet’s evolution towards personalisation, examines how presenting information alters the way in which it is perceived and concludes with prescriptions for bursting the filter bubble that surrounds each user. (ang.).
  21. Matthew Hindman: The Myth of Digital Democracy. Princeton University Press, 2008, s. 265. ISBN 978-0-691-13868-8. [dostęp 2016-05-03].
  22. Marshall Van Alstyne, Erik Brynjolfsson, Electronic Communities: Global Village or Cyberbalkans?, Cambridge, marzec 1997, s. 3 [dostęp 2016-05-03] [zarchiwizowane z adresu 2016-04-05].
  23. Marshall Van Alstyne, Erik Brynjolfsson. Could the Internet Balkanize Science?. „Science”. 274 (5292), listopad 1996. DOI: 10.1126/science.274.5292.1479. (ang.). 
  24. Alex Pham, Jon Healey: Systems hope to tell you what you’d like: ‘Preference engines’ guide users through the flood of content. Chicago Tribune, 24 września 2005. [zarchiwizowane z tego adresu (25 kwietnia 2016)]. Cytat: …if recommenders were perfect, I can have the option of talking to only people who are just like me… Cyber-balkanization, as Brynjolfsson coined the scenario, is not an inevitable effect of recommendation tools… (ang.).
  25. a b Kartik Hosanagar, Daniel Fleder, Dokyun Lee, Andreas Buja. Will the Global Village Fracture into Tribes: Recommender Systems and their Effects on Consumers. „Management Science, Forthcoming”, grudzień 2013. [zarchiwizowane z adresu 26 kwietnia 2016]. (ang.). 
  26. Amber Ludwig: Google Personalization on Your Search Results Plus How to Turn it Off. NGNG. [dostęp 2016-05-07]. [zarchiwizowane z tego adresu (17 sierpnia 2011)]. Cytat: Google customizing search results is an automatic feature, but you can shut this feature off. (ang.).