Frances Haugen – whistleblower Facebooka (2021)

A+A-
Zresetuj

W październiku 2021 roku, kiedy polaryzacja polityczna osiągnęła niebezpieczny punkt wrzenia, a debata o roli platform cyfrowych w życiu społecznym nabrała gwałtowności, Frances Haugen, była inżynierka Meta/Facebook, przekroczyła próg Kongresu USA, by ujawnić tysiące wewnętrznych dokumentów korporacji.

Jej zeznania nie były kolejnym medialnym skandalem – stanowiły precyzyjnie przygotowaną operację demaskującą sposób, w jaki algorytmy platform społecznościowych kształtują emocje, poglądy i zachowania miliardów ludzi, przedkładając zysk nad bezpieczeństwo użytkowników.

Kim jest Frances Haugen i dlaczego jej głos był przełomowy

Frances Haugen, urodzona w 1983 roku, jest absolwentką informatyki i zarządzania biznesowego z Harvard Business School.

Przed dołączeniem do Facebooka w 2019 roku pracowała dla takich firm jak GooglePinterest i Yelp, specjalizując się w systemach algorytmicznych i rankingowych.

Została zatrudniona w dziale Civic Integrity – zespole odpowiedzialnym za przeciwdziałanie dezinformacji, manipulacjom wyborczym i innym zagrożeniom dla demokracji na platformie.

To właśnie tam obserwowała od środka, jak firma celowo ignorowała wewnętrzne ostrzeżenia dotyczące szkodliwości swoich produktów.

Jej decyzja o ujawnieniu dokumentów była bezprecedensowa z kilku powodów: Haugen nie tylko skopiowała dziesiątki tysięcy stron wewnętrznych raportów i badań, ale także przekazała je instytucjom regulacyjnym (Securities and Exchange Commission), dziennikarzom (The Wall Street Journal) i ustawodawcom.

W przeciwieństwie do wcześniejszych sygnalistów z branży technologicznej, Haugen świadomie ujawniła swoją tożsamość w programie 60 Minutes, ryzykując karierę, reputację i bezpieczeństwo osobiste.

Rok 2021 był momentem kluczowym dla krytyki Big Techu: pandemia COVID-19 wyostrzyła dyskusję o dezinformacji zdrowotnej, atak na Kapitol w Waszyngtonie w styczniu tego roku uwypuklił rolę platform w radykalizacji politycznej, a rządy na całym świecie zaczęły projektować nowe regulacje cyfrowe.

W tym kontekście ujawnienia Haugen stały się katalizatorem globalnej debaty o odpowiedzialności korporacji technologicznych.

Praca w dziale Civic Integrity

Frances Haugen dołączyła do Facebooka z konkretnym zamiarem: chciała pracować nad przeciwdziałaniem dezinformacji i manipulacjom politycznym.

Jej stanowisko w Civic Integrity dawało jej dostęp do wewnętrznych badań pokazujących, jak algorytmy platformy wpływają na rozprzestrzenianie treści radykalnych, polaryzujących i fałszywych.

W wywiadzie dla 60 Minutes stwierdziła:

„Widziałam różne sieci społecznościowe, ale Facebook był znacznie gorszy niż wszystko, co widziałam wcześniej”.

Kluczowym punktem zwrotnym było rozwiązanie zespołu Civic Integrity po wyborach prezydenckich w USA w 2020 roku.

Haugen opisała to jako „zdradę demokracji”, sugerując, że decyzja ta przyczyniła się do ataku na Kapitol w styczniu 2021 roku.

Firma po prostu rozformowała zespół, który miał chronić integralność demokratycznych procesów, w momencie gdy jego działania były najbardziej potrzebne.

Wewnętrzne raporty, do których miała dostęp Haugen, ujawniały świadomość kierownictwa Facebooka o szeregu problemów: algorytmy platformy promowały treści wzbudzające gniew i podziały, ponieważ takie materiały generowały najwyższe zaangażowanie użytkowników.

Firma wiedziała również, że egzekwowanie zasad dotyczących mowy nienawiści i dezinformacji było niewystarczające w krajach rozwijających się i w językach innych niż angielski.

Haugen zeznała przed Senatem USA, że Facebook „publicznie przyznaje, że ranking oparty na zaangażowaniu jest niebezpieczny bez systemów integralności i bezpieczeństwa, ale nie wdrożył tych systemów w większości języków na świecie”.

To zaniedbanie miało tragiczne konsekwencje w krajach takich jak Myanmar i Etiopia, gdzie platforma była wykorzystywana do podżegania do przemocy etnicznej.

Facebook Papers

Dokumenty zebrane i ujawnione przez Frances Haugen, znane jako Facebook Papers (lub Meta Papers), stanowią jedno z największych wycieków w historii korporacji technologicznych.

Obejmują one wewnętrzne prezentacje, badania, wiadomości i raporty z lat 2017–2021, dokumentujące świadomość kierownictwa Facebooka o szkodliwych efektach swoich produktów.

Dokumenty te ujawniały kilka kluczowych problemów:

Algorytmy promujące ekstremizm i polaryzację: wewnętrzne badania potwierdziły, że ranking treści oparty na zaangażowaniu (engagement-based ranking) systematycznie premiuje materiały wywołujące silne emocje – gniew, strach, oburzenie.

To właśnie te emocje napędzają interakcje, komentarze i udostępnienia, które z kolei zwiększają czas spędzony na platformie i przychody z reklam.

Szkody emocjonalne i psychiczne wśród młodzieży: szczególnie bulwersujące były dane dotyczące Instagrama i jego wpływu na młode dziewczęta.

Jedna z prezentacji z 2019 roku stwierdzała:

„Pogarszamy problemy z wizerunkiem ciała u jednej na trzy nastolatki”.

Inny slajd wskazywał, że wśród nastolatków zgłaszających myśli samobójcze 13% brytyjskich użytkowników i 6% amerykańskich wskazywało Instagram jako źródło tych myśli.

Badania pokazały również, że „nastolatki obwiniają Instagram o wzrost poziomu lęku i depresji”.

System XCheck – podwójne standardy dla VIP-ów: dokumenty ujawniły istnienie programu XCheck, który zwalniał miliony celebrytów, polityków i innych prominentnych użytkowników z normalnych procedur egzekwowania zasad platformy.

Niektórzy użytkownicy byli „na białej liście” (whitelisted), co oznaczało całkowitą immunizację przed sankcjami, podczas gdy inni mogli publikować treści łamiące regulamin w oczekiwaniu na ludzką weryfikację, która często nigdy nie następowała.

Brak egzekwowania zasad w krajach rozwijających się: dokumenty pokazały, że Facebook nie dysponował wystarczającymi zasobami i narzędziami moderacyjnymi w językach innych niż angielski.

To zaniedbanie miało dramatyczne skutki w Myanmarze, gdzie platforma była wykorzystywana do rozpowszechniania mowy nienawiści przeciwko muzułmańskiej mniejszości Rohingya, oraz w Etiopii, gdzie podczas wojny domowej pojawiały się posty wzywające do zabijania konkretnych grup etnicznych.

Frances Haugen zeznała:

„To, co widzieliśmy w Myanmarze i teraz w Etiopii, to tylko początkowe rozdziały historii tak przerażającej, że nikt nie chce doczytać do końca”.

Zeznania przed Kongresem USA

5 października 2021 roku Frances Haugen stanęła przed Podkomisją Senatu USA ds. Ochrony Konsumentów, by przedstawić swoją analizę działań Facebooka.

Jej zeznania trwały ponad trzy godziny i były jednymi z najbardziej obciążających w historii przesłuchań dotyczących firm technologicznych.

W swoim oświadczeniu otwarcia Haugen stwierdziła:

„Przychodzę tu dzisiaj, ponieważ wierzę, że produkty Facebooka szkodzą dzieciom, podsycają podziały i osłabiają naszą demokrację”.

Najważniejsze cytaty z jej zeznań stały się symbolem walki o transparentność Big Techu:

  1. Facebook wielokrotnie pokazywał, że przedkłada zysk nad bezpieczeństwo”.
  2. „Kierownictwo firmy wie, jak uczynić Facebooka i Instagram bezpieczniejszymi, ale nie wprowadzi niezbędnych zmian, ponieważ postawiło swoje astronomiczne zyski ponad ludzi”.
  3. Facebook stał się firmą wartą bilion dolarów, płacąc za swoje zyski naszym bezpieczeństwem, w tym bezpieczeństwem naszych dzieci. I to jest nie do zaakceptowania”.
  4. „Potrzebne są działania Kongresu. Oni nie rozwiążą tego kryzysu bez waszej pomocy”.
  5. Kongres ma moc zmiany zasad, którymi kieruje się Facebook, i złagodzenia wielu szkód, które obecnie wyrządza”.

Reakcje na jej zeznania były mieszane, ale wyraźnie wpłynęły na debatę publiczną.

Politycy po obu stronach spektrum politycznego – od Richarda Blumenthala (demokrata) po Marshę Blackburn (republikanki) – wyrazili poparcie dla regulacji.

Media na całym świecie szeroko relacjonowały jej wystąpienie, a organizacje społeczeństwa obywatelskiego zaczęły naciskać na rządy, by podjęły działania legislacyjne.

Haugen wielokrotnie podkreślała, że nie popiera rozbicia Facebooka, ale domaga się przejrzystości, niezależnych audytów i regulacji chroniących użytkowników przed manipulacją algorytmiczną.

Algorytmy jako narzędzie wpływu i kontroli społecznej

Sedno ujawnień Frances Haugen dotyczy nie tyle konkretnych treści publikowanych na platformie, ile fundamentalnego sposobu, w jaki Facebook decyduje, co użytkownicy widzą.

Algorytmy rankingowe platformy działają w oparciu o model maksymalizacji zaangażowania (engagement): treści, które wywołują silne reakcje emocjonalne – gniew, strach, oburzenie – są promowane, ponieważ generują więcej kliknięć, komentarzy i udostępnień.

Haugen zeznała, że firma świadomie wybrała ten model, mimo wewnętrznych ostrzeżeń o jego szkodliwości.

Wewnętrzne badania Facebooka ujawniły, że algorytmy platformy:

Promują treści radykalne i ekstremistyczne, ponieważ wzbudzają one największe zaangażowanie.

Tworzą „bańki informacyjne” (filter bubbles), w których użytkownicy są eksponowani wyłącznie na treści zgodne z ich istniejącymi przekonaniami, co prowadzi do polaryzacji społecznej.

Wykorzystują mechanizmy uzależnienia, projektując interfejsy i powiadomienia w sposób maksymalizujący czas spędzony na platformie.

Personalizują przepływ informacji w sposób nieprzejrzysty, uniemożliwiając użytkownikom zrozumienie, dlaczego widzą określone treści.

Ten model działa w sposób szczególnie szkodliwy w przypadku młodzieży: badania ujawnione w Facebook Papers pokazały, że Instagram celowo wykorzystuje mechanizmy porównania społecznego i walidacji przez rówieśników (w formie „lajków” i komentarzy), by utrzymać młodych użytkowników na platformie, nawet gdy to pogarsza ich samopoczucie.

Jak stwierdziła jedna z wewnętrznych prezentacji:

32% nastolatek powiedziało, że kiedy czuły się źle w swoim ciele, Instagram sprawiał, że czuły się jeszcze gorzej”.

Haugen podkreślała, że algorytmy nie są neutralne – są narzędziami projektowanymi z konkretnym celem, którym jest maksymalizacja zysku korporacji.

Jej zeznania przesunęły uwagę debaty publicznej z kwestii moderacji treści (co można, a czego nie można publikować) na fundamentalne pytanie o to, jak platformy decydują o dystrybucji informacji.

Mechanizmy ukrytego wpływu – datafikacja i bańki informacyjne

Ujawnienia Haugen wpisują się w szerszą krytykę modelu biznesowego platform cyfrowych, określanego jako „kapitalizm nadzoru” (surveillance capitalism).

Model ten opiera się na gromadzeniu ogromnych ilości danych o użytkownikach – ich zachowaniach, preferencjach, emocjach – i wykorzystywaniu tych danych do przewidywania i kształtowania ich przyszłych zachowań.

Facebook wie nie tylko, co użytkownicy robią na platformie, ale także jak reagują emocjonalnie na różne treści, co pozwala firmie precyzyjnie dostrajać algorytmy w celu maksymalizacji zaangażowania.

Wewnętrzne dokumenty ujawniły, że firma testowała różne wersje algorytmów i interfejsów, mierząc ich wpływ na zachowania użytkowników.

Ten proces „datafikacji” przekształca wszystkie aspekty życia społecznego w dane, które można zmierzyć, przewidzieć i zmonetyzować.

Konsekwencje tego modelu są głębokie: użytkownicy tracą autonomię w decydowaniu, jakie informacje otrzymują, a ich percepcja rzeczywistości jest kształtowana przez nieprzejrzyste algorytmy projektowane w celu maksymalizacji zysku korporacji.

Haugen wskazała również na problem „baniek informacyjnych”: algorytmy Facebooka preferują treści zgodne z istniejącymi przekonaniami użytkowników, ponieważ takie materiały generują większe zaangażowanie.

To prowadzi do fragmentacji przestrzeni publicznej, w której różne grupy społeczne żyją w całkowicie odmiennych rzeczywistościach informacyjnych, nie mając dostępu do wspólnych faktów czy narracji.

W efekcie platforma nie tylko nie łączy ludzi – jak deklaruje jej misja – ale aktywnie ich dzieli, ponieważ podziały są bardziej opłacalne.

Dlaczego zdecydowała się zostać sygnalistką

Decyzja Frances Haugen o ujawnieniu dokumentów wiązała się z ogromnym osobistym ryzykiem.

W swoim oświadczeniu przed Kongresem powiedziała: „Wierzę, że to, co zrobiłam, było słuszne i niezbędne dla dobra wspólnego – ale wiem, że Facebook ma nieskończone zasoby, które może wykorzystać, by mnie zniszczyć”.

„Wystąpiłam, ponieważ rozpoznałam przerażającą prawdę: prawie nikt poza Facebookiem nie wie, co naprawdę się dzieje”.

W wywiadach Haugen wskazywała na kilka motywacji: po pierwsze, frustrację związaną z rozwiązaniem zespołu Civic Integrity tuż po wyborach w 2020 roku, co uznała za świadomy wybór firmy na rzecz zysku kosztem demokracji.

Po drugie, świadomość, że problemy Facebooka nie mogą zostać rozwiązane wyłącznie przez pracowników firmy – wymagają one interwencji regulatorów i ustawodawców.

Po trzecie, poczucie osobistej odpowiedzialności: jako inżynierka systemu miała wiedzę i dokumenty, których inni nie mieli, i uznała, że ma obowiązek je ujawnić.

Debata publiczna o Haugen była podzielona: dla jednych była bohaterką walczącą o transparentność i odpowiedzialność korporacji, dla innych – zwolenniczką nadmiernej regulacji zagrażającej wolności słowa.

Facebook i jego CEO Mark Zuckerberg odrzucili jej zarzuty jako „po prostu nieprawdziwe”, twierdząc, że firma inwestuje miliardy dolarów w bezpieczeństwo i moderację treści.

Niemniej ujawnienia Haugen uruchomiły lawinę: kolejni sygnaliści z Meta wystąpili w latach następnych, a firma stanęła w obliczu licznych postępowań regulacyjnych i procesów sądowych.

Globalny wpływ ujawnień – od DSA po walkę o regulację algorytmów

Ujawnienia Frances Haugen miały bezpośredni wpływ na procesy legislacyjne w wielu krajach.

Unii Europejskiej jej zeznania zostały przywołane podczas prac nad Digital Services Act (DSA) – kompleksową regulacją platform cyfrowych uchwaloną w 2022 roku.

DSA nakłada na wielkie platformy obowiązek przeprowadzania ocen ryzyka związanego z ich systemami algorytmicznymi, publikowania raportów transparentności i współpracy z niezależnymi audytorami.

listopadzie 2021 roku Haugen została zaproszona do Parlamentu Europejskiego, gdzie zeznawała przed komisją ds. rynku wewnętrznego i ochrony konsumentów.

Jej wystąpienie wzmocniło determinację europejskich ustawodawców do wprowadzenia surowych regulacji dla Big Techu.

Stanach Zjednoczonych jej zeznania nie przełożyły się na szybkie zmiany legislacyjne, głównie z powodu głębokiego podziału politycznego i silnego lobbingu firm technologicznych.

Niemniej jej wystąpienie uruchomiło szereg postępowań wyjaśniających i wzmocniło pozycję rzeczników ochrony prywatności i regulacji cyfrowych.

Czy po Haugen cokolwiek się zmieniło?

Odpowiedź jest złożona: z jednej strony, jej ujawnienia przyspieszyły procesy regulacyjne i zwiększyły świadomość publiczną o manipulacyjnych mechanizmach platform.

Z drugiej strony, podstawowy model biznesowy Meta – oparty na maksymalizacji zaangażowania i sprzedaży reklam – pozostał niezmieniony.

Firma wprowadziła pewne zmiany kosmetyczne, ale algorytmy nadal działają w oparciu o te same zasady.

Stanowisko Meta po skandalu było defensywne: firma wielokrotnie zaprzeczała oskarżeniom Haugen, podkreślając swoje inwestycje w bezpieczeństwo i moderację.

Mark Zuckerberg stwierdził, że twierdzenia o przedkładaniu zysku nad bezpieczeństwo są „po prostu nieprawdziwe”.

Jednak wewnętrzne dokumenty zebrane przez Haugen przemawiają inaczej.

Epoka algorytmicznego kapitalizmu

Historia Frances Haugen to więcej niż opowieść o jednej sygnalistce i jednej korporacji.

To studium przypadku epoki, w której algorytmy – zaprojektowane przez prywatne firmy w celach komercyjnych – kształtują sposób, w jaki miliardy ludzi postrzegają rzeczywistość, podejmują decyzje i wchodzą w relacje społeczne.

Jej ujawnienia pokazują, że nie chodzi tylko o konkretne treści publikowane na platformach, ale o fundamentalną architekturę systemów, które decydują o obiegu informacji w społeczeństwie.

W epoce algorytmicznego kapitalizmu sygnalista staje się nową, krytyczną rolą społeczną.

Haugen nie była pierwszą osobą, która ujawniła nieprawidłowości w branży technologicznej, ale jej działania były wyjątkowo przemyślane i skuteczne: zebrała dokumenty, nawiązała współpracę z dziennikarzami i ustawodawcami, a następnie publicznie ujawniła swoją tożsamość, by nadać twarz i wiarygodność ujawnionym informacjom.

Ten model „sygnalisty strategicznego” stał się wzorem dla kolejnych osób z branży.

Jej historia wpisuje się w globalny proces walki o transparentność i odpowiedzialność algorytmów.

W miarę jak platformy cyfrowe zyskują coraz większą władzę nad przestrzenią publiczną, rośnie świadomość, że nie mogą one działać jako nieprzejrzyste „czarne skrzynki”, kierujące się wyłącznie logiką zysku.

Ujawnienia Haugen pokazały, że firmy takie jak Meta mają wiedzę o szkodliwości swoich produktów, ale świadomie wybierają zysk nad bezpieczeństwo.

To fundamentalne pytanie o odpowiedzialność: czy korporacje technologiczne mogą być pozostawione same sobie, czy też wymagają zewnętrznej kontroli, regulacji i demokratycznej kontroli.

Pytanie to pozostaje otwarte, ale historia Frances Haugen stanowi punkt zwrotny w debacie – moment, w którym ukryte mechanizmy algorytmicznej manipulacji zostały ujawnione, a społeczeństwa na całym świecie zaczęły domagać się zmian.

Dodaj komentarz

Sprawdź również:

Preferencje plików cookies

Inne

Inne pliki cookie to te, które są analizowane i nie zostały jeszcze przypisane do żadnej z kategorii.

Niezbędne

Niezbędne
Niezbędne pliki cookie są absolutnie niezbędne do prawidłowego funkcjonowania strony. Te pliki cookie zapewniają działanie podstawowych funkcji i zabezpieczeń witryny. Anonimowo.

Reklamowe

Reklamowe pliki cookie są stosowane, by wyświetlać użytkownikom odpowiednie reklamy i kampanie marketingowe. Te pliki śledzą użytkowników na stronach i zbierają informacje w celu dostarczania dostosowanych reklam.

Analityczne

Analityczne pliki cookie są stosowane, by zrozumieć, w jaki sposób odwiedzający wchodzą w interakcję ze stroną internetową. Te pliki pomagają zbierać informacje o wskaźnikach dot. liczby odwiedzających, współczynniku odrzuceń, źródle ruchu itp.

Funkcjonalne

Funkcjonalne pliki cookie wspierają niektóre funkcje tj. udostępnianie zawartości strony w mediach społecznościowych, zbieranie informacji zwrotnych i inne funkcjonalności podmiotów trzecich.

Wydajnościowe

Wydajnościowe pliki cookie pomagają zrozumieć i analizować kluczowe wskaźniki wydajności strony, co pomaga zapewnić lepsze wrażenia dla użytkowników.