Czy algorytmy wiedzą o nas więcej niż my sami? O przewidywaniu ludzkich potrzeb i zachowań
Niemal każda nasza aktywność w sieci pozostawia ślad. „Lajk” pod zdjęciem, czas spędzony na przewijaniu treści, a nawet tempo pisania, to informacje wykorzystywane do analizy naszych zachowań i personalizowania algorytmów. Czy więc matematyczne modele są w stanie rozpoznać nasze potrzeby, pragnienia i lęki lepiej niż my sami? W gruncie rzeczy jest to pytanie o naturę człowieka.
Data publikacji: 15.05.2026
Kliknięcie, zatrzymanie wzroku na zdjęciu, historia wyszukiwania, lokalizacja telefonu, dynamika pisania wiadomości – wszystko to może być analizowane przez algorytmy uczenia maszynowego.
Pokaż mi swoje „lajki” a powiem ci kim jesteś
Już w 2013 roku polski psycholog i badacz z zakresu psychometrii dr Michał Kosiński, związany wówczas z Uniwersytetem w Cambridge, opublikował wyniki przełomowego badania. Wynikało z niego, że na podstawie polubień na Facebooku system jest w stanie z dużą precyzją określić cechy osobowości danego użytkownika. Dwa lata później badacze poszli o krok dalej. Sprawdzili, czy ocena osobowości dokonana przez algorytm jest trafniejsza od oceny dokonywanej przez ludzi. Analizowano m.in. takie cechy jak poziom ekstrawersji, neurotyczności czy poglądy polityczne danej osoby.
Algorytm czy partner, kto wie o tobie więcej?
Wynik okazał się zaskakujący – model komputerowy dysponujący zaledwie dziesięcioma „lajkami" określał lepiej preferencje badanego człowieka niż jego współpracownicy czy znajomi. Przy siedemdziesięciu „lajkach" przewyższał wiedzą przyjaciela, a przy stu pięćdziesięciu – rodzica lub rodzeństwo. W oparciu o ponad trzysta „polubienień" algorytm oceniał cechy osobowości wybranej osoby podobnie precyzyjnie, co jej życiowy partner. Badanie wywołało wówczas spore poruszenie, cytowano je m.in. w prestiżowym czasopiśmie „Proceedings of the National Academy of Sciences” (PNAS), choć pojawiły się również głosy sugerujące nadinterpretację tych wyników.
Internet – twoje lustro
Co to oznacza w praktyce? Że nasze cyfrowe zachowania, czyli to na jakie strony wchodzimy, jak długo zatrzymujemy się przy danym poście, co kupujemy w sieci, co i w jaki sposób komentujemy, tworzy bardzo precyzyjny obraz psychologiczny, często dokładniejszy niż ten, który budujemy sami. Dlaczego tak się dzieje? Okazuje się, że w wielu obszarach swojego życia, człowiek jest o wiele bardziej przewidywalny, niż mu się wydaje.
Rutyna zapisana w sieci
W pewnym zakresie potwierdziły to badania przeprowadzone przez chińskiego naukowca prof. Chaominga Songa z Northeastern University w Bostonie oraz prof. Alberta-László Barabásiego z Northeastern University i Harvard Medical School. Badacze analizowali dane lokalizacyjne telefonów komórkowych wykazując, że wzorce codziennego przemieszczania się ludzi są zaskakująco regularne. Na podstawie samych danych o lokalizacji można było przewidzieć przyszłe zachowania użytkowników z dokładnością przekraczającą 90 proc. Wyniki badania opublikowano w prestiżowym czasopiśmie „Science”.
Wrzuceni do jednej bańki
Podobnie działają algorytmy platform streamingowych i mediów społecznościowych. Tzw. systemy rekomendacji analizują miliony zachowań, sprawdzając, jakie treści wywołają określone reakcje emocjonalne użytkowników, bo właśnie o emocje tu chodzi.
W Polsce badania nad wpływem algorytmów na społeczeństwo prowadzą m.in. eksperci z Uniwersytetu SWPS. Analizują oni w jaki sposób media społecznościowe i platformy internetowe wpływają na nasze poglądy, emocje, sposób postrzegania świata oraz – dlaczego w internecie widzimy głównie treści zgodne z naszymi przekonaniami. Dr hab. Konrad Bocian, prof. Uniwersytetu SWPS, zwraca przy tej okazji uwagę na zjawisko „baniek informacyjnych” i „komór echa”.
Ograniczeni na własne życzenie
Bańka informacyjna to okoliczność, w której użytkownik otrzymuje przede wszystkim informacje dopasowane do swoich poglądów i preferencji. Algorytmy „uczą się” tego, co lubimy oglądać i wyświetlają podobne treści, zamykając nas w swego rodzaju „bańkach”. „Komora echa” to z kolei środowisko, w którym te same, powtarzane wielokrotnie treści są dodatkowo wzmacniane przez innych użytkowników. W efekcie człowiek ma ograniczony dostęp do opinii odmiennych od własnych, utwierdzając się tylko w swoich przekonaniach. W praktyce oba zjawiska utrudniają dialog społeczny, mogą prowadzić do polaryzacji i nasilenia się problemu dezinformacji.
Czytaj także: Przyszłość nauczania informatyki – jak Peer-to-peer i AI zmieniają edukację
Wykluczeni przez system
Socjolog i badacz z USWPS, dr Kuba Piwowar, wskazuje jeszcze jeden negatywny aspekt takiego profilowania, a mianowicie – algorytmiczne wykluczenie. Jeśli system na podstawie danych statystycznych uzna np., że osoby o profilu podobnym do naszego rzadziej spłacały kredyty lub częściej rezygnowały z pracy, to może to mieć bardzo konkretne konsekwencje. Choćby w sytuacji, w której bank, wspomagający się technologiami do profilowania klientów, odrzuci nasz wniosek o kredyt, a system rekrutacyjny wyeliminuje naszą aplikację, nie dając nawet szansy na rozmowę kwalifikacyjną. To moment, w którym „wiedza” pochodząca z algorytmu staje się samospełniającą się przepowiednią – system nie tyle przewiduje naszą przyszłość, co sam ją modeluje.
Rozpoznaj emocje, czyli pozytywne profilowanie
Warto jednak pamiętać, że profilowanie algorytmiczne może być też użyteczne społecznie. W ostatnich latach dynamicznie rozwinęła się dziedzina określana jako „affective computing”, czyli technologia rozpoznawania emocji, polegająca na tym, że systemy AI analizują mimikę twarzy, ton głosu, sposób pisania, a nawet rytm naciskania klawiatury. Europejskie projekty badawcze próbują wykorzystywać takie rozwiązania m.in. w psychiatrii i profilaktyce zdrowia psychicznego. Finansowany przez Unię Europejską projekt PRONIA rozwijał np. algorytmy służące do przewidywania ryzyka wystąpienia psychozy u osób młodych. Projekt był koordynowany przez niemieckiego psychiatrę prof. Andreasa Bechdolfa z Charité – Universitätsmedizin Berlin. Celem badania było wykrycie wczesnych sygnałów, które mogą pojawiać się przed pierwszym epizodem choroby.
Nieprzewidywalny, ale za to ludzki
Choć możliwości sztucznej inteligencji są imponujące, naukowcy coraz częściej podkreślają też jej fundamentalne ograniczenia. Ludzkie zachowanie jest bowiem w dużej mierze zależne od kontekstu społecznego, emocji, relacji i przypadkowych zdarzeń. Ten sam człowiek może reagować zupełnie inaczej w zależności od sytuacji życiowej, poziomu stresu czy wpływu innych osób. Na dodatek, w psychologii już dawno dowiedziono, że ludzie mają ograniczony wgląd we własne motywacje. Paradoksalnie więc algorytm może czasem przewidzieć lepiej nasze zachowanie, ale ani człowiek, ani maszyna nie zrozumieją do końca powodu tej decyzji.
Jak uczy się twój mózg, a jak sztuczna inteligencja?
Jednocześnie współczesne modele AI nadal mają problem z tym, co dla ludzi jest naturalne – intuicja, elastyczne podejście do problemu i wykorzystywanie wiedzy uzyskanej w jednym obszarze do radzenia sobie w innym. Jak zauważa polski fizyk i neuroinformatyk prof. Piotr Durka z Uniwersytetu Warszawskiego w artykule „Sztuczne inteligencje i biologiczne mózgi”, biologiczny mózg uczy się inaczej niż systemy sztucznej inteligencji. Człowiek potrafi tworzyć nowe strategie na podstawie niewielkiej liczby doświadczeń, podczas gdy algorytmy zwykle wymagają gigantycznych zbiorów danych, by opracować model działania w określonej sytuacji.
Algorytm kopiuje i powiela twoje błędy
Do tego dochodzi jeszcze jedna kwestia – powszechne przekonanie, że algorytmy są obiektywne to złudzenie. Systemy AI uczą się przecież na danych dostarczonych przez ludzi, a tym samym przejmują również ludzkie uprzedzenia i stereotypy. W ostatnich latach wielokrotnie wykazywano, że algorytmy wykorzystywane np. do rekrutacji w bankowości czy wymiarze sprawiedliwości mogły potencjalnie dyskryminować określone grupy społeczne. Problem ten opisywała m.in. amerykańska badaczka nowych technologii dr Safiya Umoja Noble z University of California Los Angeles (UCLA) w książce „Algorithms of Oppression”. Na społeczne konsekwencje działania algorytmów zwracają uwagę również polscy badacze z Uniwersytetu SWPS, podkreślając, że technologie coraz częściej wpływają na dostęp do usług, edukacji czy rynku pracy, a ich działanie bywa trudne do zakwestionowania, ponieważ nie jest przejrzyste.
Schemat nie lubi spontaniczności
Im więcej danych o człowieku posiada system, tym trafniejsze stają się jego prognozy. Jednak sztuczna inteligencja wciąż nie ma świadomości, intuicji, intencji ani doświadczenia emocjonalnego. Rozpoznaje jedynie wzorce statystyczne. Przewidywalność jaką buduje na nasz temat AI kończy się więc tam, gdzie zaczyna się ludzka kreatywność, spontaniczność i skłonność do zmiany.
Zarządzaj świadomie „cyfrowym bliźniakiem”
Paradoks polega na tym, że im więcej decyzji pozostawiamy algorytmom, np. zadając AI pytania – jak spędzić weekend albo na co iść do kina, tym bardziej stajemy się przewidywalni i „wspomagamy” system. Być może więc najważniejsze pytanie nie brzmi: „czy algorytmy wiedzą o nas więcej niż my sami?”, tylko „jak wiele jesteśmy gotowi im o sobie powiedzieć?”.
Jak zauważają badacze z HumanTech Centrum Innowacji Społecznych i Technologicznych USWPS, kluczem do przetrwania w świecie algorytmów jest „higiena cyfrowa”. Nie chodzi o całkowite odcięcie się od sieci, ale zrozumienie, że nasz „cyfrowy bliźniak” to tylko oparty na statystyce konstrukt. Może wiedzieć jaką kawę zamówimy w drodze do pracy i jaką trasę wybierzemy, ale nie będzie miał pojęcia o czym marzymy, dopóki nie wpiszemy tego w wyszukiwarkę.
Czytaj także: AI a projektowanie przyszłości – wyzwania i możliwości edukacji