1/
Koalicja organizacji, badaczy i ekspertów People vs Big Tech przesłała Komisji Europejskiej analizę raportów #VLOP-ów z oceny ryzyka. Komisja pracuje obecnie przygotowuje raport podsumowujący, jakie ryzyka systemowe tworzą platformy.
[ENG] https://en.panoptykon.org/risk-assessments-analysis-2025
Chcemy egzekwowania lepszej jakości obowiązkowych raportów, które składają platformy. VLOP-y muszą zrobić znacznie (znacznie!) więcej, żeby odbudować społeczne zaufanie i pokazać, że poważnie traktują swoje obowiązki w UE.
2/
Trzy najważniejsze rekomendacje:
1. PROJEKTOWANIE BEZ SZKODZENIA
Źródłem wielu zagrożeń jest projektowanie social mediów. Powiadomienia, scrollowanie bez końca i szkody dla zdrowia psychicznego nie biorą się znikąd. Oczekujemy, że w kolejnych raportach firmy zauważą problem i wycofają się z manipulacyjnego designu
2. DOWODY, a nie zapewnienia
Raporty VLOP-ów są pełne zapewnień i chcielibyśmy w nie wierzyć.
@panoptykon
A gdyby chcieć w czarnowidztwo… ;-)
Czy w ogóle da się zrobić sterowany algorytmem feed który nie będzie uzależniał od przewijania czy wprowadzał manipulacji/dezinformacji/złychrzeczy™?
Moim zdaniem nie!
Dobry (w sensie hmm... nie evil :D) algorytm podsunie same wartościowe i ciekawe treści i pyk… scrollujesz bez końca.
Na dodatek zaraz pojawi się rynek „SMEO” i — jestem o tym przekonany — nie ma tak dobrego algorytmu którego nie da się zaspamować i zmusić do pokazywania sieczki.
@mason @wariat @panoptykon Na pewno miałoby to wiele pozytywów, ale pozostaje również część negatywów. Nadal istniałyby algorytmiczne bańki, gdzie ludziom wyświetlałby się tylko jeden punkt widzenia, bo algorytm nauczył się, że lubią takie treści. Aby się z nich wyrwać, potrzebne byłyby świadome decyzje.
Poza tym część władzy przeszłaby z mediów społecznościowych na dostawców algorytmów. Algorytmy mają swoje uprzedzenia, zarówno te celowo wbudowane przez twórców, jak i te przypadkowe.