1/
Koalicja organizacji, badaczy i ekspertów People vs Big Tech przesłała Komisji Europejskiej analizę raportów #VLOP-ów z oceny ryzyka. Komisja pracuje obecnie przygotowuje raport podsumowujący, jakie ryzyka systemowe tworzą platformy.
[ENG] en.panoptykon.org/risk-assessm

Chcemy egzekwowania lepszej jakości obowiązkowych raportów, które składają platformy. VLOP-y muszą zrobić znacznie (znacznie!) więcej, żeby odbudować społeczne zaufanie i pokazać, że poważnie traktują swoje obowiązki w UE.

2/
Trzy najważniejsze rekomendacje:

1. PROJEKTOWANIE BEZ SZKODZENIA

Źródłem wielu zagrożeń jest projektowanie social mediów. Powiadomienia, scrollowanie bez końca i szkody dla zdrowia psychicznego nie biorą się znikąd. Oczekujemy, że w kolejnych raportach firmy zauważą problem i wycofają się z manipulacyjnego designu

2. DOWODY, a nie zapewnienia

Raporty VLOP-ów są pełne zapewnień i chcielibyśmy w nie wierzyć.

Show thread

@panoptykon
A gdyby chcieć w czarnowidztwo… ;-)

Czy w ogóle da się zrobić sterowany algorytmem feed który nie będzie uzależniał od przewijania czy wprowadzał manipulacji/dezinformacji/złychrzeczy™?

Moim zdaniem nie!
Dobry (w sensie hmm... nie evil :D) algorytm podsunie same wartościowe i ciekawe treści i pyk… scrollujesz bez końca.

Na dodatek zaraz pojawi się rynek „SMEO” i — jestem o tym przekonany — nie ma tak dobrego algorytmu którego nie da się zaspamować i zmusić do pokazywania sieczki.

@wariat - moim zdaniem da się, ale algorytm musi być w całości "po stronie użytkownika". W tym sensie, że nie powinny się w nim znajdować rzeczy, które działają wbrew woli użytkownika. W zasadzie taki idealny algorytm to AI trenowane tylko na użytkowniku.

@panoptykon

Follow

@mason @wariat @panoptykon Na pewno miałoby to wiele pozytywów, ale pozostaje również część negatywów. Nadal istniałyby algorytmiczne bańki, gdzie ludziom wyświetlałby się tylko jeden punkt widzenia, bo algorytm nauczył się, że lubią takie treści. Aby się z nich wyrwać, potrzebne byłyby świadome decyzje.

Poza tym część władzy przeszłaby z mediów społecznościowych na dostawców algorytmów. Algorytmy mają swoje uprzedzenia, zarówno te celowo wbudowane przez twórców, jak i te przypadkowe.

Sign in to participate in the conversation
Librem Social

Librem Social is an opt-in public network. Messages are shared under Creative Commons BY-SA 4.0 license terms. Policy.

Stay safe. Please abide by our code of conduct.

(Source code)

image/svg+xml Librem Chat image/svg+xml