Discord odpowiada na falę nowych (przede wszystkim tych najmłodszych) użytkowników, którzy trafili na platformę w ciągu ostatnich miesięcy i lat!
Od teraz, moderacja ma przede wszystkim ostrzegać, pouczać i informować o błędach, a nie – jak do tej pory – karać surowo za wszystkie występki.
Ogromna popularność Discorda
Założony w 2015 roku Discord, początkowo jako platforma przeznaczona stricte dla graczy, rozrósł się do tego stopnia, że korzystają z niego ludzie na całym świecie. Od dawna jednak platforma nie ogranicza się tylko do graczy, bowiem w ostatnich latach stała się miejscem dla uczniów i studentów, czy nawet pracowników firm!
Według dostępnych informacji, na początku 2023 roku, na Discordzie miało być założonych ponad 563 milionów kont! W przypadku statystyk miesięcznych, mówi się nawet o ponad 150 milionach aktywnych użytkowników.
Duże liczby, to duża odpowiedzialność
W związku z niemałą popularnością na całym świecie, na barkach zarządców komunikatora spoczywa równie duża odpowiedzialność. O ile w przypadku osób dorosłych sprawa wygląda nieco inaczej, tak w przypadku najmłodszych użytkowników, Discord musi robić wszystko, aby Ci mogli się czuć bezpiecznie.
Do tej pory zespół moderacji działał momentami aż za dobrze, bowiem dochodziło do sytuacji, że niektórzy użytkownicy byli blokowani za żartobliwe napisanie wiadomości, że mają mniej, niż 13 lat (minimalny wiek użytkowania platformy).
Pomijając tego typu sytuacje, moderacja platformy – na tyle, na ile jest to możliwe – starała się zapewniać ochronę aktywnym użytkownikom. W przypadku, gdy któryś z nich łamał regulamin, a moderatorzy dowiedzieli się o jego zachowaniu, musiał liczyć się ze srogą karą w postaci blokady konta.
Czasy się zmieniają, podejście również
Jak poinformowano wczoraj na oficjalnym blogu, od teraz zmienia się podejście moderacji do użytkowników. Zamiast rozrzucanych na lewo i prawo blokad, pojawią się ostrzeżenia, pouczenia i informacje, co użytkownik zrobił „nie tak”.
Nowy system daje użytkownikom więcej możliwości uczenia się na błędach i korygowania błędnych decyzji […] Odchodzimy od stałych zakazów na rzecz rocznych tymczasowych zakazów w przypadku wielu naruszeń, z wyjątkiem naruszeń, które są wyjątkowo szkodliwe.
Wprowadzone zostaną także częściowe kary – np. gdy użytkownik wyśle obraz łamiący regulamin, moderacja może nałożyć na niego czasową blokadą wysyłania multimediów. Dzięki temu użytkownicy mają być edukowani, a jeśli ktoś i tak będzie łamał regulamin, to prędzej czy później, zostanie odpowiednio ukarany.
Co sądzą o tym użytkownicy?
Przed publikacją tego tekstu, postanowiliśmy zapytać użytkowników naszego TechnoStrefowego Discorda, co uważają o nowych zmianach moderacji.
Większość osób, która zdążyła wziąć udział w szybkiej ankiecie, zdecydowała, że jest to zmiana jak najbardziej na plus. Użytkownicy doceniają fakt, że wreszcie będzie wiadomo, za co tak naprawdę są karani. Do tej pory, niejednokrotnie trudno było w ogóle znaleźć powód nakładanej na nasze konto blokady.
Trudno się z tym nie zgodzić, więc miejmy nadzieję, że – tak, jak obiecują przedstawiciele platformy – od teraz wszystko będzie bardziej oczywiste i przede wszystkim, przejrzyste!
A co Wy uważacie o nowych zmianach w sprawie moderacji i nakładanych kar? Otrzymaliście kiedyś jakąś blokadę na swoje konto?
ŹRÓDŁO: Discord Blog, The Verge
Dodaj komentarz