Bezpieczeństwo dziecka na platformie Roblox
-

Weryfikacja wieku – opcjonalna funkcja weryfikacji określa wiek użytkownika na podstawie skanu dokumentu lub selfie. W ten sposób najmłodsi użytkownicy nie mają dostępu do treści przeznaczonych dla starszych graczy.
-

System zgłaszania nadużyć – każdy użytkownik może łatwo zgłosić podejrzaną sytuację za pomocą dostępnej w menu funkcji Report Abuse. Można również zablokować użytkownika, który budzi wątpliwości na liście znajomych
-

Limity wieku – system automatycznie ogranicza dostęp młodszych graczy do określonych treści – najmłodsi gracze otrzymają dostęp tylko do kategorii minimal, a treści najwyższej kategorii restricted dostępne są jedynie dla zweryfikowanych graczy powyżej 17. roku życia
-

Filtrowanie czatu – oparte na AI filtry zablokują niepożądane treści w komunikacji: np. wulgaryzmy, treści o charakterze seksualnym, czy próby udostępnienia danych osobowych i linków poza platformę
-

Wykrywanie wieku gracza – jeśli algorytm wykryje, że gracz jest młodszy, niż twierdzi, konto zostanie zablokowane przed funkcjami dostępnymi tylko dla użytkowników 13+.
-

Współpraca z organami ścigania – Roblox zgłasza niezwłocznie wszystkie budzące podejrzenia incydenty do organów ścigania.
-

Wykrywanie prób podszywania się – system wykrywa również wszelkie próby podszywania się pod nieletnich lub nakłaniania do kontaktu poza platformą.
-

Zakaz komunikacji z obcymi – gracze poniżej 13. roku życia nie mogą wysyłać prywatnych wiadomości i obrazków do osób spoza grona znajomych.
-

Całodobowa moderacja – wielotysięczny zespół ekspertów, we współpracy ze sztuczną inteligencją, moderuje treści na platformie 24/7.
-

Filtrowanie treści – nieodpowiednie gry (np. zawierające treści seksualne lub przemocowe) zostają natychmiast rozpoznane i usunięte z platformy w ciągu kilku minut od wykrycia.
-

Oznaczenia dojrzałości treści – każda dostępna na platformie gra oznaczana jest etykietą wieku i dojrzałości treści w jednej z czterech kategorii: minimal, mild, moderate i restricted.
-

System Roblox Sentinel – nowo wprowadzony system AI wykrywa potencjalne zagrożenia dla dzieci w rozmowach, natychmiast alarmując moderatorów.
Standardy społeczności Roblox
-

Bezpieczeństwo
- zakaz wykorzystywania dzieci i nagabywania nieletnich
- zero tolerancji dla treści nawołujących do terroryzmu lub ekstremizmu
- zapobieganie przejawom nękania, gróźb czy stalkingu -

Szacunek
- zakaz mowy nienawiści oraz dyskryminacji w każdej formie
- ochrona prywatności danych użytkowników -

Uczciwość
- przeciwdziałanie wszelkim próbom oszustw, scamów czy manipulacji
- poszanowanie praw autorskich i własności intelektualnej. -

Odpowiednie treści
- zakaz rozpowszechniania fałszywych informacji
- publikowanie treści odpowiednich dla szerokiej grupy wiekowej
- zakaz publikowania treści o charakterze seksualnym lub przemocowym