Molly Russell miała zaledwie 14 lat, kiedy popełniła samobójstwo w 2017 roku. Orzeczono, że Molly zmarła w wyniku „aktu samookaleczenia, cierpiąc na depresję i negatywne skutki treści internetowych”.
Dochodzenie w sprawie śmierci Molly słusznie wywołało ogromny nacisk na zaostrzenie przepisów dotyczących mediów społecznościowych. Jednak aby skutecznie chronić dzieci w Internecie, musimy teraz skupić się na zapobiegawczych i solidnych regulacjach dotyczących technologii immersyjnych – przyszłego i stale rosnącego ryzyka.
Zagrożenia w przestrzeniach wirtualnych i immersyjnych
Przewiduje się, że dorastające teraz dzieci spędzą w nim 10 lat swojego życia metawszechświat, narażając je na nowe i większe zagrożenia związane z trollingiem, nieodpowiednimi treściami i uwodzeniem. Niestety, podobnie jak w przypadku wszystkich technologii, adopcja przez złych aktorów może bardzo szybko zmienić pozytywne innowacje w potencjalne zagrożenia, a wokół przestrzeni wirtualnych i immersyjnych należy zwrócić uwagę na kilka zagrożeń.
Istnieją dowody na uwodzenie i nękanie w nowo uruchomionych przestrzeniach wirtualnych, a badacze identyfikują występowanie nadużyć raz na siedem minut w jednym środowisku wirtualnym. Co więcej, wciągające doświadczenie zapewniane przez rozszerzoną rzeczywistość może prowadzić do jeszcze bardziej traumatycznych doświadczeń negatywnych.
Integracja przestrzeni wirtualnych z rozszerzoną rzeczywistością – wirtualną, rozszerzoną i mieszaną – stwarza nowe problemy związane z prywatnością, a zestawy słuchawkowe i kontrolery mogą jednocześnie rejestrować kombinację punktów danych biograficznych, biometrycznych i sytuacyjnych. Oprócz imienia i nazwiska lub nazwy użytkownika mogą być również gromadzone szczegóły dotyczące ruchów gałek ocznych, postawy i pokoju, w którym ktoś się znajduje. Sugeruje to jedno oszacowanie w ciągu 20 minut można zebrać dwa miliony punktów danych Wirtualna rzeczywistość sesja.
Nadrzędnym wyzwaniem jest wizja pojedynczego połączonego i „nieograniczonego” cyfrowego świata, w którym pojawia się dominująca platforma wirtualna, umożliwiająca użytkownikom swobodne przeskakiwanie między różnymi platformami i doświadczeniami. Rodzi to kilka pytań do organów ścigania i regulacji pod względem jurysdykcji prawnej w zakresie standardów reklamowych i zabezpieczeń. Stanowi również wyzwanie dla użytkowników i ich opiekunów, starając się ograniczyć narażenie na szkodliwe treści i niechciane interakcje.
Rola rządu
Platformy od lat samoregulują się – i nie jest to skuteczne. Dochodzenie Molly pokazało, jak zepsuta jest ta metoda. W Nowej Zelandii giganci technologiczni zgodzili się na „samoregulację”, aby ograniczyć szkodliwe treści online, wykonując ruch, który według krytyków uniknął alternatywy regulacji rządowych.
Regulacja powinna być połączona z policją i moderacją w Metaverse. Dane powinny być wykorzystywane do zrozumienia, z jakimi treściami są narażone dzieci, jakie są ich interakcje i działania, które podejmują w tych światach, a także do kierowania odpowiednimi interwencjami.
Rząd Wielkiej Brytanii ma obowiązek chronić wszystkich użytkowników online, zwłaszcza dzieci. Rozwój Ustawa o bezpieczeństwie online w Wielkiej Brytanii wciąż trwa i chociaż dotyczy technologii immersyjnych, w tym metaverse, obecnie koncentruje się na publikowanych treściach generowanych przez użytkowników, a nie na aktywności. Ustawa ma na celu pomóc zmniejszyć ryzyko związane z treściami (gdy dziecko jest narażone na nieodpowiednie lub nielegalne treści – na przykład strony internetowe propagujące szkodliwe lub niebezpieczne zachowania, takie jak samookaleczanie, samobójstwo i anoreksja), ale obecnie nie rozważa, jak regulować rzeczywiste -czas kontaktu i ryzyko prowadzenia.
Zwiększona adopcja immersyjne technologie prawdopodobnie nastąpi ograniczenie tradycyjnych treści publikowanych w mediach społecznościowych, a interakcje użytkowników w czasie rzeczywistym staną się bardziej widoczne. Dzieci będą kontaktować się na żywo z osobami, które mogą próbować przekonać je do udziału w niezdrowych lub niebezpiecznych zachowaniach, omijając potrzebę publikowania treści online w regulowanym środowisku.
Internetowe centrum szkód związanych z bezpieczeństwem
Osiągnięcie najskuteczniejszej krajowej reakcji na szkody w Internecie wymaga ponownego przemyślenia sposobu współpracy rządu, organów ścigania, firm technologicznych i organizacji trzeciego sektora. Jednym z realnych rozwiązań jest utworzenie Online Harms Safety Center (OHSC) w celu skoordynowania zbiorowych umiejętności i zdolności organizacji w całym krajobrazie reagowania, umożliwiając im wykorzystanie ich obszarów specjalizacji w ramach szerszego spojrzenia na kompleksową koniec zagrożenia.
Rząd powinien stworzyć OHSC, ale powinien działać niezależnie, powielając modele stosowane przez Narodowe Centrum Cyberbezpieczeństwa (NCSC) i Centrum Ochrony Infrastruktury Krajowej (CPNI). Byłoby to korzystne, gdyby organizacje branżowe i trzeciego sektora działały „wewnątrz namiotu”, działając jako centralna jednostka koordynująca wszystkie działania w całym krajobrazie szkód online, w tym zapobieganie niegodziwemu traktowaniu dzieci w celach seksualnych i wykorzystywaniu seksualnemu, ekstremizmowi, nietolerancji, samookaleczeniom i samobójstwom materiał.
Model OHSC zapewniłby brakującą obecnie spójność, prowadząc do stworzenia zunifikowanego przedsiębiorstwa, które jest większe niż suma jego części. OHSC byłby szybki do ustanowienia i adaptacyjny, działając w oparciu o model odchudzonego personelu sekretariatu centralnego i oddelegowanych ekspertów z całego krajobrazu zagrożeń.
Dość tego – względy bezpieczeństwa powinny być wyraźnie brane pod uwagę przy projektowaniu usług rzeczywistości rozszerzonej, a nie modernizowane po wystąpieniu szkody lub niewłaściwego użytkowania.
Patrick Cronin jest ekspertem ds. bezpieczeństwa online w firmie Konsultacje PA.