SafeRent, narzędzie do sprawdzania sztucznej inteligencji używane przez właścicieli, nie będzie już wykorzystywać „wyników” opartych na sztucznej inteligencji do oceny, czy ktoś korzystający z bonów mieszkaniowych będzie dobrym najemcą. W środę sędzia okręgowy USA Angel Kelley wydał ostateczną zgodę domagając się ugody w wysokości około 2,3 miliona dolarów, aby zapobiec dyskryminacji najemców przez SafeRent ze względu na dochody i rasę.
The ugoda wynika z pozwu zbiorowego złożonego w 2022 r w Massachusetts. W pozwie zarzucono, że system punktacji SafeRent nieproporcjonalnie szkodził osobom korzystającym z bonów mieszkaniowych – w szczególności wnioskodawcom rasy czarnej i latynoskiej. Oprócz naruszenia prawa stanu Massachusetts w skardze zarzucono także firmie SafeRent złamanie ustawy Fair Housing Act, która zabrania dyskryminacji w zakresie mieszkalnictwa.
Jak wskazano w pierwotnym pozwie, algorytm punktacji SafeRent wykorzystuje takie czynniki, jak historia kredytowa i długi niezwiązane z czynszem, aby przypisać potencjalnym najemcom wynik SafeRent. Właściciele mogą następnie wykorzystać ten wynik do ustalenia, czy zaakceptować czy odrzucić czyjś wniosek o wynajem. W pozwie zarzucono, że proces ten nie jest przejrzysty, ponieważ SafeRent nie informuje właścicieli, w jaki sposób ustalił wynik danej osoby. System rzekomo niesprawiedliwie przyznał niższe oceny najemcom rasy czarnej i latynoskiej, a także osobom korzystającym z bonów mieszkaniowych, co doprowadziło do odrzucenia przez właścicieli wniosków mieszkaniowych.
W ramach pięcioletniego porozumienia SafeRent nie będzie już wyświetlać wyników weryfikacji najemców dla osób ubiegających się o bony mieszkaniowe w całym kraju, ani nie może podawać wyników, gdy właściciele korzystają z „niedrogiego” modelu SafeRent Score. Usługa SafeRent nie wyświetla także rekomendacji „przyjęcia” lub „odrzucenia” wniosku osoby korzystającej z bonów mieszkaniowych. Oznacza to, że właściciele będą teraz musieli oceniać najemców korzystających z bonów mieszkaniowych na podstawie całej ich historii, a nie tylko na podstawie wyniku SafeRent.
„Oceny kredytowe i wyniki modelowane w podobny sposób, takie jak SafeRent Scores, opierają się na informacjach, które zostały[en] testowane pod kątem przewidywania spłaty zobowiązań kredytowych” – stwierdził w oświadczeniu Shennan Kavanagh, dyrektor Krajowego Centrum Prawa Konsumenckiego. „Nie ma dowodów na to, że takie dane pozwalają przewidzieć, czy najemcy będą płacić czynsz”.
Pieniądze zebrane w ramach ugody zostaną przekazane osobom ubiegającym się o wynajem z siedzibą w Massachusetts, które skorzystały z bonów mieszkaniowych i nie były w stanie zapewnić mieszkania ze względu na ocenę najemcy SafeRent. „Chociaż SafeRent nadal wierzy SRS [SafeRent Solutions] Wyniki są zgodne ze wszystkimi obowiązującymi przepisami, spory sądowe są czasochłonne i kosztowne” – powiedziała rzeczniczka SafeRent Yazmin Lopez w oświadczeniu dla Krawędź. „Stawało się coraz bardziej jasne, że obrona wyniku SRS w tym przypadku zajęłaby czas i zasoby, które SafeRent może lepiej wykorzystać, aby realizować swoją podstawową misję, jaką jest zapewnienie dostawcom usług mieszkaniowych narzędzi potrzebnych do sprawdzania kandydatów”.
SafeRent to najnowsze oprogramowanie do zarządzania nieruchomościami oparte na algorytmach, wobec którego można podjąć działania prawne. w sierpniu Departament Sprawiedliwości wniósł pozew RealPage twierdzi, że jego algorytmiczne oprogramowanie cenowe podnosi czynsz.