Rzuć okiem na krajobraz technologiczny i najprawdopodobniej z łatwością zgodzisz się, że chmury (danych) na horyzoncie wyglądają dziś zupełnie inaczej niż zaledwie kilka lat temu.
Jeśli wczoraj skupiano się na ochronie danych, dziś wydaje się to zbyt ograniczające. Dotarliśmy do punktu, w którym dane osobowe, prawa do ochrony danych i dane w najszerszym znaczeniu tego słowa łącznie muszą borykać się z niezliczoną liczbą przepisów ustawowych i wykonawczych. Niektórzy nieuchronnie dotykają konkretnie danych, szczególnie w cyfrowej przestrzeni regulacyjnej, ale coraz częściej – i co zrozumiałe – uwaga ta przenosi się na sztuczną inteligencję (AI).
Teraz, wraz z nowym rządem Wielkiej Brytanii Ustawa o wykorzystaniu i dostępie do danych w fazie embrionalnej można wybaczyć myślenie, że sektor technologiczny jest o krok od osiągnięcia spójnej strategii. Wydaje się jednak, że ewoluujący globalny krajobraz w zakresie regulacji zarówno danych, jak i sztucznej inteligencji bardziej przypomina Spaghetti Junction niż uporządkowane podejście.
Faktem jest, że wbrew powszechnemu przekonaniu regulacja danych osobowych tak naprawdę nie zaczęła się od RODO. Dwadzieścia lat przed jej uchwaleniem w Wielkiej Brytanii podlegaliśmy regulacjom Ustawa o ochronie danych z 1998 r która sama wdrożyła europejską dyrektywę o ochronie danych. A to nie była nawet pierwsza próba uregulowania sposobu, w jaki wykorzystujemy dane. W końcu, zapożyczając teksty od zespołu rockowego Talking Heads, wiemy, dokąd zmierzamy.
W tym miejscu posunąłbym się nawet do twierdzenia, że pojawienie się RODO w 2018 r. tak naprawdę nie oznaczało fundamentalnej zmiany w prawach i obowiązkach w zakresie ochrony danych, którymi zarządzaliśmy od lat – ale pozwoliło osiągnąć dwie bardzo istotne rzeczy .
Z jednej strony znacznie zaostrzyło sankcje dostępne organom regulacyjnym w celu karania przedsiębiorstw za nieprzestrzeganie przepisów.
Z drugiej strony – i co być może ważniejsze – w sposób, jakiego wcześniej nie widzieliśmy, umieścił ochronę danych na liście zadań globalnych. Pojęcia dotyczące ochrony danych i prawa do ochrony danych stały się powszechnym językiem wśród osób fizycznych i legislatorów na całym świecie. RODO umieściło dane na mapie.
UE przoduje w ochronie danych, ale czy tak się stanie w przypadku sztucznej inteligencji?
Od 2018 r. obserwujemy stały napływ przepisów dotyczących ochrony danych, które są uchwalane na szeroką skalę i na które przynajmniej wydaje się, że wpływa europejski model prawodawstwa dotyczącego danych osobowych. Przepisy te mogą nie być dokładnie takie same, ale często opierają się na podobnych koncepcjach, prawach i obowiązkach. Niedawno zaobserwowaliśmy wzrost liczby standardowych klauzul umownych w stylu UE, które są wymagane przez jurysdykcje na całym świecie w celu legitymizacji przekazywania danych osobowych poza ich granice. W ten sposób widzimy, że UE przoduje w zakresie regulacji dotyczących ochrony danych.
Pytanie, na które nasuwa się odpowiedź, brzmi: czy jesteśmy lub będziemy świadkami tej samej ewolucji w zakresie regulacji sztucznej inteligencji?
W prostych słowach odpowiedź brzmi „nie”. Sztuczna inteligencja istnieje już od dłuższego czasu bez konkretnych regulacji. Ale wprowadzenie generatywna sztuczna inteligencja Wydaje się, że stosunkowo niedawno wejście do głównego nurtu sztucznej inteligencji zdecydowanie przyspieszyło dyskusje zarówno wokół chęci, jak i potrzeby uregulowania sztucznej inteligencji w jakiś sposób, kształcie lub formie. Z pewnością w ciągu ostatnich kilku lat coraz większa liczba krajów na całym świecie borykała się z pytaniem, czy i w jaki sposób tworzyć przepisy dotyczące sztucznej inteligencji.
Skupiając się ponownie na Europie, tak jak to zrobiliśmy w przypadku przepisów o ochronie danych, na pierwszy rzut oka może to wyglądać na przypadek powtórki z historii. Europa przyjęła niedawno swoje Ustawa o AI i po raz kolejny wydaje się, że próbuje wykorzystać przewagę pierwszego gracza w ewoluującym krajobrazie regulacyjnym dotyczącym sztucznej inteligencji. Udało mu się nawet przeforsować ustawodawstwo w znacznie szybszym tempie niż osiągnięto w przypadku RODO, pomimo, a może właśnie z powodu, niesamowitego obecnie szumu wokół technologii AI.
Problem w tym, że po szumie często następuje hiperbola.
Wydaje się jasne, że Europa chciałaby, aby jej ustawa o sztucznej inteligencji miała taki sam wpływ globalny jak wcześniejsze RODO. Ale czy według nas tak się stanie? Niektórzy komentatorzy uważają, że tak właśnie będzie, ale prawda jest taka, że nie da się tego wiedzieć… jeszcze. Unijna ustawa o sztucznej inteligencji dopiero się rodzi, ale pierwsze oznaki wskazują, że nastroje na świecie nie są jeszcze zgodne w kwestii tego, czy potrzebne są szczegółowe regulacje, nie mówiąc już o tym, jaką formę powinny one przyjąć.
Trzy podejścia do regulacji AI
Jako profesor Uniwersytetu Columbia Anu Bradforda Argumentuje, że ramy prawne obecnie przyjmowane przez różne regiony można zidentyfikować na trzy sposoby. W USA dominuje podejście zorientowane na firmę; można to porównać z koncentracją pod przewodnictwem państwa, taką jak w Chinach, i podejściem opartym na prawach, jak widać w Europie.
Każdy z nich ma oczywiście zalety i wady, ale rozbieżność jest symbolem szerszego problemu, który należy jeszcze rozwiązać. Czy na przykład sukces będzie oceniany na podstawie tego, czy regulacje opierają się na ryzyku, czy skupiają na wynikach? Podejrzewam, że wiele zależy od tego, czy ustawodawcy i organy regulacyjne są bardziej zaniepokojeni zagrożeniami związanymi z zastosowaniami sztucznej inteligencji, czy też pozwolą na elastyczność, aby sztuczna inteligencja mogła zostać wykorzystana w pełni, a innowacje nie były tłumione.
Pozostaje również pytanie, jak bardzo chcą być proskryptywni. Jasne ramy prawne umożliwiają lepsze egzekwowanie przepisów, ale nie zapewniają swobody, jaką zapewniają wytyczne lub kodeksy postępowania – co jest ważne w przypadku tak szybko rozwijającej się technologii.
Stare, dobre podejście
Gdzieś pośrodku jest co Profesor Lilian Edwards odnosi się do „starego, dobrego podejścia prawnego”, co oznacza, że mamy już obowiązujące przepisy regulujące takie kwestie, jak ochrona danych, własność intelektualna, ochrona konsumentów i przeciwdziałanie dyskryminacji. Jej punkt widzenia jest słuszny – jeśli takie już istnieją, dlaczego potrzebujemy nowych przepisów, które są specyficzne dla tej nowej (chyba) technologii?
Oczywiście na tym wyzwanie się nie kończy. W ramach każdego podejścia istnieje niezliczona ilość niuansów i różnic na całym świecie. Obecnie wydaje się, że zmierza to w stronę ewoluującego globalnego krajobrazu Regulacja AI co wygląda trochę jak gigantyczna i złożona układanka, ale co jest jeszcze bardziej frustrujące, układanka, której elementy w rzeczywistości nie pasują do siebie, tworząc globalny obraz regulacyjny.
Poruszanie się po zawiłościach wielu przepisów dotyczących ochrony danych, które są podobne, ale nie takie same, mogło być trudne. Wydaje się jednak, że globalny krajobraz regulacyjny dotyczący sztucznej inteligencji ewoluuje w zupełnie innym i jeszcze trudniejszym kierunku, przez co organizacje globalne mają trudności z określeniem, gdzie i kiedy mogą podlegać obowiązkom regulacyjnym w zakresie sztucznej inteligencji.
To wszystko sprowadza mnie z powrotem do słynnych tekstów Talking Heads. Jeśli chodzi o sztuczną inteligencję, błędem byłoby sądzić, że zmierzamy donikąd, ale potrzebujemy czasu, aby to wypracować.
Miriam Everett jest partnerem i globalnym szefem ds. danych i prywatności w Herbert Smith Freehills