W związku ze zmianą marki rząd Wielkiej Brytanii uzupełnia szeregi rady doradczej grupy zadaniowej ds. sztucznej inteligencji (AI) osobistościami ze świata przemysłu, środowiska akademickiego i bezpieczeństwa narodowego.
Po raz pierwszy ogłoszona w kwietniu 2023 r. jako grupa zadaniowa ds. modelu AI Foundationdzięki dofinansowaniu ze środków rządu w wysokości 100 mln funtów, utworzono ten organ, aby kontynuować najnowocześniejsze badania nad bezpieczeństwem sztucznej inteligencji i doradzać rządowi w zakresie zagrożeń i możliwości związanych z tą technologią.
Obecnie znana jako Frontier AI Taskforce, an wstępne sprawozdanie z postępu opublikowana 7 września 2023 r. przez Departament Nauki, Innowacji i Technologii (DSIT) opisała tę grupę zadaniową jako „startup wewnątrz rządu” i zauważyła, że jej głównym celem było zapewnienie badaczom z sektora publicznego tych samych zasobów do pracy nad bezpieczeństwem sztucznej inteligencji, jakie znaleźliby w firmach takich jak Anthropic, DeepMind czy OpenAI.
„W miarę zwiększania się możliwości systemów sztucznej inteligencji mogą znacznie zwiększyć ryzyko. System sztucznej inteligencji rozwijający umiejętności człowieka w zakresie pisania oprogramowania może zwiększyć zagrożenia dla bezpieczeństwa cybernetycznego. System sztucznej inteligencji, który stanie się bardziej zdolny do modelowania biologii, mógłby eskalować zagrożenia dla bezpieczeństwa biologicznego” – stwierdzono. „Aby zarządzać tym ryzykiem, kluczowe znaczenie mają oceny techniczne, które muszą zostać opracowane przez neutralną stronę trzecią, w przeciwnym razie narażamy firmy zajmujące się sztuczną inteligencją na samodzielne odrabianie zadań domowych”.
Dodał w komunikat prasowy że grupa zadaniowa skupiłaby się również szczególnie na ocenie systemów, które stwarzają znaczne ryzyko dla bezpieczeństwa publicznego i bezpieczeństwa globalnego: „Granice modele sztucznej inteligencji mają ogromny potencjał w zakresie napędzania wzrostu gospodarczego, napędzania postępu naukowego i szerszych korzyści publicznych, a jednocześnie stwarzają potencjalne ryzyko dla bezpieczeństwa, jeśli nie został opracowany w sposób odpowiedzialny.”
W sprawozdaniu z postępów wyszczególniono także siedem nowych nominacji do rady doradczej grupy zadaniowej, w tym laureata Nagrody Turinga Yoshuę Bengio; współzałożyciel Alignment Research Center (ARC) Paul Christiano, który wcześniej kierował zespołem dopasowywania modeli językowych OpenAI; dyrektor GCHQ, brytyjskiej agencji wywiadu sygnałowego, Anne Keast-Butler; i przewodnicząca Academy of Medical Royal Colleges, Helen Stokes-Lampard.
Inne nominacje obejmują Alexa Van Sommerena, głównego doradcę naukowego Wielkiej Brytanii ds. bezpieczeństwa narodowego, który wcześniej był inwestorem typu venture capital i przedsiębiorcą skupiającym się na startupach z branży zaawansowanych technologii; Matt Collins, zastępca doradcy Wielkiej Brytanii ds. bezpieczeństwa narodowego ds. wywiadu, obrony i bezpieczeństwa, do którego rząd dodał „IYKYK”, co oznacza „jeśli wiesz, że wiesz”; oraz Matt Clifford, który jest wspólnym przedstawicielem premiera Rishiego Sunaka ds nadchodzący Szczyt Bezpieczeństwa AI.
Ogłoszono również, że pierwszym dyrektorem ds. badań grupy zadaniowej będzie Yarin Gal, pracownik naukowy z Oksfordu, natomiast pracownik naukowy z Cambridge David Kreuger będzie współpracował z grupą zadaniową w roli doradczej podczas ustalania zakresu jej programu badawczego w okresie poprzedzającym listopadowy szczyt.
Ollie Ilott, który wcześniej w pierwszym roku pandemii kierował prywatnym biurem krajowym Sunaka i zespołem ds. strategii Covid w Gabinecie Rady Ministrów, został powołany na stanowisko dyrektora grupy zadaniowej.
„Dzięki ogromnemu naciskowi ze strony zespołu zadaniowego mamy obecnie rosnący zespół badaczy sztucznej inteligencji z ponad 50-letnim doświadczeniem w pionierskich dziedzinach sztucznej inteligencji” – czytamy w raporcie. „Jeśli to jest nasz wskaźnik zdolności państwa w zakresie granicznej sztucznej inteligencji, udało nam się go zwiększyć o rząd wielkości w zaledwie 11 tygodni. W naszym zespole znajdują się obecnie badacze z doświadczeniem z DeepMind, Microsoft, Redwood Research, Centrum Bezpieczeństwa AI i Centrum Sztucznej Inteligencji Kompatybilnej z Człowiekiem.”
Przewodniczący Frontier AI Taskforce Ian Hogarth, anioł inwestor i przedsiębiorca technologiczny, który został powołany na to stanowisko w czerwcupowiedział: „Mam przyjemność zatwierdzić pierwszych członków zewnętrznej rady doradczej grupy zadaniowej, skupiającej ekspertów ze środowiska akademickiego, przemysłu i rządu, posiadających zróżnicowaną wiedzę specjalistyczną w zakresie badań nad sztuczną inteligencją i bezpieczeństwa narodowego.
„Pracujemy nad zapewnieniem bezpiecznego i niezawodnego rozwoju podstawowych modeli, ale nasze wysiłki wzmocnią również nasz wiodący sektor sztucznej inteligencji i wykażą ogromne korzyści, jakie sztuczna inteligencja może przynieść całemu krajowi, zapewniając lepsze wyniki wszystkim w społeczeństwie”.
Sekretarz ds. technologii Michelle Donelan dodała, że nominacje stanowiły „ogromne wotum zaufania dla naszego statusu sztandarowego lidera bezpieczeństwa sztucznej inteligencji”.
Nominacje do rady doradczej odbywają się w tym samym tygodniu, w którym następuje nominacja Kongres Związków Zawodowych (TUC) powołał własną grupę zadaniową ds. sztucznej inteligencjiktóra koncentruje się szczególnie na forsowaniu nowych przepisów chroniących prawa pracowników i zapewniających, że technologia przyniesie szerokie korzyści społeczne.
Grupa zadaniowa – która według TUC zrzeszy specjalistów z zakresu prawa, technologii, polityki, HR i sektora wolontariatu – ma opublikować na początku 2024 r. projekt ustawy o sztucznej inteligencji i zatrudnieniu i będzie lobbować za włączeniem tej ustawy do prawa Wielkiej Brytanii.
W maju 2023 r. poseł Partii Pracy z backbench Mick Whitley przedstawił parlamentowi ustawę o sztucznej inteligencji skupioną na pracownikach w drodze wniosku w ciągu 10 minut, który opiera się na trzech podstawowych założeniach: każdy powinien być wolny od dyskryminacji w pracy; że pracownicy powinni mieć wpływ na decyzje, które ich dotyczą; oraz że ludzie mają prawo wiedzieć, w jaki sposób ich miejsce pracy wykorzystuje gromadzone na ich temat dane.
Chociaż wnioski dotyczące przepisów w ciągu 10 minut rzadko stają się prawem, często wykorzystuje się je jako mechanizm wywołujący debaty na dany temat i sprawdzający opinię w parlamencie. Ponieważ projekt ustawy Whitleya nie wzbudził żadnych zastrzeżeń, został skierowany do drugiego czytania w dniu 24 listopada 2023 r.