Generatywna sztuczna inteligencja stwarza możliwości i wyzwania dla szkół w Wielkiej Brytanii


Generatywna sztuczna inteligencja (AI) i powiązane duże modele językowe (LLM) używane przez usługi takie jak ChatGPT i Google Bard mogą okazać się niezwykle przydatnymi narzędziami w klasie, ale szkoły będą musiały zweryfikować i wzmocnić swoje postawy w zakresie bezpieczeństwa cybernetycznego, a nauczyciele muszą pracować ciężej, aby chronić uczniów, Departament Edukacji (DfE) powiedział.

DfE opublikowało dziś oświadczenie w sprawie wykorzystania generatywnej sztucznej inteligencji w szkołach i na uczelniach – poinformował Biała księga przepisów Westminster dotycząca sztucznej inteligencji, również opublikowany dzisiaj – określający swoje stanowisko w sprawie szybko rozwijającej się, głośnej technologii. Powiedział, że uznaje, że generatywna sztuczna inteligencja stwarza „szanse i wyzwania” dla sektora.

Mówiąc na Bett w Londynie, sekretarz ds. edukacji Gillian Keegan powiedziała: „AI będzie miała moc, by zmienić codzienną pracę nauczyciela. Widzieliśmy, jak ludzie używają go do pisania planów lekcji i przeprowadzają kilka interesujących eksperymentów związanych z ocenianiem.

„Czy może teraz robić te rzeczy w wymaganym przez nas standardzie? Nie. Czy oszczędzanie czasu powinno odbywać się kosztem jakości wytwarzanej przez wykwalifikowanego nauczyciela? Absolutnie nie – powiedziała.

„Ale czy moglibyśmy dojść do punktu, w którym zadania, które naprawdę pochłaniają czas nauczycieli, zostaną znacznie zmniejszone? Myślę, że będziemy.

„Dotarcie do tego punktu jest podróżą, którą my w tym pokoju będziemy musieli odbyć razem – i tak jak zareagowaliśmy na inne innowacje, takie jak kalkulator, wykorzystamy go, aby zapewnić studentom lepsze wyniki” – powiedział Keegan .

Reklama

W pełnym oświadczeniu DfE powiedział, że odpowiednio wykorzystana generatywna sztuczna inteligencja może potencjalnie stać się użytecznym asystentem administracyjnym dla nauczycieli, skracając czas spędzany przez nich na czynnościach niezwiązanych z uczniami i pozwalając im bardziej skupić się na ich podstawowej misji edukacyjnej.

Stwierdzono jednak, że nauczyciele będą musieli być świadomi implikacji danych i prywatności podczas korzystania z nich do takich celów. Na przykład dbanie o to, aby nie uzyskać dostępu do danych osobowych lub wrażliwych uczniów znajdujących się pod ich opieką oraz zrozumienie, że wszelkie wprowadzane przez nich dane należy uznać za udostępnione w Internecie.

„Czy czas [AI] oszczędności zawsze odbywały się kosztem jakości wytwarzanej przez wykwalifikowanego nauczyciela? Absolutnie nie. Ale czy moglibyśmy dojść do punktu, w którym zadania, które naprawdę pochłaniają czas nauczycieli, zostaną znacznie zmniejszone? Myślę, że będziemy”

Gillian Keegan, DfE

Nauczyciele będą również musieli rozwinąć większą świadomość bezpieczeństwa cybernetycznego, powiedział DfE. Na przykład wykorzystanie LLM do generować coraz bardziej przekonujące wiadomości phishingowe może narazić szkoły na większe ryzyko stania się ofiarą poważnych incydentów cybernetycznych, w tym ataków ransomware.

DfE ostrzegł również, że takie narzędzia mogą generować niewiarygodne informacje i dlatego należy je sprawdzić, aby zapewnić odpowiedniość i dokładność – co jest podwójnie ważne, biorąc pod uwagę, że w wielu przypadkach dane narzędzie nie zostało przeszkolone w ramach programu nauczania języka angielskiego.

Stwierdzono, że jeśli generatywna sztuczna inteligencja ma być wykorzystywana do tworzenia planów administracyjnych, polityk lub dokumentów, osoba, która ją stworzyła, musi ponosić za nią odpowiedzialność zawodową.

Przechodząc do prac domowych i innych form nauki bez nadzoru, DfE zaleca szkołom dokonanie przeglądu obowiązujących zasad w tej dziedzinie, aby uwzględnić powszechną publiczną dostępność generatywnej sztucznej inteligencji.

Obejmuje to podjęcie kroków w celu zapobiegania nadużyciom ze strony uczniów, którzy mogą ulec pokusie wykorzystania generatywnej sztucznej inteligencji do tworzenia formalnie ocenianych zajęć, które nie należą do nich.

W okolicznościach, w których użycie generatywnej sztucznej inteligencji przez uczniów może zostać uznane za właściwe, będą oni również musieli być wyposażeni w wiedzę i umiejętności umożliwiające ocenę, czy tworzony przez nią materiał jest dokładny i odpowiedni. Nauczyciele będą mieli obowiązek upewnić się, że uczniowie nie używają narzędzi AI do uzyskiwania dostępu do szkodliwych lub nieodpowiednich treści lub ich generowania.

Szkoły mogą pomóc w tym zakresie, rozszerzając nauczanie informatyki, tak aby obejmowało bezpieczne i odpowiednie korzystanie z sztucznej inteligencji, pomagając uczniom zrozumieć ograniczenia, niezawodność i stronniczość sztucznej inteligencji, sposób organizacji i uszeregowania informacji w Internecie oraz bezpieczeństwo w Internecie w celu ochrony przed szkodliwymi lub wprowadzające w błąd treści. DfE zobowiązało się do programu pracy mającego na celu wsparcie szkół w tym zakresie.

Pakiet wsparcia

DfE ogłasza dziś również pakiet wsparcia, który ma pomóc szkołom w stworzeniu „bezpiecznych, pewnych i niezawodnych” podstaw, aby umożliwić im korzystanie z potężniejszej technologii.

Te dodatki do istniejących standardów cyfrowych i technicznych – obejmujące korzystanie z usług w chmurze, serwerów i pamięci masowej oraz filtrowanie i monitorowanie – rzekomo pomogą szkołom zaoszczędzić pieniądze i stworzyć bezpieczne środowiska do nauki.

Towarzyszy im nowa usługa cyfrowa, która pomaga liderom sektora w planowaniu technologii. Spowoduje to porównanie ich technologii ze standardami cyfrowymi, zasugerowanie obszarów wymagających ulepszeń oraz zaoferowanie praktycznych kroków i wskazówek dotyczących wdrażania samoobsługi.

Szkoły w Blackpool i Portsmouth – w obu Priorytetowych Obszarach Inwestycyjnych w Edukację – będą pilotować te usługi jesienią 2023 r., zanim zostaną wprowadzone w całym kraju.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Czasem nie ma nic złego w przyznaniu się do błędu, Apple

Apple ma problem z przyznaniem się do błędu. W marketingu firmy zawsze chodziło o doskonałość, a przyznanie się, że coś jest nie...

Dlaczego Xenomorph z Alien jest wciąż idealnym złoczyńcą science-fiction

Ta funkcja w Ridley Scott Obcy a franczyza, którą uruchomiła, została pierwotnie opublikowana jako część pakiet poświęcony najbardziej ukochanym złoczyńcom science...

Apple podobno negocjuje z OpenAI w sprawie obsługi funkcji iOS 18

Niektóre raporty z zeszłego miesiąca ujawniły, że Apple prowadził rozmowy z Google na temat wykorzystania Gemini do obsługi nowych funkcji sztucznej inteligencji dostępnych...
Advertisment