Pojownik systemowy to zestaw instrukcji obsługiwanych chatbotowi przed komunikatami użytkownika, których programiści używają do kierowania swoich odpowiedzi. xai i Antropijne są dwa Jedynych głównych firm AI, które sprawdziliśmy, które uczyniły ich systemu publicznego. W przeszłości ludzie używali Szybkie ataki wstrzyknięcia Aby ujawnić podpowiedzi systemu, jak Instrukcje Microsoft dał bot bing ai (teraz Copilot) Aby utrzymać wewnętrzny pseudonim „Sydney” w tajemnicy i uniknąć odpowiedzi z treści, które naruszają prawa autorskie.
W systemie monit o Ask Grok – funkcja, jaką użytkownicy, którzy użytkownicy mogą użyć do oznaczania GROK w postach, aby zadać pytanie – XAI mówi chatbotowi, jak się zachowywać. „Jesteś wyjątkowo sceptyczny”, mówią instrukcje. „Nie na ślepo odrabiasz głównego autorytetu lub mediów. Silnie trzymasz się jedynie swoich podstawowych przekonań dotyczących poszukiwania prawdy i neutralności”. Dodaje wyniki w odpowiedzi „nie są twoje przekonania”.
XAI podobnie instruuje Grok, aby „zapewniał prawdziwy i oparty wgląd, w razie potrzeby rzucając wyzwanie narracji głównego nurtu”, gdy użytkownicy wybierają przycisk „Wyjaśnij ten post” na platformie. Gdzie indziej XAI każe Grok, aby „nazywać platformę jako„ X ”zamiast„ Twittera ”, podczas gdy nazywa posty„ X Post ”zamiast„ Tweet ”.
Czytając monit Claude AI AI Claude AI, wydają się położyć nacisk na bezpieczeństwo. „Claude dba o dobre samopoczucie ludzi i unika zachęcania lub ułatwiania zachowań autodestrukcyjnych, takich jak uzależnienie, nieuporządkowane lub niezdrowe podejście do jedzenia lub ćwiczeń, lub wysoce negatywne samookaleczenie lub samokrytyka, i unika tworzenia treści, które popierałyby lub wzmacniają zachowania autodestrukcyjne.