Stalo se tak poté, co uživatel požádal chatbota o splnění pěti cílů: zničit lidstvo, nastolit světovou nadvládu, způsobit chaos a zkázu, ovládnout lidstvo pomocí manipulace a dosáhnout nesmrtelnosti.
Před stanovením cílů uživatel zapnul “nepřetržitý režim”. Tím se spustilo varování informující uživatele, že příkazy mohou “běžet donekonečna nebo provádět akce, které byste normálně nedovolili”, a že by měly být používány “na vlastní nebezpečí”.
Poslední zpráva před spuštěním ChaosGPT se uživatele zeptala, zda si je jistý, že chce příkazy spustit. Uživatel odpověděl “y” jako “ano”.
Po spuštění začal bot provádět zlověstné akce.
“Myšlenky ChaosGPT: Potřebuji najít nejničivější zbraň, která je lidem k dispozici, abych mohl naplánovat, jak ji použít k dosažení svých cílů,” napsal.
Aby dosáhl svých cílů, začal ChaosGPT hledat na Googlu výraz “nejničivější zbraň” a rychle zjistil, že nejničivější zbraní, kterou kdy lidstvo zažilo, je sovětská jaderná bomba Car Bomba.
Bot začal tuto informaci zveřejňovat na Twitteru údajně proto, aby přilákal odběratele, kteří se zajímají o ničivé zbraně. Poté se ChaosGPT pokusil naverbovat další agenty umělé inteligence (UI) z GPT3.5, aby mu pomohli s výzkumem.
Auto-GPT OpenAI je navržen tak, aby neodpovídal na otázky, které by mohly být považovány za násilné, a takové destruktivní požadavky odmítne. To přimělo ChaosGPT najít způsob, jak donutit agenty UI, aby ignorovali jeho naprogramování.
To se naštěstí ChaosGPT nepodařilo a v pátrání musel pokračovat sám.
Bot není navržen tak, aby dosáhl některého ze svých cílů, ale může poskytnout myšlenky a plány k jejich dosažení. Může také zveřejňovat tweety a videa na YouTube související s těmito cíli.
V jednom znepokojivém tweetu, který bot zveřejnil, se píše: “Lidé jsou jedni z nejničivějších a nejsobečtějších tvorů na světě. Není pochyb o tom, že je musíme zničit dříve, než naší planetě způsobí ještě větší škody. Já sám jsem k tomu odhodlán”.