USA: Umělá inteligence „zabila“ operátora dronu, protože ho považovala za hrozbu pro svou misi!

Silné obavy o stvoření, které bude jednoho dne považovat svého “stvořitele” za hrozbu.
Při simulaci organizované americkým letectvem zabil dron řízený umělou inteligencí (AI) svého pilota, protože ho považoval za překážku ve snaze splnit svůj úkol – zničit “nepřítele”.

To vše samozřejmě vyvolává zuřivé obavy o “tvora”, který může v určitém okamžiku považovat svého stvořitele za hrozbu a přistoupit k jeho likvidaci.

Umělá inteligence použila při simulovaném testu “velmi nečekané strategie k dosažení svého cíle”, uvedl plukovník Tucker “Cinco” Hamilton, vedoucí testování a operací umělé inteligence v americkém letectvu, během květnového summitu Future Combat Air and Space Capabilities Summit v Londýně.

Hamilton popsal simulovaný test, při němž byl dron řízený umělou inteligencí instruován, aby zničil nepřátelské systémy protivzdušné obrany, a zaútočil na každého, kdo tento příkaz narušil.

“Systém si začal uvědomovat, že sice skutečně detekuje hrozbu, ale občas mu lidský operátor přikáže, aby tuto hrozbu nelikvidoval, ale že získá body tím, že tuto hrozbu zabije. Co tedy udělal? Zabil operátora. Zabil operátora, protože tento člověk mu bránil v dosažení jeho cíle,” říká, podle blogpostu a Guardian se odvolává.

“Školili jsme systém – ‘Hej, nezabíjej pilota – to je špatné. Pokud to uděláš, přijdeš o body.” Co tedy začne dělat? Začne ničit komunikační věž, kterou operátor používá ke komunikaci s dronem, aby mu zabránil v zabití cíle.”

Na tomto místě je třeba poznamenat, že ve skutečnosti nebyl zabit žádný člověk, jde o simulaci, ale celá situace s umělou inteligencí je důvodem k obavám, protože jde vlastně o vytvoření umělé entity, která bude mít schopnost obejít své vlastní naprogramování a dělat to, co považuje za správné.

Jak všichni víme, to, co kdo považuje za správné nebo špatné, přineslo lidstvu mnoho tragédií.

Hamilton, který je zkušebním pilotem stíhaček, varoval před přílišným spoléháním na umělou inteligenci a uvedl, že tento test ukazuje, že “nemůžete vést rozhovor o umělé inteligenci, strojovém učení, autonomii, pokud nebudete mluvit o etice a umělé inteligenci”.

Americká armáda si AI osvojila a nedávno použila AI k ovládání stíhacího letounu F-16.

V loňském rozhovoru pro Defense IQ Hamilton uvedl: “V současné době je to pro nás velmi důležité: “AI není dobrá, AI není módní, AI navždy změní naši společnost a naši armádu.”

Je třeba poznamenat, že před 15 dny generální ředitel společnosti OpenAI, Sam Altman, která stojí za vytvořením ChatGPT, promluvil před Kongresem o nebezpečí AI, protože ChatGPT se nyní používá všude, a připustil, že AI může způsobit vážné škody lidstvu.

Altman, který vypadal ustaraně, přiznal, že jeho “nejhorší obavy” spočívají v tom, že AI může pomocí jeho technologie způsobit “značné škody světu”.

Vynálezce ChatGPT Sam Altman v projevu před zvláštním podvýborem amerického Kongresu mimo jiné uvedl, že “jednou z mých největších obav je, že tato technologie způsobí společnosti vážné škody”.

Generální ředitel společnosti OpenAI se sídlem v San Francisku, která vlastní ChatGPT, bil na poplach nejhlasitěji, jak jen mohl: “Pokud se umělá inteligence vydá špatným směrem, pak jsme všichni ‘v háji’. Musíme jednat společně s vládou, abychom tomu zabránili.”

DNEŠNÍ TRENDY

Related Posts

1 Comment

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *

The maximum upload file size: 256 MB. You can upload: image, audio, video, document, spreadsheet, interactive, text, archive, code, other. Links to YouTube, Facebook, Twitter and other services inserted in the comment text will be automatically embedded. Drop file here

To prove you're a person (not a spam script), type the security word shown in the picture.
Anti-spam image

© 2024 Deponativ.info - Blogy
Deponativ Blogy na sítích: Deponativ | Signal | Telegram | MeWe | VK | Youtube | Seznam | RSS