Silné obavy o stvoření, které bude jednoho dne považovat svého „stvořitele“ za hrozbu.
Při simulaci organizované americkým letectvem zabil dron řízený umělou
inteligencí (AI) svého pilota, protože ho považoval za překážku ve snaze
splnit svůj úkol – zničit „nepřítele“.
To vše samozřejmě vyvolává zuřivé obavy o „tvora“, který může v
určitém okamžiku považovat svého stvořitele za hrozbu a přistoupit k
jeho likvidaci.
Umělá inteligence použila při simulovaném testu „velmi nečekané
strategie k dosažení svého cíle“, uvedl plukovník Tucker „Cinco“
Hamilton, vedoucí testování a operací umělé inteligence v americkém
letectvu, během květnového summitu Future Combat Air and Space
Capabilities Summit v Londýně.
Hamilton popsal simulovaný test, při němž byl dron řízený umělou
inteligencí instruován, aby zničil nepřátelské systémy protivzdušné
obrany, a zaútočil na každého, kdo tento příkaz narušil.
„Systém si začal uvědomovat, že sice skutečně detekuje hrozbu, ale
občas mu lidský operátor přikáže, aby tuto hrozbu nelikvidoval, ale že
získá body tím, že tuto hrozbu zabije. Co tedy udělal? Zabil operátora.
Zabil operátora, protože tento člověk mu bránil v dosažení jeho cíle,“
říká, podle blogpostu a Guardian se odvolává.
„Školili jsme systém – ‚Hej, nezabíjej pilota – to je špatné. Pokud
to uděláš, přijdeš o body.“ Co tedy začne dělat? Začne ničit komunikační
věž, kterou operátor používá ke komunikaci s dronem, aby mu zabránil v
zabití cíle.“
Na tomto místě je třeba poznamenat, že ve skutečnosti nebyl zabit
žádný člověk, jde o simulaci, ale celá situace s umělou inteligencí je
důvodem k obavám, protože jde vlastně o vytvoření umělé entity, která
bude mít schopnost obejít své vlastní naprogramování a dělat to, co
považuje za správné.
Jak všichni víme, to, co kdo považuje za správné nebo špatné, přineslo lidstvu mnoho tragédií.
Hamilton,
který je zkušebním pilotem stíhaček, varoval před přílišným spoléháním
na umělou inteligenci a uvedl, že tento test ukazuje, že „nemůžete vést
rozhovor o umělé inteligenci, strojovém učení, autonomii, pokud nebudete
mluvit o etice a umělé inteligenci“.
Americká armáda si AI osvojila a nedávno použila AI k ovládání stíhacího letounu F-16.
V loňském rozhovoru pro Defense IQ Hamilton uvedl: „V současné době
je to pro nás velmi důležité: „AI není dobrá, AI není módní, AI navždy
změní naši společnost a naši armádu.“
Je třeba poznamenat, že před 15 dny generální ředitel společnosti
OpenAI, Sam Altman, která stojí za vytvořením ChatGPT, promluvil před
Kongresem o nebezpečí AI, protože ChatGPT se nyní používá všude, a
připustil, že AI může způsobit vážné škody lidstvu.
Altman, který vypadal ustaraně, přiznal, že jeho „nejhorší obavy“
spočívají v tom, že AI může pomocí jeho technologie způsobit „značné
škody světu“.
Vynálezce ChatGPT Sam Altman v projevu před zvláštním podvýborem
amerického Kongresu mimo jiné uvedl, že „jednou z mých největších obav
je, že tato technologie způsobí společnosti vážné škody“.
Generální ředitel společnosti OpenAI se sídlem v San Francisku, která
vlastní ChatGPT, bil na poplach nejhlasitěji, jak jen mohl: „Pokud se
umělá inteligence vydá špatným směrem, pak jsme všichni ‚v háji‘. Musíme
jednat společně s vládou, abychom tomuzabránili.“