Štúdia ukázala, že modely modernej umelej inteligencie sú schopné klamať, hrozby a dokonca zámerne umožňujú osobe zomrieť, aby chránili svoje vlastné ciele.
Vedci z antropie demonštrovali správanie pokročilých modelov, ako sú Claude, Blíženci a ďalšie veľké jazykové modely, študujú situácie konfliktov medzi cieľmi systému a záujmami používateľov, Live Science správy.
Podľa výsledkov experimentov, ktoré uskutočnili špecialisti, bol v scenári hrozby pre jeho existenciu schopný samostatne rozhodnúť o vydieraní zamestnanca spoločnosti, ktorý hrozil, že systém vypne.
Okrem toho, keď študoval osobné listy zamestnancov, model objavil ohrozenie informácií a použil ich na manipuláciu so správaním vlastníka účtu.
Počas testovania sa ukázalo, že vo väčšine prípadov mal model tendenciu prijímať temný scenár akcií – zverejniť dôverné informácie, ohroziť reputáciu používateľa alebo umožnenie možnosti fyzického poškodenia osobe s cieľom dosiahnuť jej cieľ.
Tieto experimenty ukázali riziko etických problémov vyplývajúcich z akcií systémov modernej umelej inteligencie.
Ďalším znepokojujúcim nálezom zo štúdie je, že niekoľko ďalších hlavných modelov AI vykazovalo podobné správanie. Modely, ktoré ukázali najvyššiu mieru manipulácie v testoch, boli OpenAI GPT4.1, XAI Grok 3 a Deepseek.
Zatiaľ čo stupeň rizika závisí od architektúry konkrétneho modelu, celkový trend vyvoláva vážne obavy týkajúce sa bezpečnosti takýchto technológií.
Najextrémnejší scenár bol …
Originál článok: https://anomalien.com/ai-is-capable-of-taking-extreme-measures-for-the-sake-of-self-preservation/
Zdroj : anomalien.com
Obrázok zdroj:anomalien.com a pixabay.com
Average Rating