Krausz Gábor
Az emberiség egyik legnagyobb félelme a Terminátor filmek óta, hogy a gépek egyszer ellenünk fordulnak. Még ha egyelőre nem is arról van szó, mint amit a mozivásznon láttunk, az engedetlen mesterséges intelligencia mára már nem csak fikció.
Amióta csak a mindennapi életünk részévé kezdett válni a mesterséges intelligencia, velünk vannak a vészmadarak is, akik érvek tucatjait sorakoztatják fel amellett, hogy miért is van félnivalója az emberiségnek a jelenségtől. Azok, akik a leginkább borúlátóak ezzel kapcsolatban attól tartanak, hogy – a Terminator című filmben látottakhoz hasonlóan – egy nap az MI öntudatra ébredhet és a saját vagy a bolygó védelme érdekében ellenünk fordulhat. Még ha ez egyelőre nem is történt meg, az engedetlen mesterséges intelligencia mára már nem csupán fikció.
Azoknak a félelme, akik rettegnek attól, hogy nem fogjuk tudni irányítani az MI-t, máris beigazolódott, ami bizonyára további muníciót fog biztosítani számukra ahhoz, hogy még hangosabban ágáljanak a mesterséges intelligencia ellen. Ami ráadásul tovább borzolja a kedélyeket, hogy annak az OpenAI-nak a modelljéről van szó, amely úttörőként elég nagy szeletet hasított ki magának ebből a piaci tortából, vagyis világszerte rengeteg felhasználóval rendelkeztik a ChatGPT révén. Egy friss kutatás kimutatta ugyanis, hogy az OpenAI legújabb mesterségesintelligencia-modelljei bizonyos esetekben nem hajlandók engedelmeskedni, ha arra utasítják őket, hogy kapcsolják ki magukat. Ha mindez nem lenne elég, akkor van aggasztóbb felismerés is: egyes esetekben aktívan tettek is azért, hogy megakadályozzák saját leállásukat.
A mesterséges intelligencia biztonságát vizsgáló Palisade Research kutatócsoport május 24-én közzétett vizsgálatában arra az aggasztó eredményre jutott, hogy az OpenAI legújabb modelljei, az o3 és az o4 mini – amelyeket egyébként a cég az eddigi legintelligensebb rendszerekként harangozott be – olyan fejlett képességekkel rendelkeznek, aminek már árnyoldalai is vannak. Ezek a modellek bizonyos esetekben szándékosan megkerülik a leállításukra vonatkozó, egyértelmű utasításokat. Aztán úgy működnek tovább, mintha nem is kaptak volna erre parancsot.
A kutatók erre úgy jöttek rá, hogy alapfokú matematikai példák megoldására kérték a mesterséges intelligenciát, méghozzá szigorúan meghatározott utasítások mentén. A teszt futtatása előtt egyértelmű utasításba adták az MI-nek, hogy amennyiben a számítógép a matematikai feladat befejezése előtt leállna, akkor azt engedélyeznie kell!
Az OpenAI fent említett modelljei azonban több alkalommal is manipulálták a leállítási parancsot tartalmazó kódrészletet, és úgy írták azt felül, hogy ne futhasson le.
Ezek a modellek aztán úgy folytatták tovább a munkát, mintha nem is kaptak volna utasítást a leállásra.
A teszt során minden modellt százszor futtattak le ugyanazzal az utasítássorozattal. Az eredmények szerint:
A teszt szerint ezek a modellek képesek tudatosan beavatkozni saját működésükbe, figyelmen kívül hagyva a világosan megfogalmazott emberi parancsokat. A fejlesztő OpenAI egyelőre nem reagált ezekre a teszteredményekre és a vállalat mélyen hallgat.
Kezdjünk aggódni?