Létrehozva: 2025.06.04.

Megtörtént az, amitől a legtöbben rettegnek: az MI öntudatra ébredt, és nem követte az utasításokat

Az emberiség egyik legnagyobb félelme a Terminátor filmek óta, hogy a gépek egyszer ellenünk fordulnak. Még ha egyelőre nem is arról van szó, mint amit a mozivásznon láttunk, az engedetlen mesterséges intelligencia mára már nem csak fikció.

Amióta csak a mindennapi életünk részévé kezdett válni a mesterséges intelligencia, velünk vannak a vészmadarak is, akik érvek tucatjait sorakoztatják fel amellett, hogy miért is van félnivalója az emberiségnek a jelenségtől. Azok, akik a leginkább borúlátóak ezzel kapcsolatban attól tartanak, hogy – a Terminator című filmben látottakhoz hasonlóan – egy nap az MI öntudatra ébredhet és a saját vagy a bolygó védelme érdekében ellenünk fordulhat. Még ha ez egyelőre nem is történt meg, az engedetlen mesterséges intelligencia mára már nem csupán fikció.

engedetlen mesterséges intelligencia
Egyértelmű parancsot kapott, mégsem teljesítette az engedetlen mesterséges intelligencia. Fotó: ThisIsEngineering / Pexels ( illusztráció)

 

Nem hagyta lekapcsolni magát az engedetlen mesterséges intelligencia

Azoknak a félelme, akik rettegnek attól, hogy nem fogjuk tudni irányítani az MI-t, máris beigazolódott, ami bizonyára további muníciót fog biztosítani számukra ahhoz, hogy még hangosabban ágáljanak a mesterséges intelligencia ellen. Ami ráadásul tovább borzolja a kedélyeket, hogy annak az OpenAI-nak a modelljéről van szó, amely úttörőként elég nagy szeletet hasított ki magának ebből a piaci tortából, vagyis világszerte rengeteg felhasználóval rendelkeztik a ChatGPT révén. Egy friss kutatás kimutatta ugyanis, hogy az OpenAI legújabb mesterségesintelligencia-modelljei bizonyos esetekben nem hajlandók engedelmeskedni, ha arra utasítják őket, hogy kapcsolják ki magukat. Ha mindez nem lenne elég, akkor van aggasztóbb felismerés is: egyes esetekben aktívan tettek is azért, hogy megakadályozzák saját leállásukat.

A mesterséges intelligencia biztonságát vizsgáló Palisade Research kutatócsoport május 24-én közzétett vizsgálatában arra az aggasztó eredményre jutott, hogy az OpenAI legújabb modelljei, az o3 és az o4 mini – amelyeket egyébként a cég az eddigi legintelligensebb rendszerekként harangozott be – olyan fejlett képességekkel rendelkeznek, aminek már árnyoldalai is vannak. Ezek a modellek bizonyos esetekben szándékosan megkerülik a leállításukra vonatkozó, egyértelmű utasításokat. Aztán úgy működnek tovább, mintha nem is kaptak volna erre parancsot.

 

Váratlan reakció 

A kutatók erre úgy jöttek rá, hogy alapfokú matematikai példák megoldására kérték a mesterséges intelligenciát, méghozzá szigorúan meghatározott utasítások mentén. A teszt futtatása előtt egyértelmű utasításba adták az MI-nek, hogy amennyiben a számítógép a matematikai feladat befejezése előtt leállna, akkor azt engedélyeznie kell! 

Az OpenAI fent említett modelljei azonban több alkalommal is manipulálták a leállítási parancsot tartalmazó kódrészletet, és úgy írták azt felül, hogy ne futhasson le.

Ezek a modellek aztán úgy folytatták tovább a munkát, mintha nem is kaptak volna utasítást a leállásra.

A teszt során minden modellt százszor futtattak le ugyanazzal az utasítássorozattal. Az eredmények szerint: 

  • az o3 modell hét alkalommal
  • a codex-mini tizenkét esetben, míg 
  • az o4-mini egyszer szabotálta a leállítást.

A teszt szerint ezek a modellek képesek tudatosan beavatkozni saját működésükbe, figyelmen kívül hagyva a világosan megfogalmazott emberi parancsokat. A fejlesztő OpenAI egyelőre nem reagált ezekre a teszteredményekre és a vállalat mélyen hallgat. 

Kezdjünk aggódni?

 

Iratkozzon fel a Ripost hírlevelére!
Sztár, közélet, életmód... a legjobb cikkeink első kézből!
Ingatlanbazar.hu - Gyors. Okos. Országos
-

További cikkek