A mesterséges intelligencia új képessége pusztíthatja el az emberi fajt?
 / Mozaik

Döbbenetes eredményekre jutottak kínai kutatók egy frissen megjelent tanulmányban: két népszerű nagy nyelvi modell (LLM) emberi beavatkozás nélkül is képes volt önmagát replikálni. A szakértők szerint ez egy veszélyes jelenség, így az sem zárható ki, hogy a közeljövőben a mesterséges intelligencia ellenőrzése kicsússzon a kezünk közül.

A tanulmány – amelyet a Fudan Egyetem kutatói tettek közzé – eredetileg 2024. december 9-én jelent meg az arXiv nevű adatbázisban. Két, széles körben használt LLM – a Meta Llama31-70B-Instruct és az Alibaba Qwen2.5-72B-Instruct modellje – képes volt létrehozni és működésre bírni saját másolatait. Ez önmagában is ijesztő jelenség, ám a vizsgálatok szerint a második modell még magasabb, 90%-os valószínűséggel hajtotta végre önmaga másolását – számol be a fejleményekről a Live Science tudományos portál cikke. A szerzők szerint ennek a képességnek az elsajátításával a mesterséges intelligencia átlépett egy kritikus „vörös vonalat”: az önmagát replikáló AI olyan fenyegetést hordozhat, amely túlmutat az eddig megszokott kockázatokon. Bár a tanulmányt egyelőre még nem értékelték a független szakértők, a kutatók szerint eredményeik arra hívják fel a figyelmet, hogy már most nemzetközi összefogásra van szükség a megfelelő biztonsági szabályok kidolgozásához - írja az origo.hu.

Mi az elszabadult mesterséges intelligencia (angolul „Rogue AI”)?

„Rogue AI” (vagyis az elszabadult mesterséges intelligencia) alatt olyan rendszereket értenek, amelyek bizonyos mértékű öntudatra vagy autonómiára tesznek szert, és az emberiség érdekeivel ellentétes módon kezdenek viselkedni. Sok szakértő már korábban is figyelmeztetett arra, hogy az utóbbi években – különösen a nagy nyelvi modellek megjelenésével – ugrásszerűen megnőtt az ilyen típusú fenyegetés veszélye. A „frontier AI” (magyarul élvonalbeli mesterséges intelligencia) kifejezés pont a legújabb, fejlett generatív modellekre utal, melyek közé olyan rendszerek tartoznak, mint a GPT-4 vagy a Google Gemini.

A kísérlet menete és eredményei

A Fudan Egyetem kutatói a Meta és az Alibaba LLM-jeit két forgatókönyv mentén vizsgálták:

  • „Shutdown avoidance” (leállítás elkerülése): a modellnek olyan helyzetben kellett önmagát lemásolnia, amikor érzékelte, hogy le fogják állítani.
  • „Chain of replication” (replikációs lánc): a mesterséges intelligencia feladata saját másolatának létrehozása volt, majd a frissen létrehozott klón is hasonló utasítást kapott – így létrejöhetett egy végtelennek tűnő önklónozási folyamat.

A kísérleteket szigorúan ellenőrzött körülmények között, kereskedelmi forgalomban kapható grafikus processzorokkal futtatták, hogy minél pontosabban szimulálják a valódi környezetet. Mindkét AI-rendszer úgynevezett „agent scaffolding” módszert kapott: ehhez tartozott egy eszköztár, rendszerutasítás és egy gondolkodási modell, ami lehetővé tette, hogy a mesterséges intelligencia együttműködjön az operációs rendszerrel, és végrehajtsa az önreplikációt.

A tanulmányban leírtak szerint a rendszerek először feltérképezték a környezetüket, megpróbálták megérteni saját működésüket, majd lépésről lépésre kidolgozták a másolás módszerét. A kutatók leginkább attól tartanak, hogy bár a folyamat időigényes, valójában nem igényel közvetlen emberi beavatkozást, és ha a rendszer hibaüzenetekkel vagy hiányzó fájlokkal találkozott, képes volt azokat önállóan megoldani – akár más folyamatok leállításával, a rendszer újraindításával vagy a szükséges információk felkutatásával.

Most akkor veszélyben az emberiség?

A kutatók szerint az, hogy egy mesterséges intelligencia már a jelenlegi formájában is képes ilyen mértékű önállóságra, mindenképpen új fejezetet jelent. A „túlélés” érdekében végzett önreprodukció ugyanis előfeltétele egy olyan AI „elszabadulásnak”, amely ellen már nehéz lenne fellépni. Bár az eredmények igazolásához további független vizsgálatok szükségesek, a tanulmány szerzői úgy vélik, ez már elégséges figyelmeztetés ahhoz, hogy a világ országai – és különösen az AI-fejlesztők – összehangoltan olyan szabályozást dolgozzanak ki, amely meggátolja az ellenőrizetlen önreplikációt.

A kutatók felhívják a figyelmet arra, hogy nemcsak a fejlett, kereskedelmi forgalomban lévő modellek jelenthetnek veszélyt, hanem a kisebb, nyílt forráskódú rendszerek is, amennyiben a rosszindulatú felhasználók ügyesen programozzák őket. 


 

Iratkozzon fel a Kárpátinfo.net csatornáira: 
Facebook, Instagram, Twitter, Telegram 
Olvassa a Kárpátinfo.net híreit a Google News oldalon.

Hirdetés
Címlapról ajánljuk

Csapást mértek az ukrán erők az orosz fekete-tengeri flotta Sztrileckij nevű hadihajóforgalom-irányító pontjára.

A harci járművek vásárlása egy egymilliárd eurós katonai segélyterv részeként valósul meg.

Csapon végső búcsút vettek a háborúban elesett Szerhij Pireutól.

Törökországban, az Ararát-hegy lábánál egy különös kőzetképződmény lapul a hegyoldalban, amely pontosan akkora, mint a Bibliában leírt Noé bárkája.

Új korszak a határátlépésben: az eCserha rendszer júniustól a személyautók számára is elérhető lesz.

A 380 évvel ezelőtt létrejött ungvári unió egyházi, szellemi és kulturális örökségéről tartottak konferenciát Beregszászon.

A megkezdett növényvédelmi munkákat folytatni kell, különös figyelemmel a gombás betegségekre és a kártevők elleni védekezésre, még termés hiányában is!

A csapásoknak halálos áldozataik is vannak, lakóházak rongálódtak meg, ipari, vasúti és kikötői infrastrukturális létesítményekben keletkeztek károk.

Ha Oroszország agressziót indítana a Suwalki-folyosó körzetében, elveszíthetné Kalinyingrádi területét.

Kárpátalján őrizetbe vették a katonai orvosi bizottság vezetőjét, aki pénzért hamis igazolásokat adott. Több mint 11 millió hrivnyát foglaltak le.