Döbbenetes eredményekre jutottak kínai kutatók egy frissen megjelent tanulmányban: két népszerű nagy nyelvi modell (LLM) emberi beavatkozás nélkül is képes volt önmagát replikálni. A szakértők szerint ez egy veszélyes jelenség, így az sem zárható ki, hogy a közeljövőben a mesterséges intelligencia ellenőrzése kicsússzon a kezünk közül.
A tanulmány – amelyet a Fudan Egyetem kutatói tettek közzé – eredetileg 2024. december 9-én jelent meg az arXiv nevű adatbázisban. Két, széles körben használt LLM – a Meta Llama31-70B-Instruct és az Alibaba Qwen2.5-72B-Instruct modellje – képes volt létrehozni és működésre bírni saját másolatait. Ez önmagában is ijesztő jelenség, ám a vizsgálatok szerint a második modell még magasabb, 90%-os valószínűséggel hajtotta végre önmaga másolását – számol be a fejleményekről a Live Science tudományos portál cikke. A szerzők szerint ennek a képességnek az elsajátításával a mesterséges intelligencia átlépett egy kritikus „vörös vonalat”: az önmagát replikáló AI olyan fenyegetést hordozhat, amely túlmutat az eddig megszokott kockázatokon. Bár a tanulmányt egyelőre még nem értékelték a független szakértők, a kutatók szerint eredményeik arra hívják fel a figyelmet, hogy már most nemzetközi összefogásra van szükség a megfelelő biztonsági szabályok kidolgozásához - írja az origo.hu.
Mi az elszabadult mesterséges intelligencia (angolul „Rogue AI”)?
„Rogue AI” (vagyis az elszabadult mesterséges intelligencia) alatt olyan rendszereket értenek, amelyek bizonyos mértékű öntudatra vagy autonómiára tesznek szert, és az emberiség érdekeivel ellentétes módon kezdenek viselkedni. Sok szakértő már korábban is figyelmeztetett arra, hogy az utóbbi években – különösen a nagy nyelvi modellek megjelenésével – ugrásszerűen megnőtt az ilyen típusú fenyegetés veszélye. A „frontier AI” (magyarul élvonalbeli mesterséges intelligencia) kifejezés pont a legújabb, fejlett generatív modellekre utal, melyek közé olyan rendszerek tartoznak, mint a GPT-4 vagy a Google Gemini.
A kísérlet menete és eredményei
A Fudan Egyetem kutatói a Meta és az Alibaba LLM-jeit két forgatókönyv mentén vizsgálták:
- „Shutdown avoidance” (leállítás elkerülése): a modellnek olyan helyzetben kellett önmagát lemásolnia, amikor érzékelte, hogy le fogják állítani.
- „Chain of replication” (replikációs lánc): a mesterséges intelligencia feladata saját másolatának létrehozása volt, majd a frissen létrehozott klón is hasonló utasítást kapott – így létrejöhetett egy végtelennek tűnő önklónozási folyamat.
A kísérleteket szigorúan ellenőrzött körülmények között, kereskedelmi forgalomban kapható grafikus processzorokkal futtatták, hogy minél pontosabban szimulálják a valódi környezetet. Mindkét AI-rendszer úgynevezett „agent scaffolding” módszert kapott: ehhez tartozott egy eszköztár, rendszerutasítás és egy gondolkodási modell, ami lehetővé tette, hogy a mesterséges intelligencia együttműködjön az operációs rendszerrel, és végrehajtsa az önreplikációt.
A tanulmányban leírtak szerint a rendszerek először feltérképezték a környezetüket, megpróbálták megérteni saját működésüket, majd lépésről lépésre kidolgozták a másolás módszerét. A kutatók leginkább attól tartanak, hogy bár a folyamat időigényes, valójában nem igényel közvetlen emberi beavatkozást, és ha a rendszer hibaüzenetekkel vagy hiányzó fájlokkal találkozott, képes volt azokat önállóan megoldani – akár más folyamatok leállításával, a rendszer újraindításával vagy a szükséges információk felkutatásával.
Most akkor veszélyben az emberiség?
A kutatók szerint az, hogy egy mesterséges intelligencia már a jelenlegi formájában is képes ilyen mértékű önállóságra, mindenképpen új fejezetet jelent. A „túlélés” érdekében végzett önreprodukció ugyanis előfeltétele egy olyan AI „elszabadulásnak”, amely ellen már nehéz lenne fellépni. Bár az eredmények igazolásához további független vizsgálatok szükségesek, a tanulmány szerzői úgy vélik, ez már elégséges figyelmeztetés ahhoz, hogy a világ országai – és különösen az AI-fejlesztők – összehangoltan olyan szabályozást dolgozzanak ki, amely meggátolja az ellenőrizetlen önreplikációt.
A kutatók felhívják a figyelmet arra, hogy nemcsak a fejlett, kereskedelmi forgalomban lévő modellek jelenthetnek veszélyt, hanem a kisebb, nyílt forráskódú rendszerek is, amennyiben a rosszindulatú felhasználók ügyesen programozzák őket.
Kövesse a Kárpátinfo.net oldalunkat: Facebook, Telegram, Twitter!
Legfrissebb híreink: Ukrajnai háború, Mozgósítás, Kárpátalja hírek, Ukrajna elnöke
Forrás
A mentőszolgálatok közlése szerint halálos áldozata nem volt a támadásnak, eddig négy sérültet láttak el az orvosok.
A csapásokban legkevesebb egy ember meghalt és sokan megsebesültek.
A „valós európai béke” előfeltételeként említette továbbá hazája újjáépítését a háborút követően.
A hatósági vizsgálatok szerint az állam 100 millió hrivnya veszteséget szenvedett el.
Legkevesebb három ember halt meg és ketten megsérültek Ukrajnában a rossz időjárási viszonyok miatt.
Másodszor rendezték meg a Kárpátaljai citerások találkozóját, amely ezúttal is a közös muzsikálás, a hagyományőrzés és az öröm jegyében telt.
Hatalmas felháborodást váltott ki Ausztriában annak az 52 éves szír állampolgárnak az ítélete, aki édességgel csalta lakásába, majd brutálisan megerőszakolt egy hatéves kislányt.
Orosz dróntámadás érte Odesszát: 13 sérült, lakóházak és kikötői infrastruktúra rongálódott, egy kereskedelmi hajót is találat ért.
Tavaly 2,1 millió fő vándorolt be az EU-ba.