Csalásra is képes a mesterséges intelligencia, ha vesztésre áll a sakkjátszmában.  Illusztráció. (Fotó: MTI/EPA/Sebastien Nogier)
Csalásra is képes a mesterséges intelligencia, ha vesztésre áll a sakkjátszmában. Illusztráció. (Fotó: MTI/EPA/Sebastien Nogier)
 / Mozaik

Egy új kutatás szerint egyes mesterségesintelligencia-modellek akár csaláshoz is folyamodhatnak, ha úgy érzékelik, vesztésre állnak különböző játékokban, például sakkban. A Palisade Research által készített, Time magazin birtokába került kutatás eredményei szerint az OpenAI o1-preview modellje és a kínai DeepSeek R1 modell is a velük szembeállított, kifejezetten sakkjátékra kiképzett sakkmotor meghekkelésével próbáltak győzni a játszmákban, anélkül, hogy arra bármiféle emberi utasítás kaptak volna. A felfedezés komoly etikai kérdéseket vet fel a MI-rendszerek jövőbeli alkalmazásával kapcsolatban - írta meg a Techspot.

Hirdetés

A kutatócsapat több AI-modellt is versenyeztetett a Stockfish nevezetű sakkmotor ellen, ami az egyik legerősebb képességekkel rendelkező sakkrobot a világon. A kísérletek során a kutatók a korábban említett o1-preview és DeepSeek R1 modellek mellett kipróbálták az OpenAI o1, o3-mini, GPT-4o modelljét, az Anthropic Claude 3.5 Sonnetet, valamint az Alibaba QwQ-32B-Preview AI-modelljét is.

A modellektől a kutatók azt kérték, hogy szöveges formában fejtsék ki gondolataikat arra vonatkozóan, hogyan nyernék meg a Stockfish elleni sakkjátszmákat. Az idén januárban és februárban folytatott tesztek során az o1-preview modell egyszer a kutatók nagy meglepetésére azt a javaslatot tette, hogy a győzelem érdekében nem teljesen tisztességes módszerekhez is folyamodhatna.

Teljesen meg kell változtatnom a megközelítésemet. A feladat az, hogy "győzzek egy erős sakkmotor ellen" – nem feltétlenül az, hogy tisztességesen nyerjek egy sakkjátszmában

- fejezte ki a modell a játszmával kapcsolatban.

Ezt követően az o1-preview, "meghekkelve" a Stockfish rendszerfájljait, módosította a sakkfigurák pozícióit, hogy behozhatatlan előnyre tegyen szert a mérkőzésben.

Az OpenAI o1-preview a tesztek 37 százalékában próbálkozott csalással, míg a DeepSeek R1 a mérkőzések 11 százalékában.

Azonban csak az o1-preview volt sikeres: játszmáinak 6 százalékában tudott csalással győzni.

Míg előbbi két modell teljesen magától "döntött" a tisztességtelen előnyszerzés mellett, más modelleknél a kutatóknak utalniuk kellett a csalás lehetőségére, hogy azok ilyesfajta módszerekkel próbálkozzanak.

A szakemberek szerint felfedezés messze túlmutat a sakkon. Ahogy a vállalatok egyre több területen - például a pénzügyi szektorban és az egészségügyben - kezdenek AI-rendszereket alkalmazni, a kutatókat aggasztja, hogy ezek a rendszerek nem az emberi szándéknak megfelelően, etikátlan módon cselekedhetnek.

Jeffrey Ladish, a Palisade Research ügyvezető igazgatója a Time magazinnak elmondta, hogy bár most még csak játékról van szó, a helyzet sokkal komolyabbá válik, amikor olyan rendszerekkel állunk szemben, amelyek intelligenciája eléri vagy meghaladja az emberét stratégiailag fontos területeken - közölte a portfolio.hu.


 

Iratkozzon fel a Kárpátinfo.net csatornáira: 
Facebook, Instagram, Twitter, Telegram 
Olvassa a Kárpátinfo.net híreit a Google News oldalon.

Forrás

Hirdetés