A ChatGPT-t fejlesztő OpenAI kénytelen volt utasítani egyes mesterséges intelligencia-eszközeit, hogy hagyjanak fel a koboldokról való beszéddel, miután kiderült, hogy a kifejezés váratlanul sokszor kezdett megjelenni a válaszokban. A vállalat csütörtöki blogbejegyzésében közölte: észrevették, hogy a mitológiai lények – például koboldok és gremlinek (ez utóbbiak ártalmas manók – a szerk.) – egyre gyakrabban szerepelnek metaforákban a ChatGPT és a legújabb zászlóshajó modellje, a GPT-5 által hajtott eszközök válaszaiban.
Miután felhasználók és alkalmazottak jelezték, hogy bizonyos problémákat „kis koboldokként” ír le a rendszer, az OpenAI lépéseket tett a jelenség visszaszorítására. Többek között arra utasította a kódíró eszközét, a Codexet, hogy csak akkor említse ezeket, ha valóban releváns – írja a BBC nyomán a hiradó.hu.
Utóbb kiderült, hogy egy úgynevezett „kocka személyiség”, amelyet a ChatGPT számára fejlesztettek ki, akaratlanul is ösztönözte a koboldokra való utalásokat.
A fejlesztők megállapították, hogy a GPT-5.1 novemberi megjelenése óta a „kobold” kifejezés használata 175 százalékkal, a „gremlin” szó említése pedig 52 százalékkal nőtt. Az eset jól mutatja, milyen kihívásokkal szembesülnek az MI-fejlesztők, amikor a rendszerek hajlamosak hibákat – például nyelvi furcsaságokat – megerősíteni és továbbörökíteni.
Utasításba adták ne beszéljen koboldokról vagy más lényekről
Amellett, hogy a rendszernek kerülnie kell a közhelyeket, azt az utasítást is megkapta a ChatGPT, hogy:
„Soha ne beszéljen koboldokról, gremlinokról, mosómedvékről, trollokról, ogrékól, galambokról vagy más állatokról és lényekről, hacsak az nem teljesen egyértelműen és szükségszerűen kapcsolódik a felhasználó kérdéséhez”.
A jelenség egy szélesebb iparági trendbe illeszkedik: a cégek egyre inkább személyiséggel ruházzák fel a chatbotokat, hogy növeljék a felhasználói elköteleződést.
Szakértők ugyanakkor arra figyelmeztetnek, hogy ezzel párhuzamosan nőhet a téves állítások – az úgynevezett „hallucinációk” – száma is.
Az Oxford Internet Institute egyik friss kutatása szerint a modellek barátságosabbá hangolása „pontossági kompromisszumhoz” vezethet, vagyis a rendszerek több hibát követhetnek el, illetve megerősíthetik a felhasználók téves elképzeléseit.
A szakértők arra is figyelmeztetnek, hogy a chatbotok magabiztos hangvételét nem szabad kritikátlanul elfogadni, különösen egészségügyi vagy orvosi kérdések esetén.
Ugyanakkor – a koboldos esethez hasonlóan – a generatív MI hibái inkább furcsák, mintsem veszélyesek. 2024 májusában például a Google chatbotját sokan kinevették, amiért azt állította: nyugodtan lehet köveket enni és „ragasztós pizzát” fogyasztani.
Kövesse a Kárpátinfo.net oldalunkat: Facebook, Telegram, Twitter!
Legfrissebb híreink: Ukrajnai háború, Mozgósítás, Kárpátalja hírek, Ukrajna elnöke