Index.hu
| 2021. 05. 31. – 13:00 | Kína |
Címlapképünk illusztráció. Fotó: Internet

Hirdetés

A BBC értesülései szerint egy mesterséges intelligenciát és arcfelismerést alkalmazó kamerarendszert teszteltek ujgurokon Hszincsiangban. Egy szoftvermérnök azt állítja, hogy a tartomány rendőrőrsein ilyen rendszerek telepítésében vett részt.

A londoni kínai nagykövetség nem reagált a vádakra, de leszögezte, hogy Kína garantálja minden etnikai csoport politikai és társadalmi jogait - írja az Index.

Mint a kísérleti patkányok egy laboratóriumban

Hszincsiangban 12 millió, etnikai kisebbséghez tartozó ujgur él, többségük muszlim vallású. A tartomány polgárai napi megfigyelés alatt állnak. A terület ad otthont az emberi jogi csoportok által magas biztonsági fokozatú fogolytáboroknak nevezett, rendkívül ellentmondásos „átnevelési központoknak” is, ahol a becslések szerint több mint egymillió embert tartanak fogva. 

Peking mindig is azzal érvelt, hogy a megfigyelésre szükség van a térségben, mert szerinte a saját államot létrehozni akaró szeparatisták több száz embert öltek meg terrortámadásokban.

A névtelenséget kérő szoftvermérnök nem fedte fel a céget sem, amelynek dolgozott, de megmutatott öt fényképet ujgur fogvatartottakról, akiken állítása szerint az érzelemfelismerő rendszert tesztelték.

A kínai kormány az ujgurokat tesztalanyként használja különböző kísérletekhez, ahogy a patkányokat is használják a laboratóriumokban – állította a szoftvermérnök.

Továbbá felvázolta saját szerepét is a kamerák telepítésében a tartományi rendőrőrsökön: Az érzelemfelismerő kamerát 3 méterre helyeztük el az alanytól. Hasonló a hazugságvizsgálóhoz, de sokkal fejlettebb technológiával.

Elmondta, hogy a rendőrök „lekötözőszékeket” használtak, amelyeket Kína-szerte széles körben alkalmaznak a rendőrőrsökön. A fogoly csuklóit és bokáit fémbilincsekkel rögzítik az érzelemfelismerő rendszer alkalmazása során.

Bizonyítékot szolgáltatott arra, hogy a mesterségesintelligencia-rendszer arra van kiképezve, hogy 

az arckifejezések és a bőrpórusok apró változásait is felismerje és elemezze. 

Állítása szerint a szoftver egy kördiagramot hoz létre, amelynek piros szegmense a negatív vagy szorongó lelkiállapotot jelképezi. Azt is állította, hogy a szoftvert arra fogják használni, hogy bizonyíték nélkül embereket ítéljenek el.

A bizonyítékokat Sophie Richardson, a Human Rights Watch kínai igazgatója mutatta meg a BBC-nek.

Megdöbbentő anyagról van szó. Nemcsak arról beszélünk, hogy az embereket egy tortadiagramra redukálják, hanem arról is, hogy az emberek, akik rendkívül kényszerítő körülmények között óriási nyomás alatt vannak, érthetően idegesek, és ezt a bűnösség jeleként értelmezik, és azt hiszem, ez komoly probléma – állította Richardson.

Gyanús viselkedés

Darren Byler, a Coloradói Egyetem munkatársa szerint az ujguroknak rutinszerűen DNS-mintát kell adniuk a helyi tisztviselőknek, digitális szkennelésnek kell alávetniük magukat, és a legtöbbjüknek le kell töltenie egy kormányzati telefonos alkalmazást, amely adatokat gyűjt, beleértve a kapcsolati listákat és a szöveges üzeneteket.

Az ujgurok élete ma már az adatok generálásáról szól – állítja Byler.

Mindenki tudja, hogy az okostelefont magadnál kell hordanod, és ha nem hordod magadnál, akkor őrizetbe vehetnek, tudják, hogy nyomon követnek vele. És úgy érzik az ujgurok, hogy nincs menekvés.

Az adatok nagy része az Integrált Közös Műveleti Platform nevű számítógépes rendszerbe kerül, amely a Human Rights Watch szerint jelzi az állítólagosan gyanús viselkedést.

A rendszer többtucatnyi különböző, teljesen legális viselkedésről gyűjt információt, például arról, hogy az emberek a bejárati ajtó helyett a hátsó ajtón mennek ki, vagy hogy olyan autóba tankolnak, amely nem az övék – hangsúlyozta Richardson. A hatóságok szerinte ma már QR-kódokat helyeznek el az emberek ajtaja előtt, így könnyen megtudhatják, hogy kinek kellene ott lennie, és kinek nem.

Még Orwell is elsápadna

Régóta folyik a vita arról, hogy a kínai technológiai cégek mennyire kötődnek az államhoz. Az amerikai IPVM kutatócsoport azt állítja, hogy az ilyen cégek által benyújtott szabadalmakban olyan bizonyítékokat talált, amelyek arra utalnak, hogy az arcfelismerő termékeket kifejezetten az ujgur emberek azonosítására tervezték.

A Huawei és a Kínai Tudományos Akadémia által 2018 júliusában benyújtott szabadalom olyan arcfelismerő terméket ír le, amely képes az embereket etnikai hovatartozásuk alapján azonosítani. A Huawei válaszában közölte, „nem engedi, hogy technológiáját bármely közösség tagjainak megkülönböztetésére vagy elnyomására használják”.

Az IMVP talált egy olyan dokumentumot is, amely arra utal, hogy a cég az úgynevezett „egy személy, egy fájl” rendszerhez fejlesztett technológiát.

A kormány minden egyes személynek tárolná a személyes adatait, politikai tevékenységét, kapcsolatait... mindent, ami betekintést adhat abba, hogyan viselkedik az adott személy, és milyen fenyegetést jelenthet – állítja Conor Healy, a videómegfigyelő kutatócsoport munkatársa, hozzátéve: ez potenciálisan lehetetlenné tesz mindenféle disszidálást, és valódi kiszámíthatóságot teremt a kormány számára a polgárok viselkedésével kapcsolatban. „Nem hiszem, hogy [George] Orwell valaha is elképzelte volna, hogy egy kormány képes lehet ilyen jellegű elemzésekre.”

Napi felügyelet

Becslések szerint Kínában található a világ közel 800 millió térfigyelő kamerájának fele. Számos intelligens város is van itt, mint például Csungking, ahol a mesterséges intelligencia beépült a városi környezet alapjaiba.

Hu Liu csungkingi oknyomozó újságíró saját tapasztalatairól számolt be a BBC-nek:

Amint kilépsz otthonról, és belépsz a liftbe, egy kamera rögzít. Mindenhol kamerák vannak. Amikor elmegyek otthonról valahova, taxit hívok, a taxitársaság feltölti az adatokat a kormánynak. Aztán lehet, hogy elmegyek egy kávézóba, hogy találkozzam néhány barátommal, és a hatóságok a kávézóban lévő kamerán keresztül tudják a tartózkodási helyemet. Előfordult már, hogy találkoztam néhány barátommal, és nem sokkal később valaki a kormánytól kapcsolatba lépett velem. Figyelmeztettek: »Ne találkozz azzal a személlyel, ne csináld ezt meg azt« – és hasonlók.

„A mesterséges intelligencia miatt már nincs hová bújnunk". 


Hirdetés

Forrás

Kövessen minket a Facebook és az Instagram oldalainkon.
Iratkozzon fel a Telegram csatornánkra is.
Legyen jól informált!