Nemrégiben kínai tudósok egy egészen új elképzeléssel álltak elő, és rövid időn belül meg is valósították azt: egy „ügyészként” funkcionáló mesterséges intelligenciát (MI-t) fejlesztettek ki, amely saját maga emelhet vádat a bűnelkövetők ellen, helyettesítve és mintegy feleslegessé téve a valódi ügyészeket. Bizony, elérkezett az a bizonyos új kor: már egy számítógép is börtönbe küldheti az embert.
A gyakorlat nem is újszerű: a kínai igazságszolgáltatásban maguk az ügyészek is régóta használják a mesterségesintelligencia-eszközt bizonyítékok értékelésére és annak felmérésére, hogy a gyanúsított mennyire veszélyes a nyilvánosságra. Azt azonban valószínűleg ők sem gondolták, hogy eljön a nap, amikor a technológia őket is helyettesítheti. A nemrégiben kifejlesztett gép nyolc gyakori bűncselekményt képes azonosítani, mint például a csalást, testi sértést, lopást vagy a közúti szabálysértéseket. Ráadásul eszméletlen pontossággal dolgozik, több mint 97%-os biztonsággal képes előkészíteni a vádemeléseket.
A mérnökök 2015 és 2020 között több mint 17 000 eset felhasználásával tökéletesítették a technológiát, hogy az minél inkább önállósulhasson, vagyis ne csak az ügyek előkészítésében nyújthasson segítséget, hanem magát a vádemelést is megtehesse, végigvihesse az egész jogi folyamatot egészen az esetleges börtönbüntetésig. Egy kicsit olyan ez, mintha Kína éllovas akarna lenni a globális mesterségesintelligencia-versenyben. Ugyanis ők voltak az elsők, akik 2017-ben elindították az ország első kiberbíróságát, lehetővé téve a kibertérrel kapcsolatos perekben, például az e-kereskedelemben részt vevő felek számára, hogy videón keresztül jelenjenek meg az MI-alapú bírák előtt. Bár céljuk elvileg az volt, hogy segítsék a rendszert a nagyobb ügyek kezelésében, és az emberi bírák továbbra is minden lépést figyelemmel kísértek, mára ez megfordulni látszik.
Érdekes és felettébb ijesztő jelenség ez a mesterséges intelligencia. A kutatók szerint egyes városok már gépeket használnak a kormányzati alkalmazottak társadalmi köreinek és tevékenységeinek megfigyelésére. A legtöbb kínai börtön pedig mára mesterséges intelligenciát alkalmaz a foglyok fizikai és mentális állapotának nyomon követésére, ezzel is csökkentve az erőszakot. Úgy tűnik, hogy ez a megfoghatatlan kibertér mindent behálóz, észrevétlenül véve át az irányítást az emberi világ felett. De vajon valóban elég-e az a 97% a megfelelő működéshez?
Mi történik, ha hiba csúszik a gépezetbe? Ki vállalja a felelősséget? A gép, a hivatal vagy az algoritmus fejlesztője?
Mi történik akkor, ha az enyhítő körülményeket kivonják a jogrendszerből, és helyükre egy mindenkire érvényes program kerül? Ugyanis komoly következményei lehetnek annak, ha kiiktatjuk az emberi tényezőt a rendszerből.
Ennek ellenére Shi Yong professzor, a Kínai Tudományos Akadémia Big Data és Tudásmenedzsment Laboratóriumának igazgatója és a projekt vezető tudósa szerint a technológia csökkentheti az ügyészek napi munkáját, lehetővé téve számukra, hogy a nehezebb feladatokra összpontosítsanak. A Shi csapata által kifejlesztett MI-ügyész ugyanis minden egyes gyanúsított esetében az ember által generált esetleírás szövegéből nyert 1000 „változó” alapján vádat emelhetne, ami azért is nagy szó az eddigi bírósági gyakorlatokhoz képest, mert ezeknek a változóknak a többsége túl kicsi vagy absztrakt ahhoz, hogy az emberi ügyészek számára értelmet nyerjen. A 206-os rendszer azonban képes felismerni, rendszerbe tenni, majd értékelni a bizonyítékokat.
De nemcsak Kína tarol a kibertérben: 2020 februárjában ugyanis Malajzia volt az, aki történelmet írt, mivel az ő igazságszolgáltatási rendszerük volt az első, amely mesterséges intelligenciát használt az ítélethozatalban. Jelenleg a kelet-malajziai igazságszolgáltatás MI-rendszerét olyan bűncselekményekre használják, mint a kábítószer-birtoklás vagy a nemi erőszak felderítése. De a helyzet ott sem annyira egyszerű. Az MI-rendszerek ugyanis ugyanúgy hibázhatnak, mint a hús-vér ügyészek. Az MI ugyanis hajlamos a torzításra, működése és az általa gyártott összefüggések nagyban függnek a programozótól, a rendszer kiépítőjétől és a betáplált algoritmusoktól. Így nemcsak egy rossz bírói döntés, hanem egy nem megfelelő MI-rendszer is tönkretehet emberéleteket.
Erre legjobb példa Wisconsin esete. A COMPAS nevű, mesterséges intelligencia alapú, kockázatelemző szoftvert használták az ítélethozatalban, ami 137 kérdésre adott válaszaik alapján becsülte meg a bűnözők újbóli bűntettelkövetésének valószínűségét. Egy tanulmány azonban hamar felfedte a torz titkokat: megkülönböztetést talált a bűnözők etnikai hovatartozásuk alapján történő értékelésében. A rendszer a fekete bűnözőket gyakran nagyobb kockázatú újbóli elkövetőnek titulálta, még úgy is, hogy nem követtek el újabb bűncselekményeket, ezzel szemben a fehér bűnözők esetében ellentétes eredményeket hozott azáltal, hogy alacsonyabb kockázatú újbóli elkövetőnek bélyegezte őket, még akkor is, ha ismételten bűncselekményt követtek el.
Kérdés és aggály tehát marad bőven. Egy biztos: egy hibázni tudó emberek által létrehozott rendszer, ami ebből kifolyólag maga is képes a hibára, hogyan és miért válthatna ki olyan emberi tevékenységeket, amelyekben a szubjektív értékítéletek és emberi tényezők legalább annyira szerepet játszanak, mint az objektív tények? Lehet-e és egyáltalán kell-e „mesterségesíteni” az igazságszolgáltatást, és lesz-e egészséges határ gép és emberi világ között? Mindenki alakítsa ki a saját véleményét ez ügyben.
Többet is olvasnál a mesterséges intelligenciáról? Olvasd el cikkünket a segítő MI-ről, a Replikáról és a „robogeddonról”.
Ajánljuk még: