2020. 09. 04. - 08:20

99%-os pontossággal ismeri fel a gyermekzaklatással kapcsolatos tartalmakat a mesterséges intelligencia

99%-os pontossággal ismeri fel a gyermekzaklatással kapcsolatos tartalmakat a mesterséges intelligencia
A gyermekekkel szemben elkövetett szexuális zaklatások megfékezésére fejlesztettek ki egy új, mesterséges intelligenciával működő rendszert, amely nem kevesebb, mint 99%-os hatékonyságra képes.

Az interneten egyre nő az olyan tartalmaknak a száma, amiknek a témája gyermekekkel szembeni szexuális zaklatásokkal van összefüggésben. 2019-ben például 69,1 millió esetet jelentettek a National Center for Missing and Exploited Children nevű amerikai gyermekvédelmi szervezetnek, ami háromszorosa a 2017-es adatoknak, és 15.000%-kal több, mint 15 évvel ezelőtt.

Ennek visszaszorítására fejlesztették ki a Safer-t, egy mesterséges intelligencia alapú eszközt, melynek célja egyrészt az ilyen tartalmak terjedésének megfékezése, másrészt pedig az áldozatok felkutatása és az elkövetők azonosítása.

A rendszer gépi tanulást használja az új és be nem jelentett, gyermekkel szemben elkövetetett szexuális bántalmazásokat tartalmazó anyagok felderítésére (child sexual abuse material - CSAM). A Safer mögött álló nonprofit szervezet, a Thorn szerint ez a megoldással már most 99%-os pontosságot tud felmutatni.

Egy biztonságosabb internetet hozhat el a mesterséges intelligencia
Egy biztonságosabb internetet hozhat el a mesterséges intelligencia


A Safer a gyanús tartalmakat digitális ujjlenyomatokkal, vagyis úgynevezett hash-ekkel azonosítja. Amikor ezeket a hash-eket megtalálja, összeveti őket egy többmillió képet és videót felvonultató állományhalmazzal. Amennyiben még nem jelentették a kérdéses tartalmat korábban, akkor az algoritmusok meghatározzák, hogy CSAM-ról van-e szó. Ezt követően a Safer a tartalomnak helyet adó platform moderátorainak továbbítja az anyagot felülvizsgálatra, egyúttal jelentést is küld a National Center for Missing and Exploited Children szervezetnek, amely felveszi a tartalmat az adatbázisába.

A Safer ügyfelei között már több neves vállalat is szerepel, például a Flickr fotómegosztó szolgáltatás, ami a közelmúltban eredményesen vetette be az eszközt. Egy feltöltött kép miatti rendőrségi eljárás során 21 zaklatásnak kitett gyermeket azonosítottak, akiknek a kora 18 hónap és 14 év között volt. Az elkövető azóta börtönbüntetését tölti.

A tesztfázis során a mesterséges intelligencia alapú Safer már csaknem 100.000 CSAM-fájlt fedezett fel. A Flickr mellett egyébként az Imgur, a Slack és a Vimeo is használja, de mivel az eszköz az Egyesült Államokban működő összes cég számára elérhető, így a partnerek száma folyamatosan nő. A Thorn tervei szerint jövőre a tengerentúli vállalatoknak is elérhetővé teszi a fejlesztését, amely számára nem kisebb küldetést tűztek ki, minthogy a gyermekek szexuális zaklatásával kapcsolatos anyagokat teljes mértékben száműzzék a nyílt webről.

- Varga Viktor -

Hírlevél feliratkozás

Kérjük, add meg adataidat a hírlevélre történő feliratkozáshoz! A megadott adatokat bizalmasan kezeljük, azokat harmadik félnek át nem adjuk.

 

gyulai_vafurdo

profight_banner.