Uus lähenemisviis valetuvastusele kasutab reaalse kohtu kohtuasju

Jälgides tähelepanelikult inimesi, kes räägivad valet rääkivatest kohtuprotsessidest, töötavad Michigani ülikooli teadlased välja ainulaadse reaalse maailma andmetel põhineva valetuvastustarkvara.

Nende valet tuvastav mudel võtab arvesse nii inimese sõnu kui ka žeste ning erinevalt polügraafist ei pea see töötamiseks kõnelejat puudutama.

Katsetes oli prototüüp kuni 75 protsenti täpne valet rääkiva isiku tuvastamisel (vastavalt uuringu tulemustele), võrreldes inimeste hinnangutega, mis olid veidi üle 50 protsendi. Tööriist võib ühel päeval olla kasulik turvaagentidele, žüriidele ja isegi vaimse tervise spetsialistidele.

Teadlaste sõnul on nad tuvastanud mitu valetava käitumise punast lippu. Näiteks videotes liigutasid valetajad rohkem käsi. Nad püüdsid kõlada kindlamalt. Ja mõnevõrra vastumeelselt vaatasid nad oma küsijatele pisut tõenäolisemalt silma, kui inimesed arvasid muu käitumise kõrval tõtt rääkivat.

Tarkvara väljatöötamiseks kasutasid teadlased masinõppevõtteid, et treenida seda reaalsete katsete meediakajastusest pärit 120 videoklipil. Mõned nende kasutatud klipid pärinesid riikliku organisatsiooni The Innocence Project veebisaidilt, mis töötab valesti süüdimõistetute vabastamiseks.

Teose “pärismaailm” on üks peamisi viise, kuidas see erineb.

"Laborikatsetes on raske luua seadeid, mis motiveeriks inimesi tõeliselt valetama. Panused pole piisavalt suured, ”ütles arvutiteaduse ja inseneriteaduste professor dr Rada Mihalcea, kes juhib projekti koos Michigani ülikooli masinaehituse dotsendi dr Mihai Burzoga.

"Me võime pakkuda tasu, kui inimesed suudavad hästi valetada - makske neile, et veenda teist inimest selles, et midagi valet on tõsi. Kuid reaalses maailmas on tõeline motivatsioon petta. "

Videod sisaldavad nii kohtualuste kui ka tunnistajate ütlusi. Pooles klippides loetakse subjekt valetavaks. Et teha kindlaks, kes tõtt rääkis, võrdlesid teadlased oma ütlusi kohtuotsustega.

Teadlased transkribeerisid heli, sealhulgas vokaalse täitmise, näiteks "um, ah ja uh". Seejärel analüüsisid nad, kui sageli uuritavad kasutasid erinevaid sõnu või sõnaliike. Samuti loendasid nad videotes olevad žestid, kasutades inimestevahelise suhtlemise standardset kodeerimisskeemi, mille tulemuseks on üheksa erinevat pea, silmade, kulmu, suu ja käte liikumist.

Seejärel sisestasid nad andmed oma süsteemi, võimaldades neil videoid sortida. Kui see kasutas nii kõneleja sõnade kui ka žestide sisendit, oli see valetajate tuvastamisel 75 protsenti täpne. See on palju parem kui inimestel, kellel läks lihtsalt paremini kui mündi klappimisel.

"Inimesed on kehvad valedetektorid," ütles Mihalcea. "See pole selline ülesanne, milles me loomulikult hästi hakkama saame.

"On vihjeid, mida inimesed petlikult tehes loomulikult annavad, kuid me ei pööra nende kättesaamiseks piisavalt tähelepanu. Me ei loe, mitu korda inimene ütleb „mina” või vaatab üles. Keskendume kommunikatsiooni kõrgemale tasemele. "

Valetavate inimeste klippides leidsid teadlased järgmise levinud käitumise:

  • Valetajad kortsutasid või moonutasid pigem tervet nägu. Seda oli 30 protsendis valetavatest klippidest ja 10 protsendis tõestest klippidest;
  • Valetajad vaatasid pigem otse küsija poole, 70 protsendis valetavatest klippidest ja 60 protsendis tõest;
  • Valetajad viipasid tõenäolisemalt mõlema käega 40 protsendis valetavatest klippidest, võrreldes 25 protsendiga tõestest;
  • Valetajad kasutasid tõenäolisemalt vokaalset täitmist, näiteks “um”;
  • Valetajad distantseerisid end tegevusest pigem sõnadega nagu „tema” või „ta”, mitte „mina” või „meie”, ja kasutasid kindluset kajastavaid fraase.

"Me integreerime füsioloogilisi parameetreid, nagu pulss, hingamissagedus ja kehatemperatuuri kõikumised, mis on kogutud mitteinvasiivse termograafia abil," ütles Burzo. “Pettuste tuvastamine on väga keeruline probleem. Vaatame seda mitme erineva nurga alt. "

Selle töö jaoks klassifitseerisid teadlased ise žeste, selle asemel et lasta arvutil seda teha. Nad õpetavad arvutit seda tegema.

Tulemused esitati rahvusvahelisel multimodaalse interaktsiooni konverentsil ja need avaldatakse 2015. aasta konverentsi väljaandes.

Allikas: Michigani ülikool

!-- GDPR -->