V razvoju: pametni telefoni, ki lahko ocenijo razpoloženje

Raziskovalci z Univerze v Rochesterju razvijajo nov računalniški program, ki skozi govor meri človeške občutke, z že izdelano prototipno aplikacijo za pametne telefone.

Program ne analizira, kaj človek govori, temveč kako.

"Dejansko smo uporabili posnetke igralcev, ki so prebrali datum v mesecu - res ni pomembno, kaj rečejo, ampak to, kako to govorijo, nas zanima," je povedala Wendi Heinzelman, dr., Profesor elektrotehnike in računalništva.

Program analizira 12 značilnosti govora, kot sta višina in glasnost, da prepozna eno od šestih čustev iz zvočnega posnetka. Raziskovalci pravijo, da doseže 81-odstotno natančnost, kar je znatno izboljšanje prejšnjih študij, ki so dosegle le približno 55-odstotno natančnost.

Raziskava je bila že uporabljena za razvoj prototipa aplikacije, ki prikazuje bodisi vesel ali žalosten obraz, potem ko posname in analizira uporabnikov glas. Zgradil ga je eden od Heinzelmanovih podiplomskih študentov Na Yang med poletno prakso v Microsoft Research.

»Raziskave so še v zgodnjih dneh,« je priznal Heinzelman, »vendar si je enostavno zamisliti bolj zapleteno aplikacijo, ki bi lahko uporabljala to tehnologijo za vse, od prilagajanja barv, prikazanih na vašem mobilnem telefonu (telefonu), do predvajanja glasbe, ki ustreza vašemu se počutim po snemanju svojega glasu. "

Heinzelman in njena ekipa sodelujejo s psihologi iz Rochestera dr. Melissa Sturge-Apple in Patrick Davies, ki trenutno preučujeta interakcije med najstniki in njihovimi starši. "Zanesljiv način kategorizacije čustev bi lahko bil zelo koristen pri naših raziskavah," je dejala Sturge-Apple. "To bi pomenilo, da raziskovalcu ni treba poslušati pogovorov in ročno vnašati čustev različnih ljudi v različnih fazah."

Po mnenju raziskovalcev se učenje računalnika, da bi razumel čustva, začne s prepoznavanjem tega, kako to počnejo ljudje.

"Morda boste slišali nekoga, ki govori in pomisli," oh, zveni jezno. "Toda kaj je tisto, zaradi česar si tako misliš?" je dejal Sturge-Apple.

Pojasnila je, da čustva vplivajo na način, kako ljudje govorijo, s spreminjanjem glasnosti, višine in celo harmonike njihovega govora. "Tem značilnostim ne posvečamo pozornosti, ampak smo se pravkar naučili, kako zveni jezen - zlasti za ljudi, ki jih poznamo," je dodala.

Da pa lahko računalnik kategorizira čustva, mora delati z merljivimi količinami. Tako so raziskovalci ugotovili 12 posebnih značilnosti govora, ki so bile izmerjene pri vsakem snemanju v kratkih intervalih. Nato so raziskovalci vsak posnetek kategorizirali in jih uporabili za poučevanje računalniškega programa, kako zvenijo "žalostno", "veselo", "prestrašeno", "gnusno" ali "nevtralno".

Nato je sistem analiziral nove posnetke in poskušal ugotoviti, ali glas na posnetku prikazuje katero od znanih čustev. Če se računalniški program ni mogel odločiti med dvema ali več čustvi, je ta posnetek le pustil nerazvrščen.

"Želimo biti prepričani, da kadar računalnik misli, da posneti govor odraža določeno čustvo, je zelo verjetno, da to čustvo resnično prikazuje," je dejal Heinzelman.

Prejšnje raziskave so pokazale, da so sistemi za klasifikacijo čustev močno odvisni od govorcev, kar pomeni, da delujejo veliko bolje, če sistem trenira isti glas, kot ga bo analiziral. "To ni idealno za situacijo, ko bi radi izvedli eksperiment na skupini ljudi, ki se pogovarjajo in komunicirajo, na primer starši in najstniki, s katerimi sodelujemo," je dejala Sturge-Apple.

Novi rezultati to ugotovitev potrjujejo. Če se klasifikacija čustev, ki temelji na govoru, uporablja za glas, ki je drugačen od tistega, ki je treniral sistem, je natančnost z 81 odstotkov padla na približno 30 odstotkov. Raziskovalci zdaj iščejo načine za zmanjšanje tega učinka z usposabljanjem sistema z glasom v isti starostni skupini in istega spola.

"Še vedno je treba rešiti izzive, če želimo ta sistem uporabiti v okolju, ki spominja na resnično situacijo, vendar vemo, da je algoritem, ki smo ga razvili, učinkovitejši od prejšnjih poskusov," je dejal Heinzelman.

Vir: Univerza v Rochesterju

!-- GDPR -->