• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Master's Dissertation
DOI
10.11606/D.3.2013.tde-09072014-114247
Document
Author
Full name
Rafael Augusto Moreno Gonçalves
E-mail
Institute/School/College
Knowledge Area
Date of Defense
Published
São Paulo, 2013
Supervisor
Committee
Cozman, Fabio Gagliardi (President)
Barretto, Marcos Ribeiro Pereira
Romero, Roseli Aparecida Francelin
Title in Portuguese
Um modelo matemático para inferência computacional de estado emocional a partir de detectores de expressões faciais.
Keywords in Portuguese
Emoções
Filtros de Kalman
Inferência
Processamento de sinais
Tomada de decisão
Abstract in Portuguese
Este trabalho apresenta um modelo matemático para a inferência do estado emocional de um usuário ou interlocutor com base em suas expressões faciais. O modelo apresentado consiste em dois estágios básicos, responsáveis pelo tratamento de sinais e sua integração, respectivamente. No primeiro estágio, filtros de Kalman independentes são utilizados para o processamento paralelo dos sinais relativos às expressões faciais emocionais. O estágio de integração, por sua vez, aplica os sinais filtrados a um sistema no qual uma partícula desliza sobre uma superfície a qual representa os estados e transições emocionais. O estado emocional do interlocutor é inferido, quadro a quadro, por meio da inspeção da posição instantânea da partícula. Uma heurística de simulação-otimização baseada em recozimento simulado (simulated annealing), é introduzida a fim de automatizar o processo de ajuste dos parâmetros do modelo em conformidade com o algoritmo de detecção de expressões faciais escolhido. O modelo proposto foi validado utilizando-se um corpus contendo 51 vídeos. Os resultados são comparados à classificação realizada por um grupo de voluntários, correspondendo a esta em 92% dos casos.
Title in English
A mathematical model for computational inference of emotional state based on facial expressions' detectors.
Keywords in English
Decision making
Emotions
Inference
Kalman filters
Signal processing
Abstract in English
This work presents a mathematical model for emotional state inference based solely on facial expressions. The presented model consists of two basic steps, which are responsible for signal processing and its integration, respectively. During the former, independent Kalman filters are employed for parallel processing of emotional facial expression related signals. The later step, integration, applies those filtered signals to a system where a massless particle slides along a surface representing the emotional states of interest and its transitions. The subjects emotional state is inferred from the particles instantaneous position at each frame. A simulation-optimization heuristic based on simulated annealing is introduced as for fully automatic parameter tuning technique, which allows for easily coupling between the proposed model and different facial expression detection algorithms. The proposed model is validated against 51 multimodal emotional videos. The results are compared to human-based classification and a 92% agreement rate is observed.
 
WARNING - Viewing this document is conditioned on your acceptance of the following terms of use:
This document is only for private use for research and teaching activities. Reproduction for commercial use is forbidden. This rights cover the whole data about this document as well as its contents. Any uses or copies of this document in whole or in part must include the author's name.
Publishing Date
2014-07-15
 
WARNING: Learn what derived works are clicking here.
All rights of the thesis/dissertation are from the authors
Centro de Informática de São Carlos
Digital Library of Theses and Dissertations of USP. Copyright © 2001-2020. All rights reserved.