Please use this identifier to cite or link to this item: http://dspace.utpl.edu.ec/jspui/handle/20.500.11962/20831
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorCordero Zambrano, Jorge Marcos.-
dc.contributor.authorGuamán Cañar, Pamela Fernanda.-
dc.date.accessioned2017-10-02T18:28:20Z-
dc.date.available2017-10-02T18:28:20Z-
dc.date.issued2017-
dc.identifier.citationGuamán Cañar, Pamela.(2017). Fernanda.Reconocimiento multimodal de emociones humanas en un ambiente inteligente.(Trabajo de titulación de Ingeniero en Sistemas Informáticos y Computación ). UTPL, Lojaes_ES
dc.identifier.other1271923-
dc.identifier.urihttp://dspace.utpl.edu.ec/handle/20.500.11962/20831-
dc.descriptionLa computación afectiva permite a los computadores el reconocimiento y generación de emociones para mejorar la interacción hombre-máquina. En este campo de investigación, el trabajo de titulación propuesto presenta el diseño de un modelo de reconocimiento multimodal de emociones en un ambiente inteligente, orientado a un aula inteligente. Inicialmente, se plantea una arquitectura para la gestión de las emociones en un ambiente inteligente (AmI) que consta de capa física, de agentes y de servicios. El modelo de reconocimiento de emociones diseñado es multimodal dado que la determinación de emociones se realiza mediante un análisis de las expresiones faciales y un análisis del texto. Se ha tomado como referencia las seis emociones básicas: felicidad, tristeza, enfado, miedo, disgusto y sorpresa propuesta por Paul Ekman para ser analizadas en el modelo. Se realizó un estudio de las herramientas y se seleccionó las que podrían ayudar al reconocimiento multimodal de emociones. Se ha probado el modelo multimodal en dos casos de estudio aplicados en un aula de clase, mientras los estudiantes visualizan un video y posteriormente realizan un ensayo sobre el mismo.es_ES
dc.description.abstractAffective computing allows computers to recognize and generate emotions to improve human-machine interaction. In this field of research, this project presents a multimodal emotion recognition model in an ambient intelligence, oriented to a smart classroom. Initially, it was proposed an architecture for the implementation of the management of emotions in an ambient intelligence (AmI) which consists of physical, agents and services layer. The emotion recognition model designed is multimodal since the determination of emotions is done through an analysis of facial expressions and a text analysis. On the other hand, to analyze the model has taken as a reference the six basic emotions: happiness, sadness, anger, fear, disgust and surprise proposed by Paul Ekman. It was done a study of the tools that help the multimodal emotion recognition and then were selected the best ones. The multimodal model has been tested in two cases of study applied in a classroom, while students visualize a video and then an essay of the visualized video.es_ES
dc.language.isospaes_ES
dc.subjectIngeniería artificiales_ES
dc.subjectIngeniero en sistemas informáticos y computación-Tesis y disertaciones académicases_ES
dc.titleReconocimiento multimodal de emociones humanas en un ambiente inteligentees_ES
dc.typebachelorThesises_ES
Appears in Collections:Ingeniero en Sistemas Informáticos y Computación

Files in This Item:
File Description SizeFormat 
Licencia 4.0.pdf22.45 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.