Please use this identifier to cite or link to this item: http://univ-bejaia.dz/dspace/123456789/24968
Title: Descripteurs Audio-Visuels Pour La Reconnaissance Des Emotions
Authors: Fourar, Ryma
Ouari, Samia
Tounsi, Mohamed ; promoteur
Belabbaci, El Ouanas ; co-promoteur
Keywords: Reconnaissance des Emotions Audio-Visuels : EDA : CNN : MSR : MFCC, : LDP, : WSF
Issue Date: 2024
Publisher: Université Abderrahmane mira-Béjaia
Abstract: Les émotions jouent un rôle crucial dans la communication et l'interaction humaines, permettant aux individus de s'exprimer au-delà du domaine verbal. La capacité de comprendre les émotions humaines est souhaitable pour les ordinateurs dans diverses applications. Les récentes avancées technologiques ont permis aux utilisateurs de communiquer avec les ordinateurs de manière auparavant inimaginable. Cette recherche présente une approche holistique de l'analyse des sentiments et des émotions, intégrant un ensemble diversifié d'algorithmes de machine learning et de deep learning pour analyser de manière exhaustive les données faciales et vocales. Les contributions de ce travail incluent l'utilisation d'une méthode de prétraitement connue sous le nom de Multiscale Retinex (MSR) pour améliorer la qualité des images et le contraste. De plus, des descripteurs discriminants handcrafted tels que LDP (Local Directional Pattern), BSIF (Binarized Statistical Image Features) et LBP (Local Binary Patterns), ainsi que des descripteurs de deep learning comme VGG19 et ResNet101, sont utilisés pour la reconnaissance des émotions basées sur les images faciales. Pour la reconnaissance des émotions dans la parole, nous utilisons le célèbre descripteur Handcrafted MFCC (Mel Frequency Cepstral Coefficient) et le modèle acoustique préentraîné VGGish basé sur un CNN (Convolutional Neural Network). De plus, la méthode EDA (Exponential Discriminant Analysis) a été utilisée pour la séparation maximale entre les classes. En outre, une fusion au niveau des scores utilisant la somme pondérée (Weighted Sum Fusion, WSF) est employée pour améliorer le processus de correspondance. Des tests ont été effectués en utilisant trois base de données, où la méthode proposée a surpassé l'état de l'art. Emotions play a crucial role in human communication and interaction, allowing individuals to express themselves beyond the verbal domain. The ability to understand human emotions is desirable for computers in various applications. Recent technological advancements have enabled users to communicate with computers in previously unimaginable ways. This research presents a holistic approach to sentiment and emotion analysis, integrating a diverse set of machine learning and deep learning algorithms to comprehensively analyze facial and vocal data. Contributions of this work include the use of a preprocessing method known as Multiscale Retinex (MSR) to enhance image quality and contrast. Additionally, discriminative handcrafted descriptors such as LDP (Local Discriminant Pattern), BSIF (Binarized Statistical Image Features), and LBP (Local Binary Patterns), as well as deep learning descriptors like VGG19 and ResNet101, are used for facial emotion recognition. For speech emotion recognition, we employ the well-known handcrafted descriptor MFCC (Mel Frequency Cepstral Coefficient) and the pretrained acoustical model VGGish based on a Convolutional Neural Network (CNN). Furthermore, Exponential Discriminant Analysis (EDA) method was used for maximal class separation. Additionally, score-level fusion using Weighted Sum Fusion (WSF) is employed to enhance the matching process. Tests were conducted using three datasets, where the proposed method outperformed the state-of-the-art.
Description: Spécialité :Réseaux et Télécoms
URI: http://univ-bejaia.dz/dspace/123456789/24968
Appears in Collections:Mémoires de Master

Files in This Item:
File Description SizeFormat 
Descripteurs Audio-Visuels Pour La Reconnaissance Des Emotions.pdf7.74 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.