Abstract:
L’expression faciale est l’un des moyens non verbaux les plus couramment utilisés par les
humains pour transmettre les états émotionnels internes et, par conséquent, joue un rôle fondamental dans les interactions interpersonnelles. Bien qu’il existe un large éventail d’expressions
faciales possibles, les psychologues ont identifié six expressions fondamentales (la joie, la tristesse, la surprise, la colère, la peur et le dégoût) universellement reconnues.
La reconnaissance des émotions est l’un des domaines scientifiques les plus complexes. Ces
dernières années, de plus en plus d’applications tentent de l’automatiser. Ces applications innovantes concernent plusieurs domaines comme l’aide aux enfants autistes, les jeux vidéo, l’interaction homme-machine.
Cependant, le succès du Deep Learning, a poussé les chercheurs à exploiter les différents
types d’architectures de cette technique, pour obtenir de meilleures performances.
Nous proposons dans ce travail un système capable de détecter et d’identifier l’utilisateur à
travers ses expressions faciales afin de reconnaître son état émotionnel. Le système utilise un
classifieur d’expressions faciales basé sur l’apprentissage profond (Deep learning) et qui applique
un algorithme de réseaux de neurones convolutifs (VGG-16) pour l’éxtraction des caractéristiques, puis applique un deuxièeme algorithme de réseaux de neurones convolutifs (ResNet-50)
pour la classification de l’émotion.
Les expériences ont été menées afin de vérifier la faisabilité du système proposé. Son objectif
est la validation de la détection des visages et la reconnaissance de l’utilisateur et de ses émotions à travers ses expressions faciales avec la base de données CK+.