L'intelligence artificielle affective, également connue sous le nom d'informatique affective, est une technologie d'analyse de vision par ordinateur qui analyse les émotions personnelles et les états émotionnels grâce à la détection des émotions faciales et à l'évaluation des émotions par données visuelles. Cela nous aide à comprendre les émotions humaines et a des applications dans divers domaines tels que la santé mentale, les études de marché et l'éducation.
L'analyse des émotions visuelles (VEA) est une tâche difficile qui vise à combler le fossé émotionnel entre les pixels de bas niveau et les émotions de haut niveau. Malgré de nombreuses difficultés, l’analyse visuelle des sentiments recèle un grand potentiel, car la compréhension des émotions humaines est cruciale pour parvenir à une intelligence artificielle puissante. Ces dernières années, le développement rapide des réseaux de neurones convolutifs (CNN) a fait de l’apprentissage profond un nouveau choix pour l’analyse des sentiments. Grâce à CNN, nous pouvons tirer parti de ses capacités avancées d’extraction de fonctionnalités et de ses capacités d’apprentissage adaptatif pour capturer des informations émotionnelles dans les images. Cette approche devrait améliorer la précision et l’efficacité de l’analyse des sentiments et jeter les bases de systèmes de vision par ordinateur plus intelligents. Bien que des défis actuels subsistent, l’analyse des émotions visuelles deviendra dans un avenir proche une direction de recherche importante dans le domaine de la vision par ordinateur.
L'application d'émotion ou le système de vision de l'intelligence artificielle comprend les étapes suivantes :
1. Obtenir des cadres d'image à partir de la source de la caméra
2. redimensionner, faire pivoter, correction des couleurs ;
3. Utilisez le modèle CNN pour extraire les caractéristiques importantes ;
4.
Détection des visages dans les images et les vidéos
Utilisez une caméra ou des séquences vidéo pour détecter et localiser les visages. Les coordonnées du cadre de délimitation sont utilisées pour indiquer l’emplacement exact du visage en temps réel. La tâche de détection des visages reste difficile et la détection de tous les visages dans une image d'entrée donnée n'est pas garantie, en particulier dans des environnements non contrôlés avec des conditions d'éclairage difficiles, des poses de tête différentes, de longues distances ou des occlusions.
Prétraitement de l'image
Lorsqu'un visage est détecté, les données de l'image sont optimisées avant d'être introduites dans le classificateur d'émotions. Cette étape améliore considérablement la précision de la détection. Le prétraitement de l'image comprend généralement plusieurs sous-étapes pour normaliser les changements d'éclairage, la réduction du bruit, le lissage de l'image, la correction de la rotation de l'image, le redimensionnement de l'image et le recadrage de l'image.
Classification des émotions du modèle AI
Après le prétraitement, les caractéristiques pertinentes sont récupérées à partir des données prétraitées contenant les visages détectés. Il existe différentes manières de détecter de nombreux traits du visage. Par exemple, les unités d'action (AU), le mouvement des points caractéristiques du visage, la distance entre les points caractéristiques du visage, les caractéristiques dégradées, la texture du visage, etc.
Habituellement, les classificateurs utilisés pour la reconnaissance des émotions par l'IA sont basés sur des machines à vecteurs de support (SVM) ou des réseaux de neurones convolutifs (CNN). Enfin, les visages reconnus sont classés en fonction de leurs expressions faciales en leur attribuant des catégories prédéfinies.
Les émotions ou expressions émotionnelles qu'un modèle d'IA peut détecter dépendent de la catégorie sur laquelle il a été formé. La plupart des bases de données d'émotions contiennent les émotions suivantes :
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!