Dans l'apprentissage automatique, la capacité de généralisation fait référence à la capacité d'un modèle à prédire avec précision sur des données invisibles. En d’autres termes, un modèle doté d’une bonne capacité de généralisation fonctionne non seulement bien sur l’ensemble d’apprentissage, mais est également capable de s’adapter à de nouvelles données et de produire des prédictions précises. À l’inverse, un modèle surajusté peut fonctionner correctement sur l’ensemble d’apprentissage, mais peut subir une dégradation des performances sur l’ensemble de test ou dans des applications réelles. Par conséquent, la capacité de généralisation est l’un des indicateurs importants pour évaluer la qualité du modèle, qui mesure efficacement l’applicabilité et la fiabilité du modèle. Grâce à une sélection de modèle appropriée, au prétraitement des données et au réglage du modèle, la capacité de généralisation du modèle peut être améliorée et l'exactitude et la fiabilité des prédictions peuvent être améliorées.
De manière générale, la capacité de généralisation d'un modèle est étroitement liée à son degré de surajustement. Le surajustement se produit lorsqu'un modèle est si complexe qu'il produit un ajustement très précis sur l'ensemble d'apprentissage, mais fonctionne mal sur l'ensemble de test ou dans des applications du monde réel. La cause du surajustement est que le modèle surajuste le bruit et les détails des données d'entraînement, tout en ignorant les modèles et régularités sous-jacents. Afin de résoudre le problème de surapprentissage, les méthodes suivantes peuvent être utilisées : 1. Division de l'ensemble de données : divisez l'ensemble de données d'origine en un ensemble d'entraînement et un ensemble de test. L'ensemble de formation est utilisé pour la formation du modèle et le réglage des paramètres, tandis que l'ensemble de test est utilisé pour évaluer les performances du modèle sur des données invisibles. 2. Technologie de régularisation : En introduisant des termes de régularisation dans la fonction de perte, la complexité du modèle est limitée pour éviter qu'il ne surajuste les données. Le surajustement positif
couramment utilisé est dû au fait que le modèle est trop complexe. Par exemple, un modèle ajusté à l’aide d’une fonction polynomiale d’ordre supérieur peut produire des résultats très précis dans l’ensemble d’apprentissage, mais peu performant dans l’ensemble de test. En effet, le modèle est trop complexe et surajuste le bruit et les détails de l'ensemble d'entraînement sans capturer les modèles et régularités sous-jacents. Afin d'éviter le surajustement, certaines méthodes peuvent être adoptées, telles que l'augmentation de la quantité de données d'entraînement, la réduction de la complexité du modèle et l'utilisation de techniques de régularisation. Ces méthodes contribuent à améliorer la capacité de généralisation du modèle et à le rendre plus performant sur l'ensemble de test.
Afin d'améliorer la capacité de généralisation du modèle, des mesures doivent être prises pour réduire le surapprentissage. Voici des moyens de réduire le surapprentissage :
L'augmentation des données d'entraînement réduit le surapprentissage.
2. Régularisation : en ajoutant des termes de régularisation à la fonction de perte, le modèle peut être plus enclin à choisir des configurations de paramètres plus simples, réduisant ainsi le surajustement. Les méthodes de régularisation courantes incluent la régularisation L1 et la régularisation L2.
3. Arrêt précoce : pendant le processus de formation, lorsque les performances du modèle sur l'ensemble de validation ne s'améliorent plus, l'arrêt de la formation peut réduire le surapprentissage.
4.Abandon : En rejetant de manière aléatoire la sortie d'une partie des neurones pendant le processus d'entraînement, la complexité du modèle de réseau neuronal peut être réduite, réduisant ainsi le surapprentissage.
5. Amélioration des données : en effectuant des transformations aléatoires sur les données d'entraînement, telles que la rotation, la traduction, la mise à l'échelle, etc., la diversité des données d'entraînement peut être augmentée, réduisant ainsi le surapprentissage.
En bref, la capacité de généralisation est étroitement liée au surapprentissage du modèle. Le surajustement est dû au fait que le modèle est trop complexe et qu'il apprend le bruit et les détails des données d'entraînement au lieu des modèles et des lois sous-jacents. Afin d'améliorer la capacité de généralisation du modèle, certaines mesures doivent être prises pour réduire le surapprentissage, telles que l'augmentation des données d'entraînement, la régularisation, l'arrêt anticipé, l'abandon et l'amélioration des données.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!