Maison > Périphériques technologiques > IA > Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?

Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?

WBOY
Libérer: 2023-04-16 21:28:01
avant
708 Les gens l'ont consulté

​Dans cet article, Boaz Barak, informaticien théoricien et professeur bien connu à l'Université Harvard, compare en détail les différences entre l'apprentissage profond et les statistiques classiques. Il estime que « si vous comprenez l'apprentissage profond uniquement d'un point de vue statistique, vous. ignorera les facteurs clés de son succès." ".

Le deep learning (ou l'apprentissage automatique en général) est souvent considéré comme de simples statistiques, c'est-à-dire qu'il s'agit fondamentalement du même concept que celui étudié par les statisticiens, mais il est décrit en utilisant une terminologie différente de celle des statistiques. Rob Tibshirani a un jour résumé ce « vocabulaire » intéressant ci-dessous :

Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?

Est-ce que quelque chose dans cette liste résonne vraiment ? Pratiquement toute personne impliquée dans l'apprentissage automatique sait que la plupart des termes figurant à droite du tableau publié par Tibshirani sont largement utilisés dans l'apprentissage automatique.

Si vous comprenez le deep learning uniquement d’un point de vue statistique, vous ignorerez les facteurs clés de son succès. Une évaluation plus appropriée de l’apprentissage profond est qu’il utilise des termes statistiques pour décrire des concepts complètement différents.

La bonne évaluation de l'apprentissage profond n'est pas qu'il utilise des mots différents pour décrire d'anciens termes statistiques, mais qu'il utilise ces termes pour décrire des processus complètement différents.

Cet article expliquera pourquoi les fondements du deep learning sont en réalité différents des statistiques, voire différents du machine learning classique. Cet article aborde d'abord la différence entre la tâche « explication » et la tâche « prédiction » lors de l'ajustement d'un modèle aux données. Deux scénarios du processus d'apprentissage sont ensuite discutés : 1. Ajustement de modèles statistiques en utilisant la minimisation empirique des risques. 2. Enseigner des compétences mathématiques aux étudiants ; Ensuite, l’article discute du scénario le plus proche de l’essence de l’apprentissage profond.

Alors que les mathématiques et le code pour l'apprentissage profond sont presque les mêmes que l'ajustement de modèles statistiques. Mais à un niveau plus profond, l’apprentissage profond s’apparente davantage à l’enseignement de compétences mathématiques aux étudiants. Et il devrait y avoir très peu de gens qui osent prétendre : je maîtrise complètement la théorie de l’apprentissage profond ! En fait, il est douteux qu’une telle théorie existe. Au lieu de cela, les différents aspects de l’apprentissage profond sont mieux compris sous différents angles, et les statistiques à elles seules ne peuvent pas fournir une image complète.

Cet article compare l'apprentissage profond et les statistiques. Les statistiques font ici spécifiquement référence aux « statistiques classiques » car elles sont étudiées depuis très longtemps et figurent dans les manuels scolaires depuis longtemps. De nombreux statisticiens travaillent sur l’apprentissage profond et sur des méthodes théoriques non classiques, tout comme les physiciens du XXe siècle avaient besoin d’élargir le cadre de la physique classique. En fait, brouiller les frontières entre informaticiens et statisticiens profite aux deux parties.

Prédiction et ajustement du modèle

Les scientifiques ont toujours comparé les résultats de calcul du modèle avec les résultats d'observation réels pour vérifier l'exactitude du modèle. L'astronome égyptien Ptolémée a proposé un ingénieux modèle du mouvement planétaire. Le modèle de Ptolémée suivait le géocentrisme mais comportait une série d'épicycles (voir l'image ci-dessous), ce qui lui confère une excellente précision prédictive. En revanche, le modèle héliocentrique original de Copernic était plus simple que le modèle ptolémaïque mais moins précis dans la prévision des observations. (Copernic a ajouté plus tard ses propres épicycles pour être comparables au modèle de Ptolémée.)

Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?

Les modèles de Ptolémée et de Copernic sont sans précédent. Si nous voulons faire des prédictions à partir d’une « boîte noire », alors le modèle géocentrique de Ptolémée est supérieur. Mais si vous voulez un modèle simple dans lequel vous pouvez « regarder à l’intérieur » (qui est le point de départ des théories expliquant le mouvement stellaire), alors le modèle de Copernic est la voie à suivre. Plus tard, Kepler a amélioré le modèle de Copernic en une orbite elliptique et a proposé les trois lois de Kepler sur le mouvement planétaire, qui ont permis à Newton d'expliquer les lois planétaires avec la loi de la gravité applicable à la Terre.

Il est donc important que le modèle héliocentrique ne soit pas simplement une « boîte noire » qui fournit des prédictions, mais soit donné par quelques équations mathématiques simples, mais avec très peu de « pièces mobiles » dans les équations. L’astronomie est depuis de nombreuses années une source d’inspiration pour le développement de techniques statistiques. Gauss et Legendre ont inventé indépendamment la régression des moindres carrés vers 1800 pour prédire les orbites des astéroïdes et autres corps célestes. En 1847, Cauchy invente la méthode de descente de gradient, également motivée par des prédictions astronomiques.

En physique, les chercheurs disposent parfois de tous les détails pour trouver la « bonne » théorie, optimiser la précision des prédictions et fournir la meilleure explication des données. Celles-ci entrent dans le cadre d'idées telles que le rasoir d'Occam, qui peuvent être considérées comme supposant que la simplicité, le pouvoir prédictif et le pouvoir explicatif sont tous en harmonie les uns avec les autres.

Cependant, dans de nombreux autres domaines, la relation entre les deux objectifs d’explication et de prédiction n’est pas aussi harmonieuse. Si vous souhaitez simplement prédire les observations, il est probablement préférable de passer par une « boîte noire ». D’un autre côté, si l’on souhaite obtenir des informations explicatives, telles que des modèles causals, des principes généraux ou des caractéristiques importantes, alors plus le modèle peut être compris et expliqué est simple, mieux c’est.

Le bon choix du modèle dépend de sa destination. Par exemple, considérons un ensemble de données contenant l'expression génétique et les phénotypes de nombreux individus (par exemple, une maladie). Si l'objectif est de prédire le risque qu'une personne tombe malade, peu importe sa complexité ou le nombre de gènes sur lesquels il repose. utiliser Le meilleur modèle prédictif adapté à la tâche. Au contraire, si l’objectif est d’identifier quelques gènes en vue d’une étude plus approfondie, alors une « boîte noire » complexe et très précise est d’une utilité limitée.

Le statisticien Leo Breiman a souligné ce point dans son célèbre article de 2001 sur Deux cultures dans la modélisation statistique. La première est une « culture de modélisation des données » qui se concentre sur des modèles génératifs simples capables d’expliquer les données. La seconde est une « culture de modélisation algorithmique » qui est agnostique quant à la manière dont les données ont été générées et se concentre sur la recherche de modèles capables de prédire les données, quelle que soit leur complexité.

Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?

Titre de l'article :

Modélisation statistique : les deux cultures

Lien de l'article :

https://projecteuclid.org/euclid.ss/1009213726

Breiman estime que les statistiques sont trop influencées par la première culture Domination , cette focalisation crée deux problèmes :

  • conduit à des théories non pertinentes et à des conclusions scientifiques douteuses
  • empêche les statisticiens d'étudier de nouvelles questions passionnantes

Dès que l'article de Breiman est sorti, il a suscité une certaine controverse. Son collègue statisticien Brad Efron a répondu que même s'il était d'accord avec certains points, il a également souligné que l'argument de Breiman semblait être contre la frugalité et la perspicacité scientifique en faveur d'un effort considérable pour créer des « boîtes noires » complexes. Mais dans un article récent, Efron a abandonné son point de vue précédent et a admis que Breima était plus prémonitoire parce que « les statistiques du 21e siècle se concentrent sur les algorithmes prédictifs, qui ont évolué dans une large mesure dans le sens proposé par Breiman ».

Modèles prédictifs classiques et modernes

L'apprentissage automatique, qu'il s'agisse d'apprentissage profond ou non, a évolué dans le sens de la deuxième perspective de Breiman, axée sur la prédiction. Cette culture a une longue histoire. Par exemple, le manuel de Duda et Hart publié en 1973 et l'article de Highleyman de 1962 décrivent le contenu de la figure ci-dessous, qui est très facile à comprendre pour les chercheurs en apprentissage profond d'aujourd'hui :

Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?

Duda et Hart Extraits du manuel "Classification des modèles et analyse de scène" et l'article de Highleyman de 1962 "La conception et l'analyse des expériences de reconnaissance de formes".

De même, l'image ci-dessous de l'ensemble de données de caractères manuscrits de Highleyman et de l'architecture utilisée pour l'adapter, Chow (1962) (précision ~ 58 %), trouvera un écho auprès de nombreuses personnes.

Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?

Pourquoi l'apprentissage profond est-il différent ?

En 1992, Geman, Bienenstock et Doursat ont écrit un article pessimiste sur les réseaux de neurones, affirmant que « les réseaux de neurones à action directe actuels sont largement insuffisants pour résoudre des problèmes difficiles de perception et d'apprentissage automatique ». Plus précisément, ils soutiennent que les réseaux neuronaux à usage général ne parviendront pas à gérer des tâches difficiles et que la seule manière d’y parvenir est de recourir à des fonctionnalités conçues artificiellement. Selon leurs termes : « Les propriétés importantes doivent être intégrées ou « câblées »... plutôt que apprises dans un sens statistique. » Il semble maintenant que Geman et al. se trompent complètement, mais il est plus intéressant de comprendre. pourquoi ils ont tort.

Le deep learning est en effet différent des autres méthodes d’apprentissage. Bien que l’apprentissage profond puisse ressembler à une simple prédiction, comme le plus proche voisin ou une forêt aléatoire, il peut avoir des paramètres plus complexes. Cela semble être une différence quantitative plutôt que qualitative. Mais en physique, dès que l’échelle change de quelques ordres de grandeur, une théorie complètement différente est souvent nécessaire, et il en va de même pour l’apprentissage profond. Les processus sous-jacents du deep learning et des modèles classiques (paramétriques ou non paramétriques) sont complètement différents, bien que leurs équations mathématiques (et le code Python) soient les mêmes à un niveau élevé.

Pour illustrer ce point, considérons deux scénarios différents : adapter un modèle statistique et enseigner les mathématiques aux élèves.

Scénario A : Ajustement d'un modèle statistique

Les étapes typiques pour ajuster un modèle statistique à l'aide de données sont les suivantes :

1. Voici quelques données Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ? (Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ? est la matrice de Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ? ; Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ? est le vecteur Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?dimensionnel, c'est-à-dire l'étiquette de catégorie. Considérez les données comme provenant d'un modèle qui a une structure et contient du bruit, qui est le modèle à ajuster)

2. Utilisez les données ci-dessus pour ajuster un modèleApprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ? et utilisez un algorithme d'optimisation pour minimiser le risque empirique. C'est-à-dire, trouvez un tel Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ? via l'algorithme d'optimisation de sorte que Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ? soit le plus petit, Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ? représente la perte (indiquant à quel point la valeur prédite est proche de la valeur vraie) et Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ? soit un terme de régularisation facultatif.

3. Plus la perte globale du modèle est faible, mieux c'est, c'est-à-dire que la valeur de l'erreur de généralisation Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ? est relativement minime.

Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?

Illustration d'Effron de la récupération de la première loi de Newton à partir d'observations contenant du bruit

Cet exemple très général contient en fait de nombreux contenus, tels que la régression linéaire des moindres carrés, le voisin le plus proche, l'entraînement des réseaux de neurones, etc. Dans les scénarios statistiques classiques, nous rencontrons généralement la situation suivante :

Compromis : supposons un ensemble de modèles optimisé (si la fonction est non convexe ou contient un terme de régularisation, un algorithme et une régularisation soigneusement sélectionnés peuvent aboutir à un ensemble de Le biais de est l'approximation la plus proche de la valeur réelle qu'un élément peut atteindre. Plus l'ensemble est grand, plus le biais est petit et peut être égal à 0 (si la variance du modèle de sortie est grande. L'erreur de généralisation globale est la suivante. somme de biais et de variance. Par conséquent, l'apprentissage statistique est généralement un compromis biais-variance, et la complexité correcte du modèle consiste à minimiser l'erreur globale. Leur attitude pessimiste à l'égard des réseaux neuronaux, soutiennent-ils : Les limitations fondamentales causées par le biais. Le dilemme de la variance s'applique à tous les modèles d'inférence non paramétriques, y compris les réseaux de neurones

"Plus on est de fous, plus on est de fous" : dans l'apprentissage statistique, plus de fonctionnalités ou de données n'améliorent pas nécessairement les performances. Par exemple, il est difficile d'apprendre. à partir de données contenant de nombreuses caractéristiques non pertinentes. De même, l'apprentissage à partir d'un modèle de mélange, où les données proviennent de l'une des deux distributions (telles que et , est difficile à apprendre chaque distribution indépendamment

Rendements décroissants : dans plusieurs). Dans certains cas, le nombre de points de données requis pour réduire le bruit de prédiction au niveau est lié aux paramètres et, c'est-à-dire que le nombre de points de données est approximativement égal à. Il faut environ k échantillons pour commencer, mais une fois que vous l'avez fait, vous faites face à des rendements décroissants. , c'est-à-dire que s'il faut k points pour atteindre une précision de 90 %, il faut environ k points supplémentaires pour augmenter la précision à 95 %. De manière générale, à mesure que les ressources augmentent (qu'il s'agisse de données, de complexité du modèle ou de calcul), on espère obtenir des distinctions de plus en plus fines. , plutôt que de débloquer de nouvelles fonctionnalités spécifiques

Forte dépendance à la perte de données : lors de l'ajustement d'un modèle à des données de grande dimension, tout petit détail peut faire une grande différence dans le choix du régulariseur L1 ou L2, sans parler de l'utilisation d'un régulateur complètement nombre différent d'optimiseurs de grande dimension. Ils sont également très différents les uns des autres.

Les données sont relativement "naïves" : on suppose généralement que les données sont échantillonnées indépendamment d'une certaine distribution, bien que les points proches de la limite de décision soient difficiles. Pour classer, compte tenu du phénomène de concentration des mesures en grandes dimensions, on peut considérer que les distances de la plupart des points sont similaires. Par conséquent, dans la distribution classique des données, la différence de distance entre les points de données n'est pas grande. peut montrer cette différence, donc, contrairement aux autres problèmes mentionnés ci-dessus, cette différence est courante dans les statistiques

Scénario B : Apprendre les mathématiques

Dans ce scénario, nous supposons que vous souhaitez enseigner aux élèves les mathématiques (comme le calcul des dérivées) à travers certains. instructions et exercices. Ce scénario n'est pas formellement défini. Il existe certaines caractéristiques qualitatives :

Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?Apprendre une compétence plutôt que se rapprocher d'une distribution statistique : Dans ce cas, les élèves apprennent une compétence plutôt que l'estimation/prédiction d'une certaine distribution. quantité. , même si la fonction qui mappe les exercices aux solutions ne peut pas être utilisée comme une « boîte noire » pour résoudre certaines tâches inconnues, les schémas de pensée formés par les élèves lors de la résolution de ces problèmes sont toujours utiles pour des tâches inconnues.

Plus il y en a, mieux c'est : de manière générale, les étudiants qui répondent à plus de questions et couvrent un plus large éventail de types de questions obtiennent de meilleurs résultats. Faire quelques questions de calcul et d'algèbre en même temps n'entraînera pas une baisse des résultats de calcul des élèves, mais peut les aider à améliorer leurs résultats de calcul.

De l'amélioration des capacités à la représentation automatisée : bien que la résolution de problèmes présente également des rendements décroissants dans certains cas, les élèves apprennent en plusieurs étapes. Il y a une étape où la résolution de certains problèmes permet de comprendre les concepts et de débloquer de nouvelles capacités. De plus, lorsque les élèves répètent un type spécifique de problème, ils formeront un processus automatisé de résolution de problèmes lorsqu'ils verront des problèmes similaires, passant d'une amélioration précédente des capacités à une résolution automatique de problèmes.

Performance indépendante des données et des pertes : il existe plusieurs façons d'enseigner les concepts mathématiques. Les étudiants qui étudient en utilisant des livres, des méthodes pédagogiques ou des systèmes de notation différents peuvent finir par apprendre le même contenu et avoir des capacités mathématiques similaires.

Certains problèmes sont plus difficiles : dans les exercices de mathématiques, nous constatons souvent de fortes corrélations entre la manière dont différents élèves résolvent le même problème. Il semble y avoir un niveau de difficulté inhérent à un problème et une progression naturelle de la difficulté qui convient le mieux à l'apprentissage.

L'apprentissage profond s'apparente-t-il davantage à une estimation statistique ou à des compétences d'apprentissage des étudiants ?

Parmi les deux métaphores ci-dessus, laquelle est la plus appropriée pour décrire l’apprentissage profond moderne ? Concrètement, qu’est-ce qui fait son succès ? L'ajustement du modèle statistique peut être bien exprimé à l'aide des mathématiques et du code. En fait, la boucle d'entraînement canonique de Pytorch entraîne des réseaux profonds via une minimisation empirique des risques :

Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?

À un niveau plus profond, la relation entre ces deux scénarios n'est pas claire. Pour être plus précis, voici une tâche d’apprentissage spécifique à titre d’exemple. Considérons un algorithme de classification formé à l'aide de l'approche « apprentissage auto-supervisé + détection linéaire ». La formation spécifique de l'algorithme est la suivante :

​1. Supposons que les données sont une séquence, où Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ? est un certain point de données (comme une image) et est l'étiquette. ​

​2. Obtenez d’abord le réseau neuronal profond qui représente la fonction Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?. Une fonction de perte auto-supervisée d'un certain type est formée en la minimisant en utilisant uniquement des points de données et non des étiquettes. Des exemples de telles fonctions de perte sont la reconstruction (restauration de l'entrée avec d'autres entrées) ou l'apprentissage contrastif (l'idée principale est de comparer des échantillons positifs et négatifs dans l'espace des caractéristiques pour apprendre la représentation des caractéristiques de l'échantillon).

3. Ajustez un classificateur linéaire Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ? (qui est le nombre de classes) en utilisant les données étiquetées complètes pour minimiser la perte d'entropie croisée. Notre classificateur final est :

Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?

L'étape 3 ne fonctionne que pour les classificateurs linéaires, donc la « magie » se produit à l'étape 2 (apprentissage auto-supervisé des réseaux profonds). Il existe certaines propriétés importantes dans l'apprentissage auto-supervisé :

Apprendre une compétence au lieu de se rapprocher d'une fonction : l'apprentissage auto-supervisé ne consiste pas à se rapprocher d'une fonction, mais à apprendre des représentations qui peuvent être utilisées pour une variété de tâches en aval (c'est-à-dire le paradigme dominant dans le traitement du langage naturel). L'obtention de tâches en aval par sondage linéaire, réglage fin ou excitation est secondaire.

Plus on est de fous : dans l'apprentissage auto-supervisé, la qualité de la représentation s'améliore à mesure que la quantité de données augmente et ne se détériore pas en mélangeant des données provenant de plusieurs sources. En fait, plus les données sont diversifiées, mieux c’est.

Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?

Ensemble de données du modèle Coogle PaLM

Débloquez de nouvelles capacités : à mesure que l'investissement en ressources (données, calcul, taille du modèle) augmente, les modèles d'apprentissage profond s'améliorent également de manière discontinue. Cela a également été démontré dans certains environnements combinés.

Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?

À mesure que la taille du modèle augmente, PaLM affiche des améliorations discrètes dans les benchmarks et débloque des fonctionnalités surprenantes, comme expliquer pourquoi une blague est drôle.

Les performances sont presque indépendantes de la perte ou des données : il existe de multiples pertes auto-supervisées, de multiples pertes de contraste et de reconstruction sont en fait utilisées dans la recherche d'images, les modèles de langage utilisent une reconstruction unilatérale (prédisant le prochain jeton) ou utilisant un modèle de masque, les prédictions viennent de gauche à droite L'entrée de masque du jeton. Il est également possible d'utiliser des ensembles de données légèrement différents. Ceux-ci peuvent affecter l'efficacité, mais tant que des choix « raisonnables » sont faits, la ressource d'origine améliore souvent davantage les performances de prévision que la perte spécifique ou l'ensemble de données utilisé.

Certains cas sont plus difficiles que d'autres : ce point n'est pas spécifique à l'apprentissage auto-supervisé. Les points de données semblent avoir un certain « niveau de difficulté » inhérent. En fait, différents algorithmes d'apprentissage ont différents "niveaux de compétence", et différents fichiers de données ont différents "niveaux de difficulté" (la probabilité qu'un classificateur classe correctement un point augmente de façon monotone avec la compétence et diminue de manière monotone avec la difficulté).

Le paradigme « compétence contre difficulté » est l'explication la plus claire du phénomène de « précision en jeu » découvert par Recht et al. L'article de Kaplen, Ghosh, Garg et Nakkiran montre également comment différentes entrées dans un ensemble de données ont des « profils de difficulté » inhérents qui sont généralement robustes aux différentes familles de modèles.

Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?

C** précision sur le phénomène de ligne pour un classificateur formé sur IFAR-10 et testé sur CINIC-10. Source de la figure : https://millerjohnp-linearfits-app-app-ryiwcq.streamlitapp.com/

Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?

La figure du haut représente différentes probabilités softmax pour la classe la plus probable en fonction de la précision globale d'un certain classificateur de classe. , la catégorie est indexée par temps de formation. Le diagramme circulaire du bas montre la décomposition de différents ensembles de données en différents types de points (notez que cette décomposition est similaire pour différentes structures neuronales).

La formation, c'est l'enseignement : la formation de grands modèles modernes ressemble plus à un enseignement aux étudiants plutôt qu'à une adaptation du modèle aux données. Lorsque les étudiants ne comprennent pas ou se sentent fatigués, ils se "reposent" ou essaient différentes méthodes (différences de formation). Les journaux de formation des grands modèles de Meta sont instructifs : en plus des problèmes matériels, nous pouvons également voir des interventions telles que le changement d'algorithmes d'optimisation pendant la formation, et même l'envisagement de fonctions d'activation « d'échange à chaud » (GELU vers RELU). Ce dernier point n'a pas beaucoup de sens si vous considérez la formation de modèles comme un ajustement aux données plutôt que comme l'apprentissage d'une représentation.

Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?

Extrait du journal de méta-entraînement

4.1 Mais qu'en est-il de l'apprentissage supervisé ?

L'apprentissage auto-supervisé a été évoqué plus tôt, mais l'exemple typique de l'apprentissage profond reste l'apprentissage supervisé. Après tout, le « moment ImageNet » du deep learning est venu d’ImageNet. Alors, ce qui a été discuté ci-dessus s’applique-t-il toujours à ce paramètre ?

Premièrement, l’émergence de l’apprentissage profond supervisé à grande échelle a été quelque peu accidentelle, grâce à la disponibilité de grands ensembles de données étiquetés de haute qualité (c’est-à-dire ImageNet). Si vous avez une bonne imagination, vous pouvez imaginer une histoire alternative dans laquelle l’apprentissage profond a commencé à faire des percées dans le traitement du langage naturel grâce à l’apprentissage non supervisé, avant de passer à la vision et à l’apprentissage supervisé.

Deuxièmement, il est prouvé que l'apprentissage supervisé et l'apprentissage auto-supervisé se comportent en réalité de la même manière « en interne » malgré l'utilisation de fonctions de perte complètement différentes. Les deux atteignent généralement les mêmes performances. Plus précisément, pour chacun, on peut combiner les k premières couches d'un modèle de profondeur d formé avec auto-supervision avec les d-k dernières couches du modèle supervisé avec peu de perte de performances.

Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?

Tableau pour papier SimCLR v2. Veuillez noter la similitude générale des performances entre l'apprentissage supervisé, affiné (100%) auto-supervisé et auto-supervisé + détection linéaire (Source : https://arxiv.org/abs/2006.10029)

Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?

Spliced ​​​​à partir du modèle supervisé et du modèle supervisé de Bansal et al. Gauche : Si la précision du modèle auto-supervisé est (disons) 3 % inférieure à celle du modèle supervisé, alors une représentation entièrement compatible entraînera une pénalité d'épissage de p 3 % lorsque p parties de la couche proviennent du modèle auto-supervisé. modèle. Si les modèles sont complètement incompatibles, nous nous attendons à ce que la précision diminue considérablement à mesure que davantage de modèles sont fusionnés. À droite : résultats réels combinant différents modèles auto-supervisés.

L'avantage des modèles simples et auto-supervisés est qu'ils peuvent combiner l'apprentissage de fonctionnalités ou la « magie de l'apprentissage profond » (effectué par une fonction de représentation profonde) avec l'ajustement de modèle statistique (effectué par un classificateur linéaire ou autre « simple » au-dessus de cette représentation) séparation.

Enfin, bien qu'il s'agisse davantage d'une spéculation, le fait est que le « méta-apprentissage » semble souvent assimilé aux représentations d'apprentissage (voir : https://arxiv.org/abs/1909.09157, https://arxiv. org/abs /2206.03271), ce qui peut être considéré comme une autre preuve que cela se fait en grande partie quels que soient les objectifs de l'optimisation du modèle.

4.2 Que faire en cas de surparamétrage ?

Cet article ignore ce qui est considéré comme des exemples classiques de différences entre les modèles d'apprentissage statistique et l'apprentissage profond dans la pratique : l'absence de « compromis biais-variance » et la capacité des modèles surparamétrés à bien généraliser.

Pourquoi sauter ? Il y a deux raisons :

  • Tout d’abord, si l’apprentissage supervisé est effectivement égal à l’apprentissage auto-supervisé + simple, alors cela peut expliquer sa capacité de généralisation.
  • Deuxièmement, la sur-paramétrisation n'est pas la clé du succès du deep learning. Ce qui rend les réseaux profonds spéciaux, ce n’est pas qu’ils soient grands par rapport au nombre d’échantillons, mais qu’ils soient grands en termes absolus. En fait, généralement dans l’apprentissage non supervisé/auto-supervisé, le modèle n’est pas surparamétré. Même pour les très grands modèles de langage, leurs ensembles de données sont plus volumineux.

Apprendre = s'adapter ? Le deep learning et les statistiques classiques sont-ils la même chose ?

L'article "deep bootstrap" de Nakkiran-Neyshabur-Sadghi montre que les architectures modernes se comportent de la même manière dans le régime "surparamétré" ou "sous-échantillonné" (le modèle est formé sur des données limitées pendant de nombreuses époques jusqu'à ce qu'il surajustements : "Monde réel" dans la figure ci-dessus), il en va de même dans l'état "sous-paramétré" ou "en ligne" (le modèle est entraîné pour une seule époque, et chaque échantillon n'est visualisé qu'une seule fois : "Monde idéal" dans la figure ci-dessus). Source de l'image : https://arxiv.org/abs/2010.08127

Summary

L'apprentissage statistique joue certainement un rôle dans l'apprentissage profond. Cependant, malgré l’utilisation d’une terminologie et d’un code similaires, considérer l’apprentissage profond comme un simple ajustement d’un modèle avec plus de paramètres qu’un modèle classique passe à côté de nombreux éléments essentiels à son succès. La métaphore pour enseigner les mathématiques aux élèves n’est pas non plus parfaite.

Comme l'évolution biologique, bien que l'apprentissage profond contienne de nombreuses règles réutilisées (comme la descente de gradient avec perte d'expérience), il peut produire des résultats très complexes. Il semble qu'à différents moments, différents composants du réseau apprennent différentes choses, notamment l'apprentissage des représentations, l'ajustement prédictif, la régularisation implicite et le bruit pur. Les chercheurs sont toujours à la recherche du bon angle pour poser des questions sur l’apprentissage profond, et encore moins pour y répondre.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal