Maison > Périphériques technologiques > IA > Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable

Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable

WBOY
Libérer: 2023-04-15 11:07:02
avant
1060 Les gens l'ont consulté

Cet article « Inférence contrefactuelle rapide pour l'apprentissage par renforcement basé sur l'histoire » propose un algorithme d'inférence causale rapide, qui réduit considérablement la complexité informatique de l'inférence causale - à un niveau qui peut être combiné avec l'apprentissage par renforcement en ligne.

​La contribution théorique de cet article comporte principalement deux points :

​1. Proposition du concept d'effet causal moyenné dans le temps.

2. Extension du fameux critère de porte dérobée de l'estimation univariée de l'effet d'intervention ; L’estimation multivariée de l’effet de l’intervention est appelée critère de porte dérobée.

Contexte

Nécessite la préparation de connaissances de base sur l'apprentissage par renforcement partiellement observable et l'inférence causale. Je n'en présenterai pas trop ici, mais voici quelques portails :

Apprentissage par renforcement partiellement observable :

Explication POMDP https://www.zhihu.com/zvideo/1326278888684187648

Raisonnement causal :

Raisonnement causal dans les réseaux de neurones profonds https://zhuanlan.zhihu.com/p/425331915

Motivation

Extraire/encoder des caractéristiques à partir d'informations historiques est un moyen de base pour résoudre l'apprentissage par renforcement partiellement observable. La méthode courante consiste à utiliser le modèle séquence à séquence (seq2seq) pour coder l'historique. Par exemple, les méthodes d'apprentissage par renforcement LSTM/GRU/NTM/Transformer populaires dans le domaine entrent dans cette catégorie. Le point commun de ce type de méthode est que l’histoire est codée sur la base de la corrélation entre les informations historiques et les signaux d’apprentissage (récompenses environnementales), c’est-à-dire que plus la corrélation d’une information historique est grande, plus le poids attribué est élevé.

Cependant, ces méthodes

ne peuvent pas éliminer les corrélations confusionnelles causées par l'échantillonnage. Prenons un exemple de récupération d'une clé pour ouvrir la porte, comme le montre la figure ci-dessous :

Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable

Ici, la question de savoir si l'agent peut ouvrir la porte dépend uniquement du fait que la clé a été obtenue dans l'historique, et le fait-elle ne dépend pas d’autres États dans l’histoire. Cependant, si la stratégie d’échantillonnage de l’agent privilégie certains chemins, elle conduira à une forte corrélation entre les états sur ces chemins préférés. Par exemple, une fois que l'agent a obtenu la clé, il aura tendance à emprunter le chemin supérieur pour ouvrir la porte au lieu d'emprunter le chemin inférieur pour ouvrir la porte, ce qui rendra l'ouverture de la porte fortement corrélée à la télévision. Ce type d’état non causal mais très pertinent se verra attribuer un poids relativement élevé par seq2seq, rendant les informations historiques codées très redondantes. Dans cet exemple, lorsque nous estimons la corrélation entre le téléviseur et l’ouverture de la porte, il existe une forte corrélation entre les deux en raison de la présence de la clé. Pour estimer le véritable effet de l'ouverture d'une porte de téléviseur, nous devons

supprimer cette corrélation confusionnelle.

Cette corrélation confusionnelle peut être supprimée par le do-calcul dans l'inférence causale[1] :

Séparez les variables de porte dérobée potentiellement déroutantesclé et balle, séparant ainsi la variable de porte dérobée (clé/boule) et TV Corrélation statistique entre les machines , puis intégrer la probabilité conditionnelle de p(Open| , key/ball) par rapport à la variable de porte dérobée (key/ball) (image de droite de la figure 1), et obtenir l'effet réel p(Open |do( ))=0,5. Étant donné que les états historiques ayant des effets causals sont relativement rares, lorsque nous supprimons les corrélations confusionnelles, l’échelle des états historiques peut être considérablement réduite. Par conséquent, nous espérons utiliser l'inférence causale pour supprimer les corrélations confusionnelles dans les échantillons historiques, puis utiliser seq2seq pour coder l'histoire afin d'obtenir une représentation historique plus compacte. (Motivation pour cet article)

[1] Remarque : ce qui est considéré ici est un calcul ajusté à l'aide de la porte dérobée et un lien scientifique populaire https://blog.csdn.net/qq_31063727/article/details /118672598

Difficulté

Réaliser une inférence causale dans des séquences historiques est différent des problèmes généraux d'inférence causale. Les variables de la séquence historique ont à la fois des dimensions temporelles et spatiales , c'est-à-dire une combinaison observation-temps Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable, où o est l'observation et t est l'horodatage (en comparaison, MDP est très convivial et l'état de Markov uniquement a une dimension spatiale). Le chevauchement des deux dimensions rend l'échelle des observations historiques assez grande - en utilisant Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable pour représenter le nombre de valeurs d'observation à chaque horodatage, et en utilisant T pour représenter la durée totale, les valeurs de l'historique state sont Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable espèces (où le corps régulier O( ) est le symbole de complexité). [2]

Les méthodes d'inférence causale précédentes sont basées sur la détection d'intervention univariée, qui ne peut traiter qu'une seule variable à la fois. Effectuer un raisonnement causal sur un état historique à grande échelle entraînera une complexité temporelle extrêmement élevée, ce qui rendra difficile la combinaison avec des algorithmes RL en ligne.

[2] Remarque : La définition formelle de l'effet causal d'une intervention univariée est la suivante

Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable

Comme le montre la figure ci-dessus, étant donné l'historique

, il est nécessaire d'estimer pour la variable de transfert Pour obtenir l'effet causal de , effectuez les deux étapes suivantes : 1) Intervenir dans l'état historique faites , 2) Utiliser l'état historique précédent comme variable de porte dérobée , comme variable de réponse, et calculez l'intégrale suivante L'effet causal requis

Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable

Comme il est difficile de combiner la détection d'intervention univariée avec le RL en ligne, il est nécessaire de développer une méthode de détection d'intervention multivariée.

Idée

L'observation (hypothèse) principale de cet article est que

les états causals sont rares dans la dimension spatiale. Cette observation est naturelle et courante. Par exemple, lorsque vous ouvrez une porte avec une clé, de nombreux états seront observés au cours du processus, mais la valeur d'observation de la clé détermine si la porte peut être ouverte. proportion de toutes les valeurs d’observation. Profitant de cette rareté, nous pouvons filtrer simultanément un grand nombre d’états historiques sans effets causals grâce à une intervention multivariable. Mais les effets causals ne sont pas rares dans la dimension temporelle C'est aussi une clé pour ouvrir la porte. La clé peut être observée par l'agent la plupart du temps. La densité des effets causals dans la dimension temporelle nous empêche de mener des interventions multivariées : il est impossible de supprimer d’un seul coup un grand nombre d’états historiques sans effets causals.

Sur la base des deux observations ci-dessus, notre idée principale est de

d'abord faire des inférences dans la dimension spatiale, puis de faire des inférences dans la dimension temporelle. Utiliser la parcimonie dans la dimension spatiale pour réduire considérablement le nombre d'interventions. Afin d'estimer séparément l'effet causal spatial, nous proposons d'obtenir d'abord l'effet causal moyen dans le temps, qui consiste à faire la moyenne des effets causals de plusieurs états historiques au fil du temps (voir le texte original pour les définitions spécifiques).

Sur la base de cette idée, nous nous concentrons sur le problème : le problème principal à résoudre est comment calculerl'effet causal conjoint d'une intervention sur plusieurs pas de temps différentsPrésenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observableavec la même variable (notée ). En effet, le critère de la porte dérobée ne s'applique pas ​​à l'intervention conjointe de plusieurs variables historiques : Comme le montre la figure ci-dessous, en considérant l'intervention conjointe des variables doubles Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable et Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable, vous pouvez voir cette partie de Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable au pas de temps ultérieur La variable de porte dérobée contient Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable, et il n'y a pas de variable de porte dérobée commune entre les deux.

Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable

Méthode

Nous améliorons le critère de la porte dérobée et proposons un critère adapté à l'estimation des estimations de l'effet d'une intervention conjointe multivariable. Pour deux variables intervenues Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable et Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable (i

critère d'ajustement pas à pas (formule d'ajustement pas à pas)

Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable

Ce critère sépare les autres variables entre les variables de deux pas de temps adjacents, qui sont appelées variables de porte dérobée pas à pas. Dans un diagramme causal qui satisfait à ce critère, nous pouvons estimer l’effet causal conjoint de deux variables intervenantes. Il comprend deux étapes : étape 1. Utilisez la variable plus petite que i au pas de temps comme variable de porte dérobée pour estimer l'effet causal de doPrésenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable étape 2. Utilisez la variable de porte dérobée déterminée Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable et la déterminée ; Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable comme conditions, en prenant les variables entre Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable et Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable comme nouvelles variables de porte dérobée concernant Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable (c'est-à-dire en faisant passer les variables de porte dérobée concernant Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable et Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable), estimez la causalité conditionnelle de doPrésenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable Effet . L’effet causal conjoint est alors le produit intégral de ces deux parties. Le critère de porte dérobée pas à pas utilise deux étapes du critère de porte dérobée ordinaire, comme le montre la figure ci-dessous

Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable

La formule ci-dessus utilise un indicateur variable plus général X.

Pour le cas de plus de trois variables, en utilisant continuellement le critère de porte dérobée - en traitant les variables entre les variables intermédiaires adjacentes à chaque pas de temps comme des variables de porte dérobée et en calculant continuellement la formule ci-dessus, nous pouvons obtenir le joint L'effet causal de l'intervention multivariable Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable est le suivant :

Théorème 1. Étant donné un ensemble de variables intervenues avec des horodatages différents, si toutes les deux variables temporellement adjacentes répondent à la formule d'ajustement par porte dérobée, alors l'effet causal global peut être estimé avec

Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable

Spécifiquement pour le problème d'apprentissage par renforcement partiellement observable, après avoir remplacé x dans la formule ci-dessus par l'observation o, il existe la formule de calcul de l'effet causal suivante :

Théorème 2. Étant donné Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observableet Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable, l'effet causal de Do (o) peut être estimé par

Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable

À ce stade, l'article donne une formule pour calculer les effets causals spatiaux (c'est-à-dire les effets causals moyennés dans le temps). Cette méthode réduit le nombre d'interventions de O (). Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable) à O (Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable). La prochaine étape consiste à tirer parti de la rareté des effets causals spatiaux (mentionnés au début de ce chapitre) pour réduire davantage le nombre d’interventions de manière exponentielle. Remplacer l'intervention sur une observation par l'intervention sur un sous-espace d'observation - c'est une idée courante pour profiter de la parcimonie pour accélérer les calculs (voir l'article original). Dans cet article, un algorithme d'inférence contrefactuelle rapide appelé Inférence contrefactuelle historique basée sur une arborescence (T-HCI) est développé, qui ne sera pas décrit en détail ici (voir le texte original pour plus de détails). En fait, de nombreux algorithmes d’inférence causale historique peuvent être développés sur la base du critère de la porte dérobée, et le T-HCI n’est que l’un d’entre eux. Le résultat final est la proposition 3 (IC grossier à fin). SiPrésenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable, le nombre d'interventions pour l'IC grossier à fin est dePrésenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable).

Le diagramme de structure de l'algorithme est le suivant

Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable

L'algorithme contient deux boucles, l'une est la boucle T-HCI et l'autre est la boucle d'apprentissage de la politique. Les deux sont échangées : dans la politique. boucle d'apprentissage, l'agent est échantillonné. Apprenez un certain nombre de tours et stockez les échantillons dans le pool de relecture dans la boucle T-HCI, utilisez les échantillons stockés pour effectuer le processus d'inférence causale mentionné ci-dessus ;

Limitations : Le raisonnement causal dans la dimension spatiale a déjà suffisamment compressé l'échelle historique. Bien que l'inférence causale dans la dimension temporelle puisse comprimer davantage l'échelle historique, étant donné que la complexité informatique doit être équilibrée, cet article conserve l'inférence de corrélation dans la dimension temporelle (en utilisant le LSTM de bout en bout sur les états historiques avec des effets causals spatiaux) et n'utilise pas le raisonnement causal.

Vérification

Trois points vérifiés expérimentalement, répondant aux affirmations précédentes : 1) Le T-HCI peut-il améliorer l'efficacité des échantillons des méthodes RL 2) La surcharge de calcul du T-HCI est-elle acceptable en pratique ? -Observations de mines HCI avec effets causals ? Veuillez consulter le chapitre expérimental de l'article pour plus de détails, donc je ne prendrai pas de place ici. Bien entendu, les amis intéressés peuvent également m'envoyer un message/commentaire privé.

Présenté pour la première fois ! Utiliser l'inférence causale pour effectuer un apprentissage par renforcement partiellement observable

Orientations pour une expansion future

Deux points pour démarrer la discussion :

1. L'HCI ne se limite pas au type d'apprentissage par renforcement. Bien que cet article étudie le RL en ligne, le HCI peut également être naturellement étendu au RL hors ligne, au RL basé sur un modèle, etc., et vous pouvez même envisager d'appliquer le HCI à l'apprentissage par imitation

2. méthode d'attention - les points de séquence avec effet causal reçoivent un poids d'attention 1, sinon ils reçoivent un poids d'attention 0. De ce point de vue, certains problèmes de prédiction de séquence peuvent également tenter d’être traités à l’aide de HCI.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal