So implementieren Sie Softmax-Backpropagation in Python.

WBOY
Freigeben: 2023-05-09 08:05:53
nach vorne
1216 Leute haben es durchsucht

Backpropagation-Ableitung

Wie Sie sehen können, berechnet Softmax die Eingaben mehrerer Neuronen. Bei der Backpropagation-Ableitung müssen Sie die Ableitung der Parameter verschiedener Neuronen berücksichtigen.

Betrachten Sie zwei Situationen:

  • Wenn der Parameter für die Differenzierung im Zähler liegt.

  • Wenn der Parameter für die Differenzierung im Nenner liegt.

So implementieren Sie Softmax-Backpropagation in Python.

Wenn der Parameter für die Differenzierung im Nenner liegt Zähler:

Wenn der Ableitungsparameter im Nenner befindet (eSo implementieren Sie Softmax-Backpropagation in Python.z2

oder e

z3 sind symmetrisch, das Ableitungsergebnis ist das gleiche):

So implementieren Sie Softmax-Backpropagation in Python.

CodeSo implementieren Sie Softmax-Backpropagation in Python.

import torch
import math

def my_softmax(features):
    _sum = 0
    for i in features:
        _sum += math.e ** i
    return torch.Tensor([ math.e ** i / _sum for i in features ])

def my_softmax_grad(outputs):    
    n = len(outputs)
    grad = []
    for i in range(n):
        temp = []
        for j in range(n):
            if i == j:
                temp.append(outputs[i] * (1- outputs[i]))
            else:
                temp.append(-outputs[j] * outputs[i])
        grad.append(torch.Tensor(temp))
    return grad

if __name__ == '__main__':

    features = torch.randn(10)
    features.requires_grad_()

    torch_softmax = torch.nn.functional.softmax
    p1 = torch_softmax(features,dim=0)
    p2 = my_softmax(features)
    print(torch.allclose(p1,p2))
    
    n = len(p1)
    p2_grad = my_softmax_grad(p2)
    for i in range(n):
        p1_grad = torch.autograd.grad(p1[i],features, retain_graph=True)
        print(torch.allclose(p1_grad[0], p2_grad[i]))
Nach dem Login kopieren

Das obige ist der detaillierte Inhalt vonSo implementieren Sie Softmax-Backpropagation in Python.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:yisu.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage