> 백엔드 개발 > 파이썬 튜토리얼 > Python과 NumPy를 사용하여 신경망을 위한 간단하고 효율적인 유전 알고리즘 만들기

Python과 NumPy를 사용하여 신경망을 위한 간단하고 효율적인 유전 알고리즘 만들기

Susan Sarandon
풀어 주다: 2024-12-13 00:50:10
원래의
788명이 탐색했습니다.

Creating a simple and efficient genetic algorithm for a neural network with Python and NumPy

ML의 진화 알고리즘에 대한 강좌의 첫 번째 기사입니다.

신경망의 매개변수를 알고 있지만 출력이 무엇인지 모르는 경우 유전 알고리즘이 필요합니다. 예를 들어 이 알고리즘은 Google Dinosaur 또는 Flappy Bird를 플레이하는 데 사용할 수 있습니다. 출력은 어떻게 되어야 하지만 가장 실행 가능한 옵션을 예를 들어 시간별로 정렬할 수 있는 기능이 있는데 이를 피트니스 기능이라고 합니다.

작동하고 간단하며 사용 가능한 알고리즘을 찾지 못했기 때문에 나만의 가볍고 간단하며 완벽하게 작동하는 유전자 알고리즘을 만들기 시작했습니다.

제 목표는 이 글의 내용을 질질 끌고 독자들을 괴롭히는 것이 아니므로 바로 코드로 들어가겠습니다. 이미 언급했듯이 코드는 간단하기 때문에 전체 에세이에서 설명할 필요가 없는 경우가 대부분입니다.

먼저 모듈을 가져와야 합니다.

import numpy as np
import random
로그인 후 복사
로그인 후 복사
로그인 후 복사

그런 다음 데이터세트와 이에 대한 답변을 추가합니다. 단, 역전파 알고리즘을 사용하는 것이 아니라 단순히 정답 수를 계산하기 위한 것입니다. 그런 다음 현재 주석 처리된 다른 변형에서 테스트할 수 있습니다

x = np.array([[1, 1, 0], [0, 0, 1], [1, 0, 1], [0, 0, 0], [1, 0, 0], [0, 1, 0], [1, 1, 0], [0, 1, 1], [1, 1, 1]])
y = np.array([[0],[1],[1], [0], [0], [0], [0], [1], [1]])

#x = np.array([[0, 1, 1], [0, 0, 1], [1, 0, 1], [0, 1, 0], [1, 0, 0], [1, 1, 0], [0, 0, 0], [1, 1, 0], [1, 1, 1]])
#y = np.array([[1],[0], [0], [1], [0], [1], [0], [1], [1]])

#x = np.array([[1, 1, 0], [0, 0, 1], [1, 0, 1], [0, 1, 0], [1, 0, 0], [0, 0, 0], [1, 1, 0], [0, 1, 1], [1, 1, 1]])
#y = np.array([[1],[0],[1], [0], [1], [0], [1], [0], [1]])

로그인 후 복사
로그인 후 복사

목록 및 활성화 기능을 추가하세요. 목록의 의미는 나중에 명확해질 것입니다. 첫 번째 활성화 함수는 시그모이드이고 두 번째는 임계값입니다.

listNet = []
NewNet = []
goodNET = []
GoodNet0 = []
GoodNet1 = []
GoodNet2 = []
GoodNet3 = []
GoodNet4 = []
GoodNet5 = []
GoodNet6 = []
good = 0
epoch = 0

good = 0
epoch = 0

def sigmoid(x):
    return 1/(1 + np.exp(-x)) 
def finfunc(x):
    if x[0] >= 0.5:
        x[0] = 1
        return x[0]

    else:
        x[0] = 0
        return x[0]
로그인 후 복사
로그인 후 복사

다음으로 두 개의 클래스를 생성해야 합니다. 첫 번째 클래스는 초기 모집단을 생성하는 데 필요하고, 두 번째 클래스는 모든 후속 클래스에 필요합니다. 처음에는 무작위로 가중치를 생성한 다음 교차만 해야 하기 때문입니다. 그들을 돌연변이시키세요. init() 함수는 가중치를 생성하거나 추가하는 데 사용되며, 예측()은 알고리즘 자체와 최상의 옵션 계산에 필요하며, Fredict() 함수는 답을 반환하고 숫자를 표시하는 피트니스 함수라는 점에서 다릅니다. 화면에서 훈련 단계를 확인하세요. 출력 레이어에서는 먼저 시그모이드 함수를 사용하여 답을 옵션 중 하나에 더 가깝게 만든 다음 임계값 함수를 사용합니다.

class Network():
    def __init__(self):
        self.H1 = np.random.randn(3, 6)
        self.O1 = np.random.randn(6, 1)

    def predict(self, x, y):
        t1 = x @ self.H1
        t1 = sigmoid(t1)
        t2 = t1 @ self.O1
        t2 = sigmoid(t2)
        t2 = finfunc(t2)
        if t2 == y[0]:
            global good
            good += 1

    def Fpredict(self, x, y):
        t1 = x @ self.H1
        t1 = sigmoid(t1)
        t2 = t1 @ self.O1
        t2 = sigmoid(t2)
        t2 = finfunc(t2)
        if t2 == y[0]:
            global good
            good += 1
        return t2, good
class Network1():
    def __init__(self, H1, O1):
        self.H1 = H1
        self.O1 = O1


    def predict(self, x, y):
        t1 = x @ self.H1
        t1 = sigmoid(t1)
        t2 = t1 @ self.O1
        t2 = sigmoid(t2)
        t2 = finfunc(t2)
        if t2 == y[0]:
            global good
            good += 1
    def Fpredict(self, x, y):
        t1 = x @ self.H1
        t1 = sigmoid(t1)
        t2 = t1 @ self.O1
        t2 = sigmoid(t2)
        t2 = finfunc(t2)
        if t2 == y[0]:
            global good
            good += 1
        return t2, good
로그인 후 복사

여기서 첫 번째 답변과 피트니스 함수인 변수 good을 출력한 다음 다음 신경망을 위해 재설정합니다. 'wait0'(여기에 원하는 대로 작성할 수 있음) 인쇄가 필요합니다. 다양한 신경망의 답이 어디서 시작되는지 혼란스러워하세요.

import numpy as np
import random
로그인 후 복사
로그인 후 복사
로그인 후 복사

첫 번째 주기가 지나면 여기와 모든 후속 주기에서 충족되지 않은 작업에 얼마나 잘 대처할 수 있는지 확인하기 위해 6개의 질문만 제공합니다. 즉, 벼락치기 여부를 확인하는 경우가 있습니다. 이제 더 자세히 살펴보겠습니다. 정답 수에 따라 이를 클래스 중 하나에 할당하고, 많은 수가 정답이면 이러한 신경망을 지원하고 그 수를 늘려야 합니다. 후속 돌연변이에는 더 똑똑한 돌연변이가 있을 것입니다. 이를 이해하려면 100명의 천재가 한 명 있다고 상상할 수 있지만 모든 사람에게는 충분하지 않으며 이는 그의 천재가 다음 세대에서 사라질 것임을 의미합니다. 신경망은 매우 느리게 학습하거나 전혀 존재하지 않는 경우, 이를 방지하기 위해 주기에서 정답 수가 많은 신경망의 수를 늘립니다. 마지막으로 기본 listNet 목록을 비우고 GoodNet 목록의 새 값을 최고부터 최악까지 순서대로 할당하고 후속 돌연변이를 위해 최고의 개인 100명을 잘라냅니다.

x = np.array([[1, 1, 0], [0, 0, 1], [1, 0, 1], [0, 0, 0], [1, 0, 0], [0, 1, 0], [1, 1, 0], [0, 1, 1], [1, 1, 1]])
y = np.array([[0],[1],[1], [0], [0], [0], [0], [1], [1]])

#x = np.array([[0, 1, 1], [0, 0, 1], [1, 0, 1], [0, 1, 0], [1, 0, 0], [1, 1, 0], [0, 0, 0], [1, 1, 0], [1, 1, 1]])
#y = np.array([[1],[0], [0], [1], [0], [1], [0], [1], [1]])

#x = np.array([[1, 1, 0], [0, 0, 1], [1, 0, 1], [0, 1, 0], [1, 0, 0], [0, 0, 0], [1, 1, 0], [0, 1, 1], [1, 1, 1]])
#y = np.array([[1],[0],[1], [0], [1], [0], [1], [0], [1]])

로그인 후 복사
로그인 후 복사

교배 및 돌연변이 자체: 첫 번째 부모에서 한 부분을 취하고 두 번째 부모에서 두 번째 부분을 가져와서 돌연변이를 일으키면 NewNet 목록에 자식이 생기므로 1000번이 됩니다.

listNet = []
NewNet = []
goodNET = []
GoodNet0 = []
GoodNet1 = []
GoodNet2 = []
GoodNet3 = []
GoodNet4 = []
GoodNet5 = []
GoodNet6 = []
good = 0
epoch = 0

good = 0
epoch = 0

def sigmoid(x):
    return 1/(1 + np.exp(-x)) 
def finfunc(x):
    if x[0] >= 0.5:
        x[0] = 1
        return x[0]

    else:
        x[0] = 0
        return x[0]
로그인 후 복사
로그인 후 복사

코드의 이전 부분부터 Network1()을 사용합니다. 이제 교차 및 변경이 이루어지지만 무작위로 생성되지는 않기 때문입니다. 따라서 1000번 반복해야 합니다(이것은 하이퍼 매개변수이므로 Epoch 수를 직접 선택할 수 있습니다. 15번이면 충분했습니다). 첫 번째 Epoch에 답을 표시하고 1000번째가 최종 버전입니다(있는 경우, 예를 들어 20을 입력한 다음 20을 지정합니다.) 여기서는 코드가 반복되므로 설명하지 않겠습니다. 모든 것이 매우 명확합니다.

import numpy as np
import random
로그인 후 복사
로그인 후 복사
로그인 후 복사

그게 다입니다. 신경망이 찾아야 할 패턴은 최종 버전이 어떤 숫자(첫 번째, 두 번째, 세 번째)에 의존하고 나머지는 무시합니다. 예를 들어 논리 연산(XOR, NOT, AND ...)을 수행할 수 있습니다. 이 경우에만 네트워크 클래스에서 입력 데이터를 2만큼 변경합니다. 또한 숨겨진 레이어의 뉴런이 입력과 동일하다는 규칙을 따랐습니다. 데이터에 2를 곱하면 효과가 있었지만 원하는 옵션을 시도해 볼 수 있습니다. 신경망에 동일한 수의 일부 답변과 기타 답변을 제공하여 정답의 수가 예를 들어 "a"가 되도록 하는 것도 매우 중요합니다. 그렇지 않으면 신경망이 모든 답변에 응답합니다. 같은 방식으로, 즉, a가 더 많으면 모든 것에 대해 a에 응답하고 아무것도 나오지 않을 것입니다. 또한 패턴을 이해할 수 있도록 훈련 샘플에 완전히 다른 옵션을 제공합니다. 예를 들어 다음과 같이 만들면 XOR 블록을 사용하려면 두 개의 옵션을 추가해야 하지만 논리 연산의 경우 옵션이 너무 적고 아무것도 이해하지 못하기 때문에 모든 옵션을 제공해야 합니다.
그게 다야 !!! 다음 기사(필독!): 곧…
코드: https://github.com/LanskoyKirill/GenNumPy.git

내 사이트(재작업 중일 수 있음): selfrobotics.space

위 내용은 Python과 NumPy를 사용하여 신경망을 위한 간단하고 효율적인 유전 알고리즘 만들기의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

원천:dev.to
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
저자별 최신 기사
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿