Heim > Backend-Entwicklung > Python-Tutorial > Python-Entwicklung MapReduce-Serie WordCount-Demo

Python-Entwicklung MapReduce-Serie WordCount-Demo

ringa_lee
Freigeben: 2017-09-17 09:28:38
Original
1774 Leute haben es durchsucht

Wir wissen, dass MapReduce der Kern des Elefanten Hadoop ist. In Hadoop ist der Kern der Datenverarbeitung das MapReduce-Programmiermodell. Ein Map/Reduce teilt den Eingabedatensatz in der Regel in mehrere unabhängige Datenblöcke auf, die von Map-Aufgaben (Aufgabe) vollständig parallel verarbeitet werden. Das Framework sortiert zunächst die Ausgabe der Karte und gibt die Ergebnisse dann in die Reduzierungsaufgabe ein. Normalerweise werden die Eingabe und Ausgabe eines Jobs im Dateisystem gespeichert. Daher besteht unser Programmierzentrum hauptsächlich aus der Mapper-Stufe und der Reducer-Stufe.

Lassen Sie uns ein MapReduce-Programm von Grund auf entwickeln und es auf einem Hadoop-Cluster ausführen.
Mapper-Code map.py:

 import sys    
    for line in sys.stdin:
        word_list = line.strip().split(' ')    
        for word in word_list:            print '\t'.join([word.strip(), str(1)])
Nach dem Login kopieren


Code anzeigen

Reduzierercode Reduce.py:

 import sys
    
    cur_word = None
    sum = 0    
    for line in sys.stdin:
        ss = line.strip().split('\t')        
        if len(ss) < 2:            continue
    
        word = ss[0].strip()
        count = ss[1].strip()    
        if cur_word == None:
            cur_word = word    
        if cur_word != word:            print &#39;\t&#39;.join([cur_word, str(sum)])
            cur_word = word
            sum = 0
        
        sum += int(count)    
    print &#39;\t&#39;.join([cur_word, str(sum)])
    sum = 0
Nach dem Login kopieren


Code anzeigen

Ressourcendatei src.txt (denken Sie zum Testen daran, bei der Ausführung im Cluster auf HDFS hochzuladen):

hello    
    ni hao ni haoni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao ao ni haoni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao ni haoao ni haoni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao ni hao
    Dad would get out his mandolin and play for the family
    Dad loved to play the mandolin for his family he knew we enjoyed singing
    I had to mature into a man and have children of my own before I realized how much he had sacrificed
    I had to,mature into a man and,have children of my own before.I realized how much he had sacrificed
Nach dem Login kopieren

Code anzeigen

Debuggen Sie zunächst lokal, um zu sehen, ob das Ergebnis korrekt ist. Geben Sie den folgenden Befehl ein:

cat src.txt | python map.py | sort -k 1 | python reduce.py
Nach dem Login kopieren

Ausgabe in Ergebnis der Befehlszeile:

a    2
    and    2
    and,have    1
    ao    1
    before    1
    before.I    1
    children    2
    Dad    2
    enjoyed    1
    family    2
    for    2
    get    1
    had    4
    hao    33
    haoao    1
    haoni    3
    have    1
    he    3
    hello    1
    his    2
    how    2
    I    3
    into    2
    knew    1
    loved    1
    man    2
    mandolin    2
    mature    1
    much    2
    my    2
    ni    34
    of    2
    out    1
    own    2
    play    2
    realized    2
    sacrificed    2
    singing    1
    the    2
    to    2
    to,mature    1
    we    1
    would    1
Nach dem Login kopieren

Code anzeigen

Lokales Debuggen wurde durch Debuggen gefunden und der Code ist in Ordnung. Wirf es auf den Cluster und renne. Der Einfachheit halber habe ich ein spezielles Skript run.sh geschrieben, um die Arbeitskräfte zu befreien.

HADOOP_CMD="/home/hadoop/hadoop/bin/hadoop"
    STREAM_JAR_PATH="/home/hadoop/hadoop/contrib/streaming/hadoop-streaming-1.2.1.jar"
    
    INPUT_FILE_PATH="/home/input/src.txt"
    OUTPUT_PATH="/home/output"
    
    $HADOOP_CMD fs -rmr  $OUTPUT_PATH 
    
    $HADOOP_CMD jar $STREAM_JAR_PATH \        -input $INPUT_FILE_PATH \        -output $OUTPUT_PATH \        
    -mapper "python map.py" \        -reducer "python reduce.py" \        -file ./map.py \        -file ./reduce.py
Nach dem Login kopieren

Lassen Sie uns das folgende Skript analysieren:

 HADOOP_CMD: hadoop的bin的路径
    STREAM_JAR_PATH:streaming jar包的路径
    INPUT_FILE_PATH:hadoop集群上的资源输入路径
    OUTPUT_PATH:hadoop集群上的结果输出路径。(注意:这个目录不应该存在的,因此在脚本加了先删除这个目录。**注意****注意****注意**:若是第一次执行,没有这个目录,会报错的。可以先手动新建一个新的output目录。)
    $HADOOP_CMD fs -rmr  $OUTPUT_PATH
    
    $HADOOP_CMD jar $STREAM_JAR_PATH \        -input $INPUT_FILE_PATH \        -output $OUTPUT_PATH \       
     -mapper "python map.py" \        -reducer "python reduce.py" \       
      -file ./map.py \        -file ./reduce.py                 
      #这里固定格式,指定输入,输出的路径;指定mapper,reducer的文件;
      #并分发mapper,reducer角色的我们用户写的代码文件,因为集群其他的节点还没有mapper、reducer的可执行文件。
Nach dem Login kopieren


Geben Sie den folgenden Befehl ein, um die Ausgabedatensätze nach der Reduzierungsphase anzuzeigen:

cat src.txt | python map.py | sort -k 1 | python reduce.py | wc -l
命令行中输出:43
Nach dem Login kopieren

Geben Sie „master:50030“ in den Browser ein, um die Details der Aufgabe anzuzeigen.

Kind    % Complete    Num Tasks    Pending    Running    Complete    Killed     Failed/Killed Task Attempts
map       100.00%        2            0        0        2            0            0 / 0
reduce    100.00%        1            0        0        1            0            0 / 0
Nach dem Login kopieren

Sehen Sie sich dies im Map-Reduce Framework an.

Counter                      Map    Reduce    Total
Reduce output records    0      0          43
Nach dem Login kopieren


Nachweis, dass der gesamte Prozess erfolgreich war. Die Entwicklung des ersten Hadoop-Programms ist abgeschlossen.

Das obige ist der detaillierte Inhalt vonPython-Entwicklung MapReduce-Serie WordCount-Demo. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:php.cn
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage