Heim > Backend-Entwicklung > Python-Tutorial > Grundlegende und häufig verwendete Algorithmen in Python

Grundlegende und häufig verwendete Algorithmen in Python

巴扎黑
Freigeben: 2017-08-02 10:27:41
Original
3385 Leute haben es durchsucht

Dieser Artikel konzentriert sich hauptsächlich auf das Erlernen häufig verwendeter Algorithmen in Python. Interessierte Freunde können sich auf den Inhalt dieses Abschnitts beziehen >

Algorithmusdefinition

ZeitkomplexitätRaumkomplexitätGemeinsame Algorithmusbeispiele




1. Algorithmusdefinition

Algorithmus bezieht sich auf eine genaue und vollständige Beschreibung einer Problemlösung. Es handelt sich um eine Reihe klarer Anweisungen zur Lösung von Problemen, die eine systematische Methode zur Beschreibung des strategischen Mechanismus zur Lösung von Problemen darstellen. Mit anderen Worten: Es ist möglich, für bestimmte standardisierte Inputs innerhalb einer begrenzten Zeit den erforderlichen Output zu erhalten. Wenn ein Algorithmus fehlerhaft oder für ein Problem ungeeignet ist, wird die Ausführung des Algorithmus das Problem nicht lösen. Verschiedene Algorithmen können unterschiedliche Zeit, Raum oder Effizienz nutzen, um dieselbe Aufgabe zu erledigen. Die Qualität eines Algorithmus kann an seiner räumlichen und zeitlichen Komplexität gemessen werden. Ein Algorithmus sollte die folgenden sieben wichtigen Eigenschaften aufweisen:

①Endlichkeit: Die Endlichkeit eines Algorithmus bedeutet, dass der Algorithmus nach der Ausführung einer begrenzten Anzahl von Schritten terminieren kann; 🎜>②Bestimmtheit: Jeder Schritt des Algorithmus muss eine genaue Definition haben.

③Eingabe: Ein Algorithmus hat 0 oder mehr Eingaben zur Beschreibung des Operanden. Die Ausgangssituation, die sogenannte 0-Eingabe, bezieht sich auf die festgelegten Anfangsbedingungen durch den Algorithmus selbst;

④Ausgabe: Ein Algorithmus verfügt über eine oder mehrere Ausgaben, um die Ergebnisse der Verarbeitung der Eingabedaten widerzuspiegeln. Ein Algorithmus ohne Ausgabe ist bedeutungslos.

⑤Effektivität: Jeder im Algorithmus ausgeführte Berechnungsschritt kann in grundlegende ausführbare Operationsschritte zerlegt werden, d. h. jeder Berechnungsschritt kann innerhalb einer begrenzten Zeit abgeschlossen werden (auch als Wirksamkeit bezeichnet). ;

⑥Hohe Effizienz: schnelle Ausführung und geringer Ressourcenverbrauch;

⑦Robustheit (Robustheit): Korrekte Reaktion auf Daten.

2. Zeitkomplexität

In der Informatik ist die Zeitkomplexität eines Algorithmus eine Funktion, die die Funktionsweise des Algorithmus quantitativ beschreibt. Die häufig verwendete Big-O-Notation ist eine mathematische Notation, die zur Beschreibung des asymptotischen Verhaltens einer Funktion verwendet wird. Genauer gesagt handelt es sich um eine Funktion, die anhand einer anderen (normalerweise einfacheren) Funktion beschrieben wird In der Mathematik wird es im Allgemeinen verwendet, um die verbleibenden Terme von abgeschnittenen unendlichen Reihen zu charakterisieren. In der Informatik ist es sehr nützlich, die Komplexität von Algorithmen zu analysieren Komplexität kann als asymptotisch bezeichnet werden, was die Situation berücksichtigt, in der sich die Größe des Eingabewerts der Unendlichkeit nähert.

Großes O, kurz gesagt kann man es sich als „Ordnung von“ (ungefähr) vorstellen.

Unendlich asymptotisch

Die Big-O-Notation ist sehr nützlich bei der Analyse der Effizienz eines Algorithmus. Beispielsweise kann die Zeit, die zum Lösen eines Problems der Größe n benötigt wird (oder die Anzahl der erforderlichen Schritte), ermittelt werden: T(n) = 4n^2 - 2n + 2.

Wenn n zunimmt, wird der Term n^2; In den meisten Fällen ist die Auswirkung des Weglassens auf den Wert des Ausdrucks vernachlässigbar.

Mathematische Darstellungskompetenz Tutorial zum Darstellungskonzept von Python

1. Berechnungsmethode


1 Algorithmus kann nicht theoretisch berechnet werden und kann nur durch Ausführen eines Tests auf dem Computer ermittelt werden. Aber es ist für uns unmöglich und unnötig, jeden Algorithmus auf dem Computer zu testen. Wir müssen nur wissen, welcher Algorithmus mehr Zeit benötigt und welcher weniger Zeit benötigt. Und die Zeit, die ein Algorithmus benötigt, ist proportional zur Anzahl der Ausführungen von Anweisungen im Algorithmus. Je mehr Anweisungen der Algorithmus hat, desto mehr Zeit benötigt er.

Die Anzahl der Anweisungsausführungen in einem Algorithmus wird als Anweisungshäufigkeit oder Zeithäufigkeit bezeichnet. Bezeichnen Sie es als T(n).

2. Im Allgemeinen ist die Häufigkeit, mit der die Grundoperation des Algorithmus wiederholt wird, eine Funktion f(n) des Moduls n. Daher wird die zeitliche Komplexität des Algorithmus aufgezeichnet : T ( n)=O(f(n)). Mit zunehmendem Modul n ist die Wachstumsrate der Algorithmusausführungszeit proportional zur Wachstumsrate von f(n). Je kleiner f(n), desto geringer ist die Zeitkomplexität des Algorithmus und desto höher ist die Effizienz des Algorithmus .

Ermitteln Sie bei der Berechnung der Zeitkomplexität zunächst die Grundoperationen des Algorithmus, bestimmen Sie dann seine Ausführungszeiten basierend auf den entsprechenden Anweisungen und ermitteln Sie dann die gleiche Größenordnung von T(n) (seine gleiche Größenordnung sind). wie folgt: 1 , Log2n, n, nLog2n, n Quadrat, n Würfel, 2 n Potenz, n!), nachdem ich herausgefunden habe, dass f (n) = diese Größenordnung ist, wenn T (n)/f (n) gefunden wird Die Grenze Eine Konstante c kann erhalten werden, und die Zeitkomplexität T(n)=O(f(n)).

3. Häufige Zeitkomplexitäten

sind in aufsteigender Reihenfolge angeordnet:
Konstante Ordnung O(1), Logarithmische Ordnung O( log2n), lineare Ordnung O(n), lineare logarithmische Ordnung O(nlog2n), quadratische Ordnung O(n^2), kubische Ordnung O(n^3),..., k-te Potenzordnung O(n ^k), Exponentielle Ordnung O(2^n).
Unter ihnen

1.O(n), O(n^2), kubische Ordnung O(n^3),..., k-te Ordnung O(n^k) sind Zeitkomplexität polynomialer Ordnung bzw. Zeit erster Ordnung genannt Komplexität, Zeitkomplexität zweiter Ordnung. . . .
2.O(2^n), exponentielle Zeitkomplexität, diese Art ist unpraktisch
3 Logarithmische Ordnung O(log2n), lineare logarithmische Ordnung O(nlog2n), mit Ausnahme der konstanten Ordnung, dies ist die effizienteste

Beispiel: Algorithmus:


 for(i=1;i<=n;++i)
 {
 for(j=1;j<=n;++j)
 {
 c[ i ][ j ]=0; //该步骤属于基本操作 执行次数:n^2
 for(k=1;k<=n;++k)
 c[ i ][ j ]+=a[ i ][ k ]*b[ k ][ j ]; //该步骤属于基本操作 执行次数:n^3
 }
 }
Nach dem Login kopieren

Dann gibt es T(n) = n^2+n^ 3. Gemäß Auf die gleiche Größenordnung in den Klammern oben können wir bestimmen, dass n^3 die gleiche Größenordnung wie T(n) hat
Dann haben wir f(n) = n^3 und finden es dann entsprechend T(n)/f(n) Der Grenzwert kann durch die Konstante c erhalten werden
Dann ist die zeitliche Komplexität des Algorithmus: T(n)=O(n^3)

4. Definition: Wenn ein Problem die Skala n hat und die Zeit, die ein bestimmter Algorithmus zur Lösung dieses Problems benötigt, T(n) ist, wird eine bestimmte Funktion von T(n) als „ bezeichnet. „Zeitkomplexität“ dieses Algorithmus.

Wenn die Eingabemenge n allmählich zunimmt, wird der Grenzfall der Zeitkomplexität als „asymptotische Zeitkomplexität“ des Algorithmus bezeichnet.

Wir verwenden oft die große O-Notation, um die Zeitkomplexität auszudrücken. Beachten Sie, dass es sich um die Zeitkomplexität eines bestimmten Algorithmus handelt. Big O bedeutet, dass es per Definition eine Obergrenze gibt, wenn f(n)=O(n), dann gilt f(n)=O(n^2). ein Supremum, aber die Menschen sind es im Allgemeinen gewohnt, beim Ausdrücken das erstere auszudrücken.

Darüber hinaus hat ein Problem selbst auch seine Komplexität. Wenn die Komplexität eines Algorithmus die untere Grenze der Komplexität des Problems erreicht, wird ein solcher Algorithmus als bester Algorithmus bezeichnet.

„Big O-Notation“: Der in dieser Beschreibung verwendete Grundparameter ist n, die Größe der Probleminstanz, die die Komplexität oder Laufzeit als Funktion von n ausdrückt. Das „O“ stellt hier die Reihenfolge dar. „Binäre Suche ist O(logn)“, was bedeutet, dass „ein Array der Größe n über logn-Schritte abgerufen werden muss“. dass, wenn n zunimmt, die Laufzeit höchstens proportional zu f(n) zunimmt.

Diese asymptotische Schätzung ist für die theoretische Analyse und den groben Vergleich von Algorithmen sehr wertvoll, aber Details können in der Praxis auch zu Unterschieden führen. Beispielsweise kann ein O(n2)-Algorithmus mit geringem Overhead für kleine n schneller laufen als ein O(nlogn)-Algorithmus mit hohem Overhead. Wenn n groß genug wird, müssen Algorithmen mit langsamer ansteigenden Funktionen natürlich schneller arbeiten.

O(1)

Temp=i;i=j;j=temp; Die Häufigkeit von ist alle 1 und die Ausführungszeit davon Das Programmsegment ist eine von der Problemgröße n unabhängige Konstante. Die zeitliche Komplexität des Algorithmus ist konstanter Ordnung und wird als T(n)=O(1) aufgezeichnet. Wenn die Ausführungszeit des Algorithmus mit zunehmender Problemgröße n nicht zunimmt, ist seine Ausführungszeit nur eine große Konstante, selbst wenn der Algorithmus Tausende von Anweisungen enthält. Die zeitliche Komplexität dieses Algorithmustyps beträgt O(1).

O(n^2)

2.1 Tauschen Sie den Inhalt von i und j aus


sum=0; (einmal)
for(i=1;i<=n;i++) (n mal)

for(j=1;j<=n;j++) (n^ 2 mal)

sum++; (n^2 mal)
Lösung: T(n)=2n^2+n+1 =O(n^2)

2.2 🎜 >
für (i=1;i {

y=y+1; ①
für (j=0;j<=(2*n);j++ )

x++; ②

}
Lösung: Die Häufigkeit von Aussage 1 ist n-1
Die Häufigkeit von Aussage 2 ist (n-1)*(2n+1)=2n^2- n -1 f (n) = 2n^2-n-1+(n-) = 2N^2-2
Die zeitliche Komplexität des Programms T (n) = O (n^2).

O(n)


2.3.

a=0;
b=1; ①
for (i=1;i<=n;i++) ②
{
s=a+b;    ③
b=a;     ④
a=s;     ⑤
}
解:语句1的频度:2,
语句2的频度: n,
语句3的频度: n-1,
语句4的频度:n-1,
语句5的频度:n-1,
T(n)=2+n+3(n-1)=4n-1=O(n).
O(log2n )

2.4.

i=1; ①
while (i<=n)
i=i*2; ②
解: 语句1的频度是1,
设语句2的频度是f(n), 则:2^f(n)<=n;f(n)<=log2n
取最大值f(n)= log2n,
T(n)=O(log2n )

O(n^3)

2.5.

for(i=0;i {
for(j=0;j {
for(k=0;k x=x+2;
}
}
解:当i=m, j=k的时候,内层循环的次数为k当i=m时, j 可以取 0,1,...,m-1 , 所以这里最内循环共进行了0+1+...+m-1=(m-1)m/2次所以,i从0取到n, 则循环共进行了: 0+(1-1)*1/2+...+(n-1)n/2=n(n+1)(n-1)/6所以时间复杂度为O(n^3).

我们还应该区分算法的最坏情况的行为和期望行为。如快速排序的最 坏情况运行时间是 O(n^2),但期望时间是 O(nlogn)。通过每次都仔细 地选择基准值,我们有可能把平方情况 (即O(n^2)情况)的概率减小到几乎等于 0。在实际中,精心实现的快速排序一般都能以 (O(nlogn)时间运行。

下面是一些常用的记法:

访问数组中的元素是常数时间操作,或说O(1)操作。一个算法如 果能在每个步骤去掉一半数据元素,如二分检索,通常它就取 O(logn)时间。用strcmp比较两个具有n个字符的串需要O(n)时间。常规的矩阵乘算法是O(n^3),因为算出每个元素都需要将n对 元素相乘并加到一起,所有元素的个数是n^2。

指数时间算法通常来源于需要求出所有可能结果。例如,n个元 素的集合共有2n个子集,所以要求出所有子集的算法将是O(2n)的。指数算法一般说来是太复杂了,除非n的值非常小,因为,在 这个问题中增加一个元素就导致运行时间加倍。不幸的是,确实有许多问题 (如著名的“巡回售货员问题” ),到目前为止找到的算法都是指数的。如果我们真的遇到这种情况,通常应该用寻找近似最佳结果的算法替代之。

常用排序

冒泡排序(Bubble Sort)

冒泡排序(Bubble Sort),是一种计算机科学领域的较简单的排序算法。
它重复地走访过要排序的数列,一次比较两个元素,如果他们的顺序错误就把他们交换过来。走访数列的工作是重复地进行直到没有再需要交换,也就是说该数列已经排序完成。
这个算法的名字由来是因为越大的元素会经由交换慢慢“浮”到数列的顶端,故名。


data_set = [ 9,1,22,31,45,3,6,2,11 ]
 
loop_count = 0
for j in range(len(data_set)):
 for i in range(len(data_set) - j- 1): # -1 是因为每次比对的都 是i 与i +1,不减1的话,最后一次对比会超出list 获取范围,-j是因为,每一次大loop就代表排序好了一个最大值,放在了列表最后面,下次loop就不用再运算已经排序好了的值 了
 if data_set[i] > data_set[i+1]: #switch
 tmp = data_set[i]
 data_set[i] = data_set[i+1]
 data_set[i+1] = tmp
 loop_count +=1
 print(data_set)
print(data_set)
print("loop times", loop_count)
Nach dem Login kopieren

选择排序

The algorithm works by selecting the smallest unsorted item and then swapping it with the item in the next position to be filled.

The selection sort works as follows: you look through the entire array for the smallest element, once you find it you swap it (the smallest element) with the first element of the array. Then you look for the smallest element in the remaining array (an array without the first element) and swap it with the second element. Then you look for the smallest element in the remaining array (an array without first and second elements) and swap it with the third element, and so on. Here is an example,


data_set = [ 9,1,22,31,45,3,6,2,11 ]
 
smallest_num_index = 0 #初始列表最小值,默认为第一个
 
loop_count = 0
for j in range(len(data_set)):
 for i in range(j,len(data_set)):
 if data_set[i] < data_set[smallest_num_index]: #当前值 比之前选出来的最小值 还要小,那就把它换成最小值
 smallest_num_index = i
 loop_count +=1
 else:
 print("smallest num is ",data_set[smallest_num_index])
 tmp = data_set[smallest_num_index]
 data_set[smallest_num_index] = data_set[j]
 data_set[j] = tmp
 
 print(data_set)
 print("loop times", loop_count)
Nach dem Login kopieren

The worst-case runtime complexity is O(n2).  

插入排序(Insertion Sort)

插入排序(Insertion Sort)的基本思想是:将列表分为2部分,左边为排序好的部分,右边为未排序的部分,循环整个列表,每次将一个待排序的记录,按其关键字大小插入到前面已经排好序的子序列中的适当位置,直到全部记录插入完成为止。

插入排序非常类似于整扑克牌。

在开始摸牌时,左手是空的,牌面朝下放在桌上。接着,一次从桌上摸起一张牌,并将它插入到左手一把牌中的正确位置上。为了找到这张牌的正确位置,要将它与手中已有的牌从右到左地进行比较。无论什么时候,左手中的牌都是排好序的。

也许你没有意识到,但其实你的思考过程是这样的:现在抓到一张7,把它和手里的牌从右到左依次比较,7比10小,应该再往左插,7比5大,好,就插这里。为什么比较了10和5就可以确定7的位置?为什么不用再比较左边的4和2呢?因为这里有一个重要的前提:手里的牌已经是排好序的。现在我插了7之后,手里的牌仍然是排好序的,下次再抓到的牌还可以用这个方法插入。编程对一个数组进行插入排序也是同样道理,但和插入扑克牌有一点不同,不可能在两个相邻的存储单元之间再插入一个单元,因此要将插入点之后的数据依次往后移动一个单元。


 source = [92, 77, 67, 8, 6, 84, 55, 85, 43, 67]
 
 
for index in range(1,len(source)):
 current_val = source[index] #先记下来每次大循环走到的第几个元素的值
 position = index
 
 while position > 0 and source[position-1] > current_val: #当前元素的左边的紧靠的元素比它大,要把左边的元素一个一个的往右移一位,给当前这个值插入到左边挪一个位置出来
 source[position] = source[position-1] #把左边的一个元素往右移一位
 position -= 1 #只一次左移只能把当前元素一个位置 ,还得继续左移只到此元素放到排序好的列表的适当位置 为止
 
 source[position] = current_val #已经找到了左边排序好的列表里不小于current_val的元素的位置,把current_val放在这里
 print(source)
Nach dem Login kopieren

结果:

[77, 92, 67, 8, 6, 84, 55, 85, 43, 67]
[67, 77, 92, 8, 6, 84, 55, 85, 43, 67]
[8, 67, 77, 92, 6, 84, 55, 85, 43, 67]
[6, 8, 67, 77, 92, 84, 55, 85, 43, 67]
[6, 8, 67, 77, 84, 92, 55, 85, 43, 67]
[6, 8, 55, 67, 77, 84, 92, 85, 43, 67]
[6, 8, 55, 67, 77, 84, 85, 92, 43, 67]
[6, 8, 43, 55, 67, 77, 84, 85, 92, 67]
[6, 8, 43, 55, 67, 67, 77, 84, 85, 92]

#更容易理解的版本


 data_set = [ 9,1,22,9,31,-5,45,3,6,2,11 ]
for i in range(len(data_set)):
 #position = i
 while i > 0 and data_set[i] < data_set[i-1]:# 右边小于左边相邻的值
 tmp = data_set[i]
 data_set[i] = data_set[i-1]
 data_set[i-1] = tmp
 i -= 1
 # position = i
 # while position > 0 and data_set[position] < data_set[position-1]:# 右边小于左边相邻的值
 # tmp = data_set[position]
 # data_set[position] = data_set[position-1]
 # data_set[position-1] = tmp
 # position -= 1
Nach dem Login kopieren

快速排序(quick sort)

设要排序的数组是A[0]……A[N-1],首先任意选取一个数据(通常选用数组的第一个数)作为关键数据,然后将所有比它小的数都放到它前面,所有比它大的数都放到它后面,这个过程称为一趟快速排序。值得注意的是,快速排序不是一种稳定的排序算法,也就是说,多个相同的值的相对位置也许会在算法结束时产生变动  

注:在待排序的文件中,若存在多个关键字相同的记录,经过排序后这些具有相同关键字的记录之间的相对次序保持不变,该排序方法是稳定的;若具有相同关键字的记录之间的相对次序发生改变,则称这种排序方法是不稳定的。
要注意的是,排序算法的稳定性是针对所有输入实例而言的。即在所有可能的输入实例中,只要有一个实例使得算法不满足稳定性要求,则该排序算法就是不稳定的。

排序演示

示例

假设用户输入了如下数组:

创建变量i=0(指向第一个数据), j=5(指向最后一个数据), k=6(赋值为第一个数据的值)。
我们要把所有比k小的数移动到k的左面,所以我们可以开始寻找比6小的数,从j开始,从右往左找,不断递减变量j的值,我们找到第一个下标3的数据比6小,于是把数据3移到下标0的位置,把下标0的数据6移到下标3,完成第一次比较:

i=0 j=3 k=6
接着,开始第二次比较,这次要变成找比k大的了,而且要从前往后找了。递加变量i,发现下标2的数据是第一个比k大的,于是用下标2的数据7和j指向的下标3的数据的6做交换,数据状态变成下表:

i=2 j=3 k=6
称上面两次比较为一个循环。
接着,再递减变量j,不断重复进行上面的循环比较。
在本例中,我们进行一次循环,就发现i和j“碰头”了:他们都指向了下标2。于是,第一遍比较结束。得到结果如下,凡是k(=6)左边的数都比它小,凡是k右边的数都比它大:

如果i和j没有碰头的话,就递加i找大的,还没有,就再递减j找小的,如此反复,不断循环。注意判断和寻找是同时进行的。
然后,对k两边的数据,再分组分别进行上述的过程,直到不能再分组为止。
注意:第一遍快速排序不会直接得到最终结果,只会把比k大和比k小的数分到k的两边。为了得到最后结果,需要再次对下标2两边的数组分别执行此步骤,然后再分解数组,直到数组不能再分解为止(只有一个数据),才能得到正确结果。


#_*_coding:utf-8_*_
__author__ = &#39;Alex Li&#39;
 
 
def quick_sort(array,left,right):
 &#39;&#39;&#39;
 
 :param array:
 :param left: 列表的第一个索引
 :param right: 列表最后一个元素的索引
 :return:
 &#39;&#39;&#39;
 if left >=right:
 return
 low = left
 high = right
 key = array[low] #第一个值
 
 while low < high:#只要左右未遇见
 while low < high and array[high] > key: #找到列表右边比key大的值 为止
 high -= 1
 #此时直接 把key(array[low]) 跟 比它大的array[high]进行交换
 array[low] = array[high]
 array[high] = key
 
 
 while low < high and array[low] <= key : #找到key左边比key大的值,这里为何是<=而不是<呢?你要思考。。。
 low += 1
 #array[low] =
 #找到了左边比k大的值 ,把array[high](此时应该刚存成了key) 跟这个比key大的array[low]进行调换
 array[high] = array[low]
 array[low] = key
 
 quick_sort(array,left,low-1) #最后用同样的方式对分出来的左边的小组进行同上的做法
 quick_sort(array,low+1, right)#用同样的方式对分出来的右边的小组进行同上的做法
 
 
 
if __name__ == &#39;__main__&#39;:
 
 array = [96,14,10,9,6,99,16,5,1,3,2,4,1,13,26,18,2,45,34,23,1,7,3,22,19,2]
 #array = [8,4,1, 14, 6, 2, 3, 9,5, 13, 7,1, 8,10, 12]
 print("before sort:", array)
 quick_sort(array,0,len(array)-1)
 
 print("-------final -------")
 print(array)
Nach dem Login kopieren

二叉树

树的特征和定义

树是一种重要的非线性数据结构,直观地看,它是数据元素(在树中称为结点)按分支关系组织起来的结构,很象自然界中的树那样。树结构在客观世界中广泛存在,如人类社会的族谱和各种社会组织机构都可用树形象表示。树在计算机领域中也得到广泛应用,如在编译源程序时,可用树表示源程序的语法结构。又如在数据库系统中,树型结构也是信息的重要组织形式之一。一切具有层次关系的问题都可用树来描述。

树(Tree)是元素的集合。我们先以比较直观的方式介绍树。下面的数据结构是一个树:

树有多个节点(node),用以储存元素。某些节点之间存在一定的关系,用连线表示,连线称为边(edge)。边的上端节点称为父节点,下端称为子节点。树像是一个不断分叉的树根。

每个节点可以有多个子节点(children),而该节点是相应子节点的父节点(parent)。比如说,3,5是6的子节点,6是3,5的父节点;1,8,7是3的子节点, 3是1,8,7的父节点。树有一个没有父节点的节点,称为根节点(root),如图中的6。没有子节点的节点称为叶节点(leaf),比如图中的1,8,9,5节点。从图中还可以看到,上面的树总共有4个层次,6位于第一层,9位于第四层。树中节点的最大层次被称为深度。也就是说,该树的深度(depth)为4。

如果我们从节点3开始向下看,而忽略其它部分。那么我们看到的是一个以节点3为根节点的树:

三角形代表一棵树

再进一步,如果我们定义孤立的一个节点也是一棵树的话,原来的树就可以表示为根节点和子树(subtree)的关系:

上述观察实际上给了我们一种严格的定义树的方法:

1. 树是元素的集合。

2. 该集合可以为空。这时树中没有元素,我们称树为空树 (empty tree)。

3. 如果该集合不为空,那么该集合有一个根节点,以及0个或者多个子树。根节点与它的子树的根节点用一个边(edge)相连。

上面的第三点是以递归的方式来定义树,也就是在定义树的过程中使用了树自身(子树)。由于树的递归特征,许多树相关的操作也可以方便的使用递归实现。我们将在后面看到。

树的实现

Das schematische Diagramm des Baums zeigt eine Speicherimplementierung des Baums: Jeder Knoten speichert Elemente und mehrere Zeiger auf untergeordnete Knoten. Die Anzahl der untergeordneten Knoten ist jedoch nicht definiert. Ein übergeordneter Knoten kann eine große Anzahl untergeordneter Knoten haben, während ein anderer übergeordneter Knoten möglicherweise nur einen untergeordneten Knoten hat. Durch das Hinzufügen und Löschen von Knoten im Baum ändert sich die Anzahl der untergeordneten Knoten weiter. Diese Unsicherheit kann zu einer großen Anzahl speicherbezogener Vorgänge führen und leicht zu einer Speicherverschwendung führen.

Eine klassische Implementierung ist wie folgt:

Speicherimplementierung von Baum

Zwei Knoten mit demselben übergeordneten Knoten sind Geschwister voneinander. In der Implementierung der obigen Abbildung enthält jeder Knoten einen Zeiger, der auf den ersten untergeordneten Knoten zeigt, und einen weiteren Zeiger, der auf seinen nächsten Geschwisterknoten zeigt. Auf diese Weise können wir jeden Knoten mit einer einheitlichen und deterministischen Struktur darstellen.

Das Dateisystem eines Computers ist eine Baumstruktur, wie sie beispielsweise im Hintergrundwissen der Linux-Dateiverwaltung vorgestellt wird. Im UNIX-Dateisystem kann jede Datei (ein Ordner ist auch ein Dateityp) als Knoten betrachtet werden. Dateien, die keine Ordner sind, werden in Blattknoten gespeichert. Es gibt Zeiger auf übergeordnete und untergeordnete Knoten im Ordner (unter UNIX enthält der Ordner auch einen Zeiger auf sich selbst, der sich von dem Baum unterscheidet, den wir oben gesehen haben). In Git gibt es eine ähnliche Baumstruktur, um Versionsänderungen des gesamten Dateisystems auszudrücken (siehe Versionsverwaltung der drei Königreiche).

Binärbaum:  

Ein Binärbaum ist ein endlicher Baum bestehend aus n (n≥0 ) Knoten Menge, geordneter Baum mit höchstens zwei Teilbäumen pro Knoten. Es ist entweder die leere Menge oder sie besteht aus einer Wurzel und zwei disjunkten Binärbäumen, die als linker und rechter Teilbaum bezeichnet werden.

Eigenschaften:

(1) Ein Binärbaum ist ein geordneter Baum. Auch wenn es nur einen Teilbaum gibt, müssen der linke und der rechte Teilbaum unterschieden werden; ) Jeder der Binärbäume Der Grad eines Knotens kann nicht größer als 2 sein und kann nur einer von 0, 1 oder 2 sein. (3) Es gibt 5 Formen aller Knoten im Binärbaum : leere Knoten und keine linken und rechten Teilbäume. Knoten, Knoten mit nur linkem Teilbaum, Knoten mit nur rechtem Teilbaum und Knoten mit linken und rechten Teilbäumen.

Binärbaum ist eine besondere Art von Baum. Jeder Knoten des Binärbaums kann höchstens 2 untergeordnete Knoten haben:

Binärbaum

Da die Anzahl der untergeordneten Knoten des Binärbaums bestimmt wird Die obige Abbildung kann direkt im Speicher implementiert werden. Jeder Knoten hat einen linken untergeordneten Knoten (linke Kinder) und einen rechten untergeordneten Knoten (rechte untergeordnete Knoten). Der linke untergeordnete Knoten ist der Wurzelknoten des linken Teilbaums und der rechte untergeordnete Knoten ist der Wurzelknoten des rechten Teilbaums.

Wenn wir dem Binärbaum eine zusätzliche Bedingung hinzufügen, können wir einen speziellen Binärbaum erhalten, der als binärer Suchbaum bezeichnet wird. Anforderungen an den binären Suchbaum:

Jeder Knoten ist nicht kleiner als jedes Element seines linken Teilbaums und nicht größer als jedes Element seines rechten Teilbaums.

(Wenn wir annehmen, dass es keine doppelten Elemente im Baum gibt, dann kann die obige Anforderung wie folgt geschrieben werden: Jeder Knoten ist größer als jeder Knoten seines linken Teilbaums und kleiner als jeder Knoten seines rechter Teilbaum)

Binärer Suchbaum, achten Sie auf die Größe der Elemente im Baum

Der binäre Suchbaum kann den Suchalgorithmus problemlos implementieren. Bei der Suche nach Element x können wir x mit dem Wurzelknoten vergleichen:

1 Wenn x gleich dem Wurzelknoten ist, dann finden Sie x und stoppen Sie die Suche (Abbruchbedingung)

2 . Wenn x kleiner als der Wurzelknoten, dann durchsuchen Sie den linken Teilbaum

3. Wenn x größer als der Wurzelknoten ist, dann durchsuchen Sie den rechten Teilbaum

Der binäre Suchbaum ist höchstens gleich der Tiefe des Baums. Die Tiefe eines binären Suchbaums mit n Knoten beträgt höchstens n und mindestens log(n).

Binäre Baumdurchquerung

Durchläuft alle Knoten des Baums und besucht sie nur einmal. Je nach Standort des Wurzelknotens wird er in Durchquerung vor der Bestellung, Durchquerung mittlerer Ordnung und Durchquerung nach der Bestellung unterteilt. Durchquerung vor der Bestellung: Wurzelknoten->linker Teilbaum->rechter Teilbaum

Durchquerung in der Reihenfolge: linker Teilbaum->Wurzelknoten->rechter Teilbaum

Post-Order-Durchquerung: linker Teilbaum->rechter Teilbaum->Wurzelknoten

Zum Beispiel: Finden Sie drei Durchquerungen des folgenden Baums

Durchquerung vor der Bestellung: abdefgc

Durchquerung in der Reihenfolge: debgfac

Durchquerung nach der Bestellung: edgfbca

Typ des Binärbaums

(1)完全二叉树——若设二叉树的高度为h,除第 h 层外,其它各层 (1~h-1) 的结点数都达到最大个数,第h层有叶子结点,并且叶子结点都是从左到右依次排布,这就是完全二叉树。

(2)满二叉树——除了叶结点外每一个结点都有左右子叶且叶子结点都处在最底层的二叉树。

(3)平衡二叉树——平衡二叉树又被称为AVL树(区别于AVL算法),它是一棵二叉排序树,且具有以下性质:它是一棵空树或它的左右两个子树的高度差的绝对值不超过1,并且左右两个子树都是一棵平衡二叉树

如何判断一棵树是完全二叉树?按照定义

教材上的说法:一个深度为k,节点个数为 2^k - 1 的二叉树为满二叉树。这个概念很好理解,就是一棵树,深度为k,并且没有空位。

首先对满二叉树按照广度优先遍历(从左到右)的顺序进行编号。

一颗深度为k二叉树,有n个节点,然后,也对这棵树进行编号,如果所有的编号都和满二叉树对应,那么这棵树是完全二叉树。

如何判断平衡二叉树?

(b)左边的图 左子数的高度为3,右子树的高度为1,相差超过1

(b)右边的图 -2的左子树高度为0 右子树的高度为2,相差超过1

二叉树遍历实现


class TreeNode(object):
 def __init__(self,data=0,left=0,right=0):
 self.data = data
 self.left = left
 self.right = right
 
class BTree(object):
 def __init__(self,root=0):
 self.root = root
 
 
 def preOrder(self,treenode):
 if treenode is 0:
 return
 print(treenode.data)
 self.preOrder(treenode.left)
 self.preOrder(treenode.right)
 def inOrder(self,treenode):
 if treenode is 0:
 return
 self.inOrder(treenode.left)
 print(treenode.data)
 self.inOrder(treenode.right)
 
 def postOrder(self,treenode):
 if treenode is 0:
 return
 self.postOrder(treenode.left)
 self.postOrder(treenode.right)
 print(treenode.data)
if __name__ == &#39;__main__&#39;:
 n1 = TreeNode(data=1)
 n2 = TreeNode(2,n1,0)
 n3 = TreeNode(3)
 n4 = TreeNode(4)
 n5 = TreeNode(5,n3,n4)
 n6 = TreeNode(6,n2,n5)
 n7 = TreeNode(7,n6,0)
 n8 = TreeNode(8)
 root = TreeNode(&#39;root&#39;,n7,n8)
 
 bt = BTree(root)
 print("preOrder".center(50,&#39;-&#39;))
 print(bt.preOrder(bt.root))
 
 print("inOrder".center(50,&#39;-&#39;))
 print (bt.inOrder(bt.root))
 
 print("postOrder".center(50,&#39;-&#39;))
 print (bt.postOrder(bt.root))
Nach dem Login kopieren

堆排序

堆排序,顾名思义,就是基于堆。因此先来介绍一下堆的概念。
堆分为最大堆和最小堆,其实就是完全二叉树。最大堆要求节点的元素都要大于其孩子,最小堆要求节点元素都小于其左右孩子,两者对左右孩子的大小关系不做任何要求,其实很好理解。有了上面的定义,我们可以得知,处于最大堆的根节点的元素一定是这个堆中的最大值。其实我们的堆排序算法就是抓住了堆的这一特点,每次都取堆顶的元素,将其放在序列最后面,然后将剩余的元素重新调整为最大堆,依次类推,最终得到排序的序列。

堆排序就是把堆顶的最大数取出,

将剩余的堆继续调整为最大堆,具体过程在第二块有介绍,以递归实现

剩余部分调整为最大堆后,再次将堆顶的最大数取出,再将剩余部分调整为最大堆,这个过程持续到剩余数只有一个时结束


#_*_coding:utf-8_*_
__author__ = &#39;Alex Li&#39;
import time,random
def sift_down(arr, node, end):
 root = node
 #print(root,2*root+1,end)
 while True:
 # 从root开始对最大堆调整
 
 child = 2 * root +1 #left child
 if child > end:
 #print(&#39;break&#39;,)
 break
 print("v:",root,arr[root],child,arr[child])
 print(arr)
 # 找出两个child中交大的一个
 if child + 1 <= end and arr[child] < arr[child + 1]: #如果左边小于右边
 child += 1 #设置右边为大
 
 if arr[root] < arr[child]:
 # 最大堆小于较大的child, 交换顺序
 tmp = arr[root]
 arr[root] = arr[child]
 arr[child]= tmp
 
 # 正在调整的节点设置为root
 #print("less1:", arr[root],arr[child],root,child)
 
 root = child #
 #[3, 4, 7, 8, 9, 11, 13, 15, 16, 21, 22, 29]
 #print("less2:", arr[root],arr[child],root,child)
 else:
 # 无需调整的时候, 退出
 break
 #print(arr)
 print(&#39;-------------&#39;)
 
def heap_sort(arr):
 # 从最后一个有子节点的孩子还是调整最大堆
 first = len(arr) // 2 -1
 for i in range(first, -1, -1):
 sift_down(arr, i, len(arr) - 1)
 #[29, 22, 16, 9, 15, 21, 3, 13, 8, 7, 4, 11]
 print(&#39;--------end---&#39;,arr)
 # 将最大的放到堆的最后一个, 堆-1, 继续调整排序
 for end in range(len(arr) -1, 0, -1):
 arr[0], arr[end] = arr[end], arr[0]
 sift_down(arr, 0, end - 1)
 #print(arr)
def main():
 # [7, 95, 73, 65, 60, 77, 28, 62, 43]
 # [3, 1, 4, 9, 6, 7, 5, 8, 2, 10]
 #l = [3, 1, 4, 9, 6, 7, 5, 8, 2, 10]
 #l = [16,9,21,13,4,11,3,22,8,7,15,27,0]
 array = [16,9,21,13,4,11,3,22,8,7,15,29]
 #array = []
 #for i in range(2,5000):
 # #print(i)
 # array.append(random.randrange(1,i))
 
 print(array)
 start_t = time.time()
 heap_sort(array)
 end_t = time.time()
 print("cost:",end_t -start_t)
 print(array)
 #print(l)
 #heap_sort(l)
 #print(l)
 
 
if __name__ == "__main__":
 main()
Nach dem Login kopieren

人类能理解的版本


dataset = [16,9,21,3,13,14,23,6,4,11,3,15,99,8,22]

for i in range(len(dataset)-1,0,-1):
 print("-------",dataset[0:i+1],len(dataset),i)
 #for index in range(int(len(dataset)/2),0,-1):
 for index in range(int((i+1)/2),0,-1):
 print(index)
 p_index = index

 l_child_index = p_index *2 - 1
 r_child_index = p_index *2
 print("l index",l_child_index,&#39;r index&#39;,r_child_index)
 p_node = dataset[p_index-1]
 left_child = dataset[l_child_index]

 if p_node < left_child: # switch p_node with left child
 dataset[p_index - 1], dataset[l_child_index] = left_child, p_node
 # redefine p_node after the switch ,need call this val below
 p_node = dataset[p_index - 1]

 if r_child_index < len(dataset[0:i+1]): #avoid right out of list index range
 #if r_child_index < len(dataset[0:i]): #avoid right out of list index range
 #print(left_child)
 right_child = dataset[r_child_index]
 print(p_index,p_node,left_child,right_child)

 # if p_node < left_child: #switch p_node with left child
 # dataset[p_index - 1] , dataset[l_child_index] = left_child,p_node
 # # redefine p_node after the switch ,need call this val below
 # p_node = dataset[p_index - 1]
 #
 if p_node < right_child: #swith p_node with right child
 dataset[p_index - 1] , dataset[r_child_index] = right_child,p_node
 # redefine p_node after the switch ,need call this val below
 p_node = dataset[p_index - 1]

 else:
 print("p node [%s] has no right child" % p_node)


 #最后这个列表的第一值就是最大堆的值,把这个最大值放到列表最后一个, 把神剩余的列表再调整为最大堆

 print("switch i index", i, dataset[0], dataset[i] )
 print("before switch",dataset[0:i+1])
 dataset[0],dataset[i] = dataset[i],dataset[0]
 print(dataset)
Nach dem Login kopieren

希尔排序(shell sort)

希尔排序(Shell Sort)是插入排序的一种。也称缩小增量排序,是直接插入排序算法的一种更高效的改进版本,该方法的基本思想是:先将整个待排元素序列分割成若干个子序列(由相隔某个“增量”的元素组成的)分别进行直接插入排序,然后依次缩减增量再进行排序,待整个序列中的元素基本有序(增量足够小)时,再对全体元素进行一次直接插入排序。因为直接插入排序在元素基本有序的情况下(接近最好情况),效率是很高的,因此希尔排序在时间效率比直接插入排序有较大提高

首先要明确一下增量的取法:

第一次增量的取法为: d=count/2;

第二次增量的取法为: d=(count/2)/2;

最后一直到: d=1;

看上图观测的现象为:

d=3时:将40跟50比,因50大,不交换。

将20跟30比,因30大,不交换。

将80跟60比,因60小,交换。

d=2时:将40跟60比,不交换,拿60跟30比交换,此时交换后的30又比前面的40小,又要将40和30交换,如上图。

将20跟50比,不交换,继续将50跟80比,不交换。

d=1时:这时就是前面讲的插入排序了,不过此时的序列已经差不多有序了,所以给插入排序带来了很大的性能提高。

希尔排序代码


import time,random

#source = [8, 6, 4, 9, 7, 3, 2, -4, 0, -100, 99]
#source = [92, 77, 8,67, 6, 84, 55, 85, 43, 67]

source = [ random.randrange(10000+i) for i in range(10000)]
#print(source)



step = int(len(source)/2) #分组步长

t_start = time.time()


while step >0:
 print("---step ---", step)
 #对分组数据进行插入排序

 for index in range(0,len(source)):
 if index + step < len(source):
 current_val = source[index] #先记下来每次大循环走到的第几个元素的值
 if current_val > source[index+step]: #switch
 source[index], source[index+step] = source[index+step], source[index]

 step = int(step/2)
else: #把基本排序好的数据再进行一次插入排序就好了
 for index in range(1, len(source)):
 current_val = source[index] # 先记下来每次大循环走到的第几个元素的值
 position = index

 while position > 0 and source[
  position - 1] > current_val: # 当前元素的左边的紧靠的元素比它大,要把左边的元素一个一个的往右移一位,给当前这个值插入到左边挪一个位置出来
 source[position] = source[position - 1] # 把左边的一个元素往右移一位
 position -= 1 # 只一次左移只能把当前元素一个位置 ,还得继续左移只到此元素放到排序好的列表的适当位置 为止

 source[position] = current_val # 已经找到了左边排序好的列表里不小于current_val的元素的位置,把current_val放在这里
 print(source)

t_end = time.time() - t_start

print("cost:",t_end)
Nach dem Login kopieren

Das obige ist der detaillierte Inhalt vonGrundlegende und häufig verwendete Algorithmen in Python. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:php.cn
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage