Python beautifulsoup4モジュールの使い方

王林
リリース: 2023-05-11 22:31:04
転載
1025 人が閲覧しました

1. BeautifulSoup4 の基礎知識の補足

BeautifulSoup4 は Python 解析ライブラリであり、主に HTML と XML の解析に使用されます。クローラ知識システムでは HTML の解析がさらに増える予定です。

ライブラリのインストール コマンドは次のとおりです:

pip install beautifulsoup4
ログイン後にコピー

BeautifulSoup データを解析するときは、サードパーティのパーサーに依存する必要があります。 ##一般的に使用されるパーサーとその利点は次のとおりです:

  • Python 標準ライブラリ html.parser: Python には強力な標準ライブラリが組み込まれています。フォールト トレランス;

  • lxml パーサー: 高速、フォールト トレラント;

  • html5lib:最もフォールトトレラントな解析方法とブラウジング デバイスは一貫しています。

次に、カスタム HTML コードを使用して、

Beautifulsoup4 ライブラリの基本的な使用法を示します。テスト コードは次のとおりです:

<html>
  <head>
    <title>测试bs4模块脚本</title>
  </head>
  <body>
    <h2>橡皮擦的爬虫课</h2>
    <p>用一段自定义的 HTML 代码来演示</p>
  </body>
</html>
ログイン後にコピー

Use

BeautifulSoup BS オブジェクトのインスタンス化、ページ タグの出力など、簡単な操作を実行します。

from bs4 import BeautifulSoup
text_str = """<html>
	<head>
		<title>测试bs4模块脚本</title>
	</head>
	<body>
		<h2>橡皮擦的爬虫课</h2>
		<p>用1段自定义的 HTML 代码来演示</p>
		<p>用2段自定义的 HTML 代码来演示</p>
	</body>
</html>
"""
# 实例化 Beautiful Soup 对象
soup = BeautifulSoup(text_str, "html.parser")
# 上述是将字符串格式化为 Beautiful Soup 对象,你可以从一个文件进行格式化
# soup = BeautifulSoup(open(&#39;test.html&#39;))
print(soup)
# 输入网页标题 title 标签
print(soup.title)
# 输入网页 head 标签
print(soup.head)

# 测试输入段落标签 p
print(soup.p) # 默认获取第一个
ログイン後にコピー

BeautifulSoup オブジェクトを介して Web ページ タグを直接呼び出すことができます。ここで問題が発生します。BS オブジェクトを介してタグを呼び出すと、最初にランク付けされたタグしか取得できません。上記のコードのように、1 つだけが

p タグを取得しました。さらにコンテンツを取得したい場合は、読み続けてください。

これを学ぶには、BeautifulSoup の 4 つの組み込みオブジェクトを理解する必要があります:

  • BeautifulSoup: 基本オブジェクト、HTML オブジェクト全体は一般に Tag オブジェクトとして見ることができます;

  • Tag: タグ オブジェクト、タグはタイトルなどの Web ページ内の各ノードです, head, p;

  • NavigableString: ラベル内部文字列;

  • Comment: コメントクローラー内のオブジェクト 使用シナリオはそれほど多くありません。

#次のコードは、これらのオブジェクトが表示されるシナリオを示しています。コード内の関連するコメントに注意してください:

from bs4 import BeautifulSoup
text_str = """<html>
	<head>
		<title>测试bs4模块脚本</title>
	</head>
	<body>
		<h2>橡皮擦的爬虫课</h2>
		<p>用1段自定义的 HTML 代码来演示</p>
		<p>用2段自定义的 HTML 代码来演示</p>
	</body>
</html>
"""
# 实例化 Beautiful Soup 对象
soup = BeautifulSoup(text_str, "html.parser")
# 上述是将字符串格式化为 Beautiful Soup 对象,你可以从一个文件进行格式化
# soup = BeautifulSoup(open(&#39;test.html&#39;))
print(soup)
print(type(soup))  # <class &#39;bs4.BeautifulSoup&#39;>
# 输入网页标题 title 标签
print(soup.title)
print(type(soup.title)) # <class &#39;bs4.element.Tag&#39;>
print(type(soup.title.string)) # <class &#39;bs4.element.NavigableString&#39;>
# 输入网页 head 标签
print(soup.head)
ログイン後にコピー

Tag オブジェクト には、nameattrs

from bs4 import BeautifulSoup
text_str = """<html>
	<head>
		<title>测试bs4模块脚本</title>
	</head>
	<body>
		<h2>橡皮擦的爬虫课</h2>
		<p>用1段自定义的 HTML 代码来演示</p>
		<p>用2段自定义的 HTML 代码来演示</p>
		<a href="http://www.csdn.net" rel="external nofollow"  rel="external nofollow" >CSDN 网站</a>
	</body>
</html>
"""
# 实例化 Beautiful Soup 对象
soup = BeautifulSoup(text_str, "html.parser")
print(soup.name) # [document]
print(soup.title.name) # 获取标签名 title
print(soup.html.body.a) # 可以通过标签层级获取下层标签
print(soup.body.a) # html 作为一个特殊的根标签,可以省略
print(soup.p.a) # 无法获取到 a 标签
print(soup.a.attrs) # 获取属性
ログイン後にコピー
という 2 つの重要な属性があります。上記のコードは、## の取得を示しています。 # name

属性と

attrs 属性の使用法 attrs 属性は辞書であり、キーによって対応する値を取得できます。 タグの属性値を取得します。BeautifulSoup では、次のメソッドも使用できます:

print(soup.a["href"])
print(soup.a.get("href"))
ログイン後にコピー

Get

NavigableString

Object Web ページのタグ。ラベル内のテキストを取得するには、次のコードを使用します。 <div class="code" style="position:relative; padding:0px; margin:0px;"><pre class="brush:py;">print(soup.a.string)</pre><div class="contentsignin">ログイン後にコピー</div></div>さらに、text

属性と

get_text() メソッドを使用してタグのコンテンツを取得することもできます。

print(soup.a.string)
print(soup.a.text)
print(soup.a.get_text())
ログイン後にコピー
strings

stripped_strings を使用して、タグ内のすべてのテキストを取得することもできます。

print(list(soup.body.strings)) # 获取到空格或者换行
print(list(soup.body.stripped_strings)) # 去除空格或者换行
ログイン後にコピー
ドキュメント ツリーをトラバースするための拡張タグ/ノード セレクター

直接の子ノード

タグ (Tag) オブジェクトの直接の子要素は、

contents

および

children 属性が取得されます。

from bs4 import BeautifulSoup
text_str = """<html>
	<head>
		<title>测试bs4模块脚本</title>
	</head>
	<body>
		<div id="content">
			<h2>橡皮擦的爬虫课<span>最棒</span></h2>
            <p>用1段自定义的 HTML 代码来演示</p>
            <p>用2段自定义的 HTML 代码来演示</p>
            <a href="http://www.csdn.net" rel="external nofollow"  rel="external nofollow" >CSDN 网站</a>
		</div>
        <ul class="nav">
            <li>首页</li>
            <li>博客</li>
            <li>专栏课程</li>
        </ul>

	</body>
</html>
"""
# 实例化 Beautiful Soup 对象
soup = BeautifulSoup(text_str, "html.parser")
# contents 属性获取节点的直接子节点,以列表的形式返回内容
print(soup.div.contents) # 返回列表
# children 属性获取的也是节点的直接子节点,以生成器的类型返回
print(soup.div.children) # 返回 <list_iterator object at 0x00000111EE9B6340>
ログイン後にコピー
上記 2 つの属性は、h2

タグ内の子孫タグ

span などの 直接 子ノードを取得することに注意してください。別途入手はできません。 すべてのタグを取得したい場合は、ジェネレーターを返す descendants

属性を使用します。タグ内のテキストを含むすべてのタグが個別に取得されます。

print(list(soup.div.descendants))
ログイン後にコピー
他のノードの取得 (理解して確認し、すぐに使用してください)

    parent
  • parents : 直接の親ノードとすべての親ノード;

  • next_sibling
  • next_siblingsprevious_siblingprevious_siblings : 次の兄弟ノード、その下のすべての兄弟ノード、前の兄弟ノード、および上のすべての兄弟ノードを表します。改行文字もノードであるため、これらの属性を使用するときは、改行文字に注意してください。

  • next_element
  • next_elementsprevious_elementprevious_elements: これらの属性は前のノードまたは次のノードを表します。ノードは階層的ではなく、すべてのノードに適用されることに注意してください。たとえば、上記のコードの div ノードの次のノードは h2 であり、div ノード 兄弟ノードは ul です。

  • ドキュメント ツリー検索関連関数

学習する最初の関数は、find_all()

関数

プロトタイプは次のとおりです。

find_all(name,attrs,recursive,text,limit=None,**kwargs)
ログイン後にコピー

    name
  • : このパラメータは、タグタグの名前です。たとえば、

    find_all('p' ) は、すべての p タグを検索し、タグ名の文字列、正規表現、リストを受け入れることができます;

  • attrs:传入的属性,该参数可以字典的形式传入,例如 attrs={&#39;class&#39;: &#39;nav&#39;},返回的结果是 tag 类型的列表;

上述两个参数的用法示例如下:

print(soup.find_all(&#39;li&#39;)) # 获取所有的 li
print(soup.find_all(attrs={&#39;class&#39;: &#39;nav&#39;})) # 传入 attrs 属性
print(soup.find_all(re.compile("p"))) # 传递正则,实测效果不理想
print(soup.find_all([&#39;a&#39;,&#39;p&#39;])) # 传递列表
ログイン後にコピー
  • recursive:调用 find_all () 方法时,BeautifulSoup 会检索当前 tag 的所有子孙节点,如果只想搜索 tag 的直接子节点,可以使用参数 recursive=False,测试代码如下:

print(soup.body.div.find_all([&#39;a&#39;,&#39;p&#39;],recursive=False)) # 传递列表
ログイン後にコピー
  • text:可以检索文档中的文本字符串内容,与 name 参数的可选值一样,text 参数接受标签名字符串、正则表达式、 列表;

print(soup.find_all(text=&#39;首页&#39;)) # [&#39;首页&#39;]
print(soup.find_all(text=re.compile("^首"))) # [&#39;首页&#39;]
print(soup.find_all(text=["首页",re.compile(&#39;课&#39;)])) # [&#39;橡皮擦的爬虫课&#39;, &#39;首页&#39;, &#39;专栏课程&#39;]
ログイン後にコピー
  • limit:可以用来限制返回结果的数量;

  • kwargs:如果一个指定名字的参数不是搜索内置的参数名,搜索时会把该参数当作 tag 的属性来搜索。这里要按 class 属性搜索,因为 class 是 python 的保留字,需要写作 class_,按 class_ 查找时,只要一个 CSS 类名满足即可,如需多个 CSS 名称,填写顺序需要与标签一致。

print(soup.find_all(class_ = &#39;nav&#39;))
print(soup.find_all(class_ = &#39;nav li&#39;))
ログイン後にコピー

还需要注意网页节点中,有些属性在搜索中不能作为kwargs参数使用,比如html5 中的 data-*属性,需要通过attrs参数进行匹配。

find_all()方法用户基本一致的其它方法清单如下:

  • find():函数原型find( name , attrs , recursive , text , **kwargs ),返回一个匹配元素;

  • find_parents(),find_parent():函数原型 find_parent(self, name=None, attrs={}, **kwargs),返回当前节点的父级节点;

  • find_next_siblings(),find_next_sibling():函数原型 find_next_sibling(self, name=None, attrs={}, text=None, **kwargs),返回当前节点的下一兄弟节点;

  • find_previous_siblings(),find_previous_sibling():同上,返回当前的节点的上一兄弟节点;

  • find_all_next(),find_next(),find_all_previous () ,find_previous ():函数原型 find_all_next(self, name=None, attrs={}, text=None, limit=None, **kwargs),检索当前节点的后代节点。

CSS 选择器 该小节的知识点与pyquery有点撞车,核心使用select()方法即可实现,返回数据是列表元组。

  • 通过标签名查找,soup.select("title")

  • 通过类名查找,soup.select(".nav")

  • 通过 id 名查找,soup.select("#content")

  • 通过组合查找,soup.select("div#content")

  • 通过属性查找,soup.select("div[id=&#39;content&#39;")soup.select("a[href]")

在通过属性查找时,还有一些技巧可以使用,例如:

  • ^=:可以获取以 XX 开头的节点:

print(soup.select(&#39;ul[class^="na"]&#39;))
ログイン後にコピー
  • *=:获取属性包含指定字符的节点:

print(soup.select(&#39;ul[class*="li"]&#39;))
ログイン後にコピー

二、爬虫案例

BeautifulSoup 的基础知识掌握之后,在进行爬虫案例的编写,就非常简单了,本次要采集的目标网站 ,该目标网站有大量的艺术二维码,可以供设计大哥做参考。

Python beautifulsoup4モジュールの使い方

下述应用到了 BeautifulSoup 模块的标签检索与属性检索,完整代码如下:

from bs4 import BeautifulSoup
import requests
import logging
logging.basicConfig(level=logging.NOTSET)
def get_html(url, headers) -> None:
    try:
        res = requests.get(url=url, headers=headers, timeout=3)
    except Exception as e:
        logging.debug("采集异常", e)

    if res is not None:
        html_str = res.text
        soup = BeautifulSoup(html_str, "html.parser")
        imgs = soup.find_all(attrs={&#39;class&#39;: &#39;lazy&#39;})
        print("获取到的数据量是", len(imgs))
        datas = []
        for item in imgs:
            name = item.get(&#39;alt&#39;)
            src = item["src"]
            logging.info(f"{name},{src}")
            # 获取拼接数据
            datas.append((name, src))
        save(datas, headers)
def save(datas, headers) -> None:
    if datas is not None:
        for item in datas:
            try:
                # 抓取图片
                res = requests.get(url=item[1], headers=headers, timeout=5)
            except Exception as e:
                logging.debug(e)

            if res is not None:
                img_data = res.content
                with open("./imgs/{}.jpg".format(item[0]), "wb+") as f:
                    f.write(img_data)
    else:
        return None
if __name__ == &#39;__main__&#39;:
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/93.0.4577.82 Safari/537.36"
    }
    url_format = "http://www.9thws.com/#p{}"
    urls = [url_format.format(i) for i in range(1, 2)]
    get_html(urls[0], headers)
ログイン後にコピー

本次代码测试输出采用的 logging 模块实现,效果如下图所示。 测试仅采集了 1 页数据,如需扩大采集范围,只需要修改 main 函数内页码规则即可。 ==代码编写过程中,发现数据请求是类型是 POST,数据返回格式是 JSON,所以本案例仅作为 BeautifulSoup 的上手案例吧== 

Python beautifulsoup4モジュールの使い方

以上がPython beautifulsoup4モジュールの使い方の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:yisu.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート
私たちについて 免責事項 Sitemap
PHP中国語ウェブサイト:福祉オンライン PHP トレーニング,PHP 学習者の迅速な成長を支援します!