ホームページ > ウェブフロントエンド > jsチュートリアル > 簡単な検索エンジンの作り方

簡単な検索エンジンの作り方

坏嘻嘻
リリース: 2018-09-14 17:15:13
オリジナル
4761 人が閲覧しました

仕事や自分自身の必要性により、必要なデータを取得するためにさまざまな Web サイトを閲覧することがあります。そこでクローラーが誕生します。以下は、私が行った単純なクローラーの開発プロセスと、遭遇した問題です。

前回、シャオバイは熱心なウェブ クローラーを手に入れたので、小さなことを続けないと申し訳ないと思ったので、さまざまな専門家からの情報をいじり始めました。は、基本原則に基づいて設計されたシンプルな検索エンジンです。

以前のクローラーは、何も処理せずに Web ページのソース コードを取得するだけでした。これは 1 回限りの小規模なクローラーであったため、Xiaobi は正規表現を使用して Web ページのコンテンツを照合して URL を取得しました。そして、小さなクローラー これを使用して、Web ページを死ぬまでクロールできます。ここで、Beautifulsoup モジュールが Web クローリングと抽出のための強力なツールであると言われているのは残念です。 Xiaobao はまだ完成していません。後で名前を聞いて試してみることができなかったことを後悔しましたが、習熟すれば、これも非常に簡単です。 Web ページのソース コードを抽出するための URL:

    link_list = re.findall(r"(?<=href=\").+?(?=\")|(?<=href=\&#39;).+?(?=\&#39;)", html)
ログイン後にコピー
    这一句就提出个七七八八来,当然这么粗糙鱼目混珠的情况也是少不了的,但是还是非常好用的,
    虽然看起来很复杂但是只要掌握了(?<)、(?=)、.、+、?这几种符号的用法小白觉得就可以解决大部分问题了,
    哦这里还有提一句,正则表达式似乎不支持嵌套的情形,
    大概形如“找到所有前面三个字符满足条件A的字符a,条件A是这三个字符前面的内容满足条件B”巴拉巴拉,
    好吧感觉说的好乱让我们暂且跳过这个话题。提取处理的匹配如果用findall是存储在列表中的,
    这样我们就可以在一个网页列表中一直加入新找到的链接一直重复爬取,小白这里自认为能力有限,
    所以就从提取中的网页链接爬取了100个网页做一个轻装版。这里提个醒,由于之前html链接提取的很粗糙,
    所以可能把各种形如网页链接的css文件路径、图片路径什么乱七八糟的给爬下来,
    不过我们这里就统一当作网页链接在一个try·except模块中进行connection,
    不是链接的就会出现异常我们只要捕获跳过就又可以愉快的继续了~~。
ログイン後にコピー
    有了爬取下来的网页内容下面就应该是得到其中真正呈现在网页中的东西了。
    写过网页的同学们都应该知道网页内容一般都在<p><\p>之中,title和链接什么的也有对应的标签,
    运用正则表单式理论上可以分离出来,不过小白亲身时间发现只匹配一次效果非常不好,
    匹配的内容的确包括想要的内容,但是因为标签一般都是嵌套的嘛而且小白技术毕竟也不好正则表达式可能表述的也有问题,
    所以总是会将内容嵌套在标签中返回,这里就有一个比较笨的方法供大家参考,咳咳,
    既然一次不能得到,那么就对内容进行再匹配,咳咳,经过了三层匹配外加一些小技巧终于是勉强匹配出来了,
    这里代码过于丑陋就不再贴出来了咳咳。
ログイン後にコピー

関連する推奨事項:

Scrapy クローラー入門チュートリアル 4 Spider (クローラー)

php は単純なクローラーの開発を実現し、PHP はクローラーを実装します

以上が簡単な検索エンジンの作り方の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:php.cn
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート