网络爬虫主要是干什么用的


【网络爬虫主要是干什么用的】网络爬虫是用来抓取网页信息的程序,是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本 。网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页 , 是搜索引擎的重要组成 。传统爬虫从一个或若干初始网页的URL开始 , 获得初始网页上的URL , 在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件 。

    推荐阅读