• 手机版

    扫码体验手机版

  • 微信公众号

    扫码关注公众号

国内首家协议开发

软芯音视解码保护平台

在线
客服

发布
需求

在线
聊天

天盟
APP

天盟APP下载

关注
微信

微信扫一扫访问
顶部

Python写了一个爬虫,结果只爬出4条数据,是parser错了还是main错了?怎么

这个是main#coding:utf8from homework_test import url_manager, html_downloader, html_parser,\    html_outputerclass SpiderMain(object):    #构造函数,初始化各个对象    def __init__(self):        #url管理器        self.urls = url_manager.UrlManager()        #url下载器        self.downloader = html_downloader.HtmlDownloader()        #url解析器        self.parser = html_parser.HtmlParser()        #url输出器        self.outputer =html_outputer.HtmlOutputer()            #爬虫的调度程序    def craw(self, root_url):        #count记录当前爬取的是第几个url        count = 1        #1.首先将入口url添加入管理器        self.urls.add_new_url(root_url)        #启动爬虫循环,当管理器中有url时        while self.urls.has_new_url():            try:                #获开一个待爬取的url                new_url = self.urls.get_new_url()                print 'craw %d : %s' % (count,new_url)                #启动下载器下载页面                html_cont = self.downloader.download(new_url)                #调用解析器解析页面数据,返回新的url列表和新的数据                new_urls,new_data = self.parser.parse(new_url,html_cont)                #将新的url补充到管理器                self.urls.add_new_urls(new_urls)                #收集数据                self.outputer.collect_data(new_data)                #爬取3000个目标                if count == 100:                    break                                count = count + 1            except:                print 'craw failed'            #输出收集好的数据            self.outputer.output_html()            #1.首先编写main函数if __name__=="__main__":    #2.编写入口的url    root_url = "http://www.bmw.com.cn/zh_CN/index.html"    obj_spider = SpiderMain()     #3.启动爬虫    obj_spider.craw(root_url)*********************************************************************
这个是parser
#coding:utf8
from bs4 import BeautifulSoup
import re
import urlparse


class HtmlParser(object):
   
    def _get_new_urls(self, page_url, soup):
        #将结果存到一个列表中
        new_urls = set()
        #/view/1234.htm
        #href="//www.bmw.com.cn/zh_CN/topics/premium_selection.html"
        #links = soup.find_all('a',href = re.compile(r"/view/\d+\.htm"))
        links = soup.find_all('a',href = re.compile(r"//www\.bmw\.com\.cn/zh_CN/topics/\w+\.htm"))
        for link in links:
            new_url = link['href']
            new_full_url = urlparse.urljoin(page_url, new_url)
            new_urls.add(new_full_url)
        return new_urls
   
    def _get_new_data(self, page_url, soup):
        res_data ={}
        
        #url
        res_data['url']=page_url
        
        # Python


        #<li class="mainNavProductItemsSeries">
        #ul class="mainNavItems"
        #<ul class="ul_level_2">
        #title_node = soup.find('ul',class_="ul_level_2").find("li")
        #res_data['title'] = title_node.get_text()
        
        #<div class="lemma-summary" label-module="lemmaSummary">

        #

免责声明:本内容仅代表回答会员见解不代表天盟观点,请谨慎对待。

版权声明:作者保留权利,不代表天盟立场。

使用道具 举报

全部参与1

得检查下正则表达式,以及对应网页url的格式是否有,是否只有四个。
检查是否有类似 xxx.htm?force=1格式的网页,这种写不进本地

使用道具 举报

发新帖

发布任务需求已有1031166位用户正在使用天盟网服务

发布分类: *
任务预算: *
需求内容: *
手机号码: *
任务商家报价为
  • 预算价 :
  • 成交价 :
  • 完工期 :
  • 质保期 :

* 最终任务项目以服务商报价、双方协商为准!