Python整站爬虫开发v1

整站爬虫之-递归算法
1、递归的定义
递归就是子程序(或函数)直接调用自己或通过一系列调用语句间接调用自己,是一种描述问题和解决问题的基本方法。

递归常与分治思想同时使用,能产生许多高校的算法。递归常用来解决结构相似的问题。所谓结构相似,是指构成原问题的子问题与原问题在结构上相似,可以用类似的方法解决。具体地,整个问题的解决,可以分为两部分:第一部分是一些特殊情况,有直接的解法;第二部分与原问题相似,但比原问题的规模小,并且依赖第一部分的结果。。实际上,递归是把一个不能或不好解决的大问题转化成一个或几个小问题,再把这些小问题进一步分解成更小的小问题,直至每个小问题都可以直接解决。

因此,递归有两个基本要素:
(1) 边界条件:确定递归到何时终止,也称为递归出口。
(2) 递归模式:大问题是如何分解为小问题的,也称为递归体。
递归函数只有具备了这两个要素,才能在有限次计算后得出结果。

Python整站爬虫v1,既然是v1版本,“边界条件”先跳过~~~

#coding=utf-8

#整站爬虫,版本v1>>>>>>>>>>>>>>>>


import StringIO,pycurl,time,random,os,csv,urllib,urllib2,requests,re
op_csv=open('url.csv','a')
r = re.compile(r'<a href="(.+?)"')
daili_list=[]

def get_urls_from_url(url):
	try:
		# opener = urllib.urlopen(url)
		# contents = opener.read()
		# g = r.finditer(contents)
		# opener.close()
		# return g
		# ip=ip()
		c = pycurl.Curl()
		c.setopt(pycurl.MAXREDIRS,5)
		c.setopt(pycurl.REFERER, url)
		c.setopt(pycurl.FOLLOWLOCATION, True)
		c.setopt(pycurl.CONNECTTIMEOUT, 120)
		c.setopt(pycurl.TIMEOUT,120)
		c.setopt(pycurl.ENCODING,'gzip,deflate')
		# c.setopt(c.PROXY,ip)
		c.fp = StringIO.StringIO()
		c.setopt(pycurl.URL, url)
		# c.setopt(pycurl.HTTPHEADER,headers)
		c.setopt(c.WRITEFUNCTION, c.fp.write)
		c.perform()
		#code = c.getinfo(c.HTTP_CODE) 返回状态码
		html = c.fp.getvalue()
		html = r.finditer(html)
		return html
	except:
		return []


def panduan(url_data):
	if 'xxx.com' in url_data:
		url=url_data.strip()
	else:
		url = 'https://www.xxx.com'+url_data
	return url

#应该是叫递归算法,请指正#
def get_url(url,data_cache):
	urls =  get_urls_from_url(url)
	if urls is []:
		return
	for url in urls:
		url_data=url.groups()[0]
		url=panduan(url_data)
		if url not in data_cache:
			data_cache.append(url)
			op_csv.writelines('%s\n'%url)
			print url
		else:
			continue

		get_url(url,data_cache)


data_cache = []
l=[]
get_url("https://www.xxx.com/",data_cache)


1 thought on “Python整站爬虫开发v1”

Leave a Comment