爬虫入门教程 —— 3
常用的数据提取工具:
1 xpath 2 BeautifulSoup 3 正则表达式 。
当然了 还有一些 像jsonpath,pyquery等
为什么要用这些解析工具? 怎么使用?(下节开始我们开始带一些小案列))
为什么要用解析工具:做爬虫还有对前端了解一些,比如 css js ajax 等,因为数据我们前边说了是嵌在html 代码里面的,我们需要提取出来,试想一下化学中的提取某种东西 是不是需要各种器材,爬虫提取数据亦是如此,这些解析工具能帮助我们轻易的获取我们想要的数据。
怎么使用:每个工具啊都有自己的使用方法,和规则,只要我们按照规则就可以
xpath
xpath 是一门在xml文档中查找信息的语言。可以用来在xml文档中对元素和属性进行遍历
菜鸟教程 :点击打开链接 看完可以找一段简单的网页试下,chrom浏览器还有一些页面的解析工具,很方便
BeautifulSoup
# from bs4 import BeautifulSoup
soup = BeautifulSoup('<a onclick='xx' href='xx'>xx</a>', 'html.parser')
a = soup.select('a')[0]
onclick = a.get('onclick')
print(onclick) #xx
获得一个元素后,使用get('attr')可以得到value
string 方法,输出结果与当前唯一子节点的 .string 结果相同。
通俗点说就是:如果一个标签里面没有标签了,那么 .string 就会返回标签里面的内容。
如果标签里面只有唯一的一个标签了,那么 .string 也会返回最里面的内容。
如果超过一个标签的话,那么就会返回None
print soup.head.string
#The Dormouse's story
print soup.title.string
#The Dormouse's story
print soup.html.string
# None
#***find_all( name , attrs , recursive , text , **kwargs )***********!!!!!!!!!!!!!!
find_all() 方法搜索当前tag的所有tag子节点,并判断是否符合过滤器的条件
1 name 参数
name 参数可以查找所有名字为 name 的tag,字符串对象会被自动忽略掉
#第一个参数为Tag的名称
tag.find_all(‘title’)
#得到”<title>&%^&*</title>”,结果为一个列表
#第二个参数为匹配的属性
tag.find_all(“title”,class=”sister”)
#得到如”<title class = “sister”>%^*&</title>
# 第二个参数也可以为字符串,得到字符串匹配的结果
tag.find_all(“title”,”sister”)
#得到如”<title class = “sister”>%^*&</title>
A下面的例子用于查找文档中所有的<b>标签
soup.find_all('b')
# [<b>The Dormouse's story</b>]
B.传正则表达式
如果传入正则表达式作为参数,Beautiful Soup会通过正则表达式的 match() 来匹配内容.下面例子中找出所有以b开头的标签,
这表示<body>和<b>标签都应该被找到
import re
for tag in soup.find_all(re.compile('^b')):
print(tag.name)
# body
# b
C.传列表
如果传入列表参数,Beautiful Soup会将与列表中任一元素匹配的内容返回.下面代码找到文档中所有<a>标签和<b>标签
soup.find_all(['a', 'b'])
# [<b>The Dormouse's story</b>,
# <a class='sister' href='http://example.com/elsie' id='link1'>Elsie</a>,
# <a class='sister' href='http://example.com/lacie' id='link2'>Lacie</a>,
# <a class='sister' href='http://example.com/tillie' id='link3'>Tillie</a>]
D.传 True
True 可以匹配任何值,下面代码查找到所有的tag,但是不会返回字符串节点
E.传方法
2)keyword 参数
注意:如果一个指定名字的参数不是搜索内置的参数名,搜索时会把该参数当作指定名字tag的属性来搜索,
如果包含一个名字为 id 的参数,Beautiful Soup会搜索每个tag的”id”属性
soup.find_all(id='link2')
# [<a class='sister' href='http://example.com/lacie' id='link2'>Lacie</a>]
如果传入 href 参数,Beautiful Soup会搜索每个tag的”href”属性
soup.find_all(href=re.compile('elsie'))
# [<a class='sister' href='http://example.com/elsie' id='link1'>Elsie</a>]
使用多个指定名字的参数可以同时过滤tag的多个属性
soup.find_all(href=re.compile('elsie'), id='link1')
# [<a class='sister' href='http://example.com/elsie' id='link1'>three</a>]
在这里我们想用 class 过滤,不过 class 是 python 的关键词,这怎么办?加个下划线就可以
soup.find_all('a', class_='sister')
# [<a class='sister' href='http://example.com/elsie' id='link1'>Elsie</a>,
# <a class='sister' href='http://example.com/lacie' id='link2'>Lacie</a>,
# <a class='sister' href='http://example.com/tillie' id='link3'>Tillie</a>]
可以通过 find_all() 方法的 attrs 参数定义一个字典参数来搜索包含特殊属性的tag
data_soup.find_all(attrs={'data-foo': 'value'})
# [<div data-foo='value'>foo!</div>]
4)limit 参数
soup.find_all('a', limit=2)
# [<a class='sister' href='http://example.com/elsie' id='link1'>Elsie</a>,
# <a class='sister' href='http://example.com/lacie' id='link2'>Lacie</a>]
CSS选择器 用到的方法是 soup.select(),返回类型是 list 在写 CSS 时,标签名不加任何修饰,类名前加点 . id名前加 #
(1)通过标签名查找
rint soup.select('title')
#[<title>The Dormouse's story</title>]
(2)通过类名查找
print soup.select('.sister')
(3)通过 id 名查找
print soup.select('#link1')
#[<a class='sister' href='http://example.com/elsie' id='link1'><!-- Elsie --></a>]
(4)组合查找 查找 p 标签中,id 等于 link1的内容,二者需要用空格分开
print soup.select('p #link1')
直接子标签查找
print soup.select('head > title')
#[<title>The Dormouse's story</title>]
(5)属性查找
查找时还可以加入属性元素,属性需要用中括号括起来,注意属性和标签属于同一节点,所以中间不能加空格,否则会无法匹配到
print soup.select('a[class='sister']')
#[<a class='sister' href='http://example.com/elsie' id='link1'><!-- Elsie --></a>,
print soup.select('a[href='http://example.com/elsie']')
#[<a class='sister' href='http://example.com/elsie' id='link1'><!-- Elsie --></a>]
上的 select 方法返回的结果都是列表形式,可以遍历形式输出,然后用 get_text() 方法来获取它的内容
soup = BeautifulSoup(html, 'lxml')
print type(soup.select('title'))
print soup.select('title')[0].get_text()
for title in soup.select('title'):
print title.get_text()
例如 item['home_page'] = cpy1.find(class_='link-line').find_all('a')[-1].get_text().strip()
#---------------------------------------------------------------------------------------------
print soup.select('head > title') #[<title>The Dormouse's story</title>] (5)属性查找查找时还可以加入属性元素,属性需要用中括号括起来,注意属性和标签属于同一节点,所以中间不能加空格,否则会无法匹配到print soup.select('a[class='sister']') #[<a class='sister' href='http://example.com/elsie' id='link1'><!-- Elsie --></a>, print soup.select('a[href='http://example.com/elsie']') #[<a class='sister' href='http://example.com/elsie' id='link1'><!-- Elsie --></a>] 上的 select 方法返回的结果都是列表形式,可以遍历形式输出,然后用 get_text() 方法来获取它的内容soup = BeautifulSoup(html, 'lxml') print type(soup.select('title')) print soup.select('title')[0].get_text() for title in soup.select('title'): print title.get_text() 例如 item['home_page'] = cpy1.find(class_='link-line').find_all('a')[-1].get_text().strip()#---------------------------------------------------------------------------------------------
字典中的get()方法取不到会返回None, 直接用键名取 取不到报错。 json.loads可以吧str 转换成字典格式, 把json格式数据转换成python对象
# --------------------------------------------------------------------------------------------------------------------------
正则表达式
正则表达式是处理字符串的强大工具,拥有独特的语法和独立的处理引擎。
我们在大文本中匹配字符串时,有些情况用str自带的函数(比如find, in)可能可以完成,有些情况会稍稍复杂一些(比如说找出所有“像邮箱”的字符串,所有和julyedu相关的句子),这个时候我们需要一个某种模式的工具,这个时候正则表达式就派上用场了。
说起来正则表达式效率上可能不如str自带的方法,但匹配功能实在强大太多。对啦,正则表达式不是Python独有的,如果已经在其他语言里使用过正则表达式,这里的说明只需要简单看一看就可以上手啦。
1.语法。
当你要匹配 一个/多个/任意个 数字/字母/非数字/非字母/某几个字符/任意字符,想要 贪婪/非贪婪 匹配,想要捕获匹配出来的 第一个/所有 内容的时候,记得这里有个小手册供你
4.Python案例
re模块
Python通过re模块提供对正则表达式的支持。
使用re的一般步骤是
- 1.将正则表达式的字符串形式编译为Pattern实例
- 2.使用Pattern实例处理文本并获得匹配结果(一个Match实例)
- 3.使用Match实例获得信息,进行其他的操作。
# encoding: UTF-8
import re
# 将正则表达式编译成Pattern对象
pattern = re.compile(r'hello.*\!')
# 使用Pattern匹配文本,获得匹配结果,无法匹配时将返回None
match = pattern.match('hello, yangshilong! How are you?')
if match:
# 使用Match获得分组信息
print match.group()
hello, yangshilong!
re.compile(strPattern[, flag]):
这个方法是Pattern类的工厂方法,用于将字符串形式的正则表达式编译为Pattern对象。
第二个参数flag是匹配模式,取值可以使用按位或运算符'|'表示同时生效,比如re.I | re.M。
当然,你也可以在regex字符串中指定模式,比如re.compile('pattern', re.I | re.M)等价于re.compile('(?im)pattern')
flag可选值有:
- re.I(re.IGNORECASE): 忽略大小写(括号内是完整写法,下同)
- re.M(MULTILINE): 多行模式,改变'^'和'$'的行为(参见上图)
- re.S(DOTALL): 点任意匹配模式,改变'.'的行为
- re.L(LOCALE): 使预定字符类 \w \W \b \B \s \S 取决于当前区域设定
- re.U(UNICODE): 使预定字符类 \w \W \b \B \s \S \d \D 取决于unicode定义的字符属性
- re.X(VERBOSE): 详细模式。这个模式下正则表达式可以是多行,忽略空白字符,并可以加入注释。以下两个正则表达式是等价的:
regex_1 = re.compile(r'''\d + # 数字部分
\. # 小数点部分
\d * # 小数的数字部分''', re.X)
regex_2 = re.compile(r'\d+\.\d*')
Match
Match对象是一次匹配的结果,包含了很多关于此次匹配的信息,可以使用Match提供的可读属性或方法来获取这些信息。
match属性:
- string: 匹配时使用的文本。
- re: 匹配时使用的Pattern对象。
- pos: 文本中正则表达式开始搜索的索引。值与Pattern.match()和Pattern.seach()方法的同名参数相同。
- endpos: 文本中正则表达式结束搜索的索引。值与Pattern.match()和Pattern.seach()方法的同名参数相同。
- lastindex: 最后一个被捕获的分组在文本中的索引。如果没有被捕获的分组,将为None。
- lastgroup: 最后一个被捕获的分组的别名。如果这个分组没有别名或者没有被捕获的分组,将为None。
方法:
- group([group1, …]):
获得一个或多个分组截获的字符串;指定多个参数时将以元组形式返回。group1可以使用编号也可以使用别名;编号0代表整个匹配的子串;不填写参数时,返回group(0);没有截获字符串的组返回None;截获了多次的组返回最后一次截获的子串。 - groups([default]):
以元组形式返回全部分组截获的字符串。相当于调用group(1,2,…last)。default表示没有截获字符串的组以这个值替代,默认为None。 - groupdict([default]):
返回以有别名的组的别名为键、以该组截获的子串为值的字典,没有别名的组不包含在内。default含义同上。 - start([group]):
返回指定的组截获的子串在string中的起始索引(子串第一个字符的索引)。group默认值为0。 - end([group]):
返回指定的组截获的子串在string中的结束索引(子串最后一个字符的索引+1)。group默认值为0。 - span([group]):
返回(start(group), end(group))。 - expand(template):
将匹配到的分组代入template中然后返回。template中可以使用\id或\g、\g引用分组,但不能使用编号0。\id与\g是等价的;但\10将被认为是第10个分组,如果你想表达\1之后是字符'0',只能使用\g<1>0。
import re
m = re.match(r'(\w+) (\w+)(?P<sign>.*)', 'hello hanxiaoyang!')
print 'm.string:', m.string
print 'm.re:', m.re
print 'm.pos:', m.pos
print 'm.endpos:', m.endpos
print 'm.lastindex:', m.lastindex
print 'm.lastgroup:', m.lastgroup
print 'm.group(1,2):', m.group(1, 2)
print 'm.groups():', m.groups()
print 'm.groupdict():', m.groupdict()
print 'm.start(2):', m.start(2)
print 'm.end(2):', m.end(2)
print 'm.span(2):', m.span(2)
print r'm.expand(r'\2 \1\3'):', m.expand(r'\2 \1\3')
m.string: hello hanxiaoyang!
m.re: <_sre.SRE_Pattern object at 0x10b111be0>
m.pos: 0
m.endpos: 18
m.lastindex: 3
m.lastgroup: sign
m.group(1,2): ('hello', 'hanxiaoyang')
m.groups(): ('hello', 'hanxiaoyang', '!')
m.groupdict(): {'sign': '!'}
m.start(2): 6
m.end(2): 17
m.span(2): (6, 17)
m.expand(r'\2 \1\3'): hanxiaoyang hello!
Pattern
Pattern对象是一个编译好的正则表达式,通过Pattern提供的一系列方法可以对文本进行匹配查找。
Pattern不能直接实例化,必须使用re.compile()进行构造。
Pattern提供了几个可读属性用于获取表达式的相关信息:
- pattern: 编译时用的表达式字符串。
- flags: 编译时用的匹配模式。数字形式。
- groups: 表达式中分组的数量。
- groupindex: 以表达式中有别名的组的别名为键、以该组对应的编号为值的字典,没有别名的组不包含在内。
import re
p = re.compile(r'(\w+) (\w+)(?P<sign>.*)', re.DOTALL)
print 'p.pattern:', p.pattern
print 'p.flags:', p.flags
print 'p.groups:', p.groups
print 'p.groupindex:', p.groupindex
p.pattern: (\w+) (\w+)(?P<sign>.*)
p.flags: 16
p.groups: 3
p.groupindex: {'sign': 3}
使用pattern
match(string[, pos[, endpos]]) | re.match(pattern, string[, flags]):
这个方法将从string的pos下标处起尝试匹配pattern:如果pattern结束时仍可匹配,则返回一个Match对象
如果匹配过程中pattern无法匹配,或者匹配未结束就已到达endpos,则返回None。
pos和endpos的默认值分别为0和len(string)。
注意:这个方法并不是完全匹配。当pattern结束时若string还有剩余字符,仍然视为成功。想要完全匹配,可以在表达式末尾加上边界匹配符'$'。
search(string[, pos[, endpos]]) | re.search(pattern, string[, flags]):
这个方法从string的pos下标处起尝试匹配pattern如果pattern结束时仍可匹配,则返回一个Match对象
若无法匹配,则将pos加1后重新尝试匹配,直到pos=endpos时仍无法匹配则返回None。
pos和endpos的默认值分别为0和len(string)
# encoding: UTF-8
import re
# 将正则表达式编译成Pattern对象
pattern = re.compile(r'H.*g')
# 使用search()查找匹配的子串,不存在能匹配的子串时将返回None
# 这个例子中使用match()无法成功匹配
match = pattern.search('hello Hanxiaoyang!')
if match:
# 使用Match获得分组信息
print match.group()
Hanxiaoyang
- split(string[, maxsplit]) | re.split(pattern, string[, maxsplit]):
- 按照能够匹配的子串将string分割后返回列表。
- maxsplit用于指定最大分割次数,不指定将全部分割。
import re
p = re.compile(r'\d+')
print p.split('one1two2three3four4')
['one', 'two', 'three', 'four', '']
- findall(string[, pos[, endpos]]) | re.findall(pattern, string[, flags]):
import re
p = re.compile(r'\d+')
print p.findall('one1two2three3four4')
['1', '2', '3', '4']
- finditer(string[, pos[, endpos]]) | re.finditer(pattern, string[, flags]):
- 搜索string,返回一个顺序访问每一个匹配结果(Match对象)的迭代器。
import re
p = re.compile(r'\d+')
for m in p.finditer('one1two2three3four4'):
print m.group()
1
2
3
4
sub(repl, string[, count]) | re.sub(pattern, repl, string[, count]):
使用repl替换string中每一个匹配的子串后返回替换后的字符串。
当repl是一个字符串时,可以使用\id或\g、\g引用分组,但不能使用编号0。
当repl是一个方法时,这个方法应当只接受一个参数(Match对象),并返回一个字符串用于替换(返回的字符串中不能再引用分组)。 count用于指定最多替换次数,不指定时全部替换。
import re
p = re.compile(r'(\w+) (\w+)')
s = 'i say, hello hanxiaoyang!'
print p.sub(r'\2 \1', s)
def func(m):
return m.group(1).title() + ' ' + m.group(2).title()
print p.sub(func, s)
say i, hanxiaoyang hello!
I Say, Hello Hanxiaoyang!
subn(repl, string[, count]) |re.sub(pattern, repl, string[, count]):
返回 (sub(repl, string[, count]), 替换次数)。
import re
p = re.compile(r'(\w+) (\w+)')
s = 'i say, hello hanxiaoyang!'
print p.subn(r'\2 \1', s)
def func(m):
return m.group(1).title() + ' ' + m.group(2).title()
print p.subn(func, s)
('say i, hanxiaoyang hello!', 2)
('I Say, Hello Hanxiaoyang!', 2)