2022 Python网络爬虫程序技术(深圳信息职业技术学院)1468345444 最新满分章节测试答案
本答案对应课程为:点我自动跳转查看
本课程起止时间为:2022-09-12到2023-01-13
项目1 爬取外汇网站数据 测验1
1、 问题:import flaskapp=flask.Flask("web")@app.route("/",_____)def index(): #…… return "hello"app.run()程序要求能接收POST数据,缺失的语句是
选项:
A:methods=["GET"]
B:methods=["POST"]
C:method=["GET"]
D:method=["POST"]
答案: 【methods=["POST"]】
2、 问题:
import re
s=”abbcabab”
——————————————
print(re.search(reg,s))
查找到”abab”,缺失的语句是
选项:
A:reg=r"(ab)+"
B:reg=r"(ab)+$"
C:reg=r"ab+$"
D:reg=r"ab+"
答案: 【reg=r"(ab)+$"】
3、 问题:import urllib.requestresp=urllib.request.urlopen("http://127.0.0.1:5000") __print(html)获取网站的HTML文本数据,缺少的语句是:
选项:
A:html=resp.read.decode()
B:html=resp.read().decode()
C:html=resp.read.encode()
D:html=resp.read().encode()
答案: 【html=resp.read().decode()】
4、 问题:import res="searching search"___print(re.search(reg,s))查找s中的第一个search字符串,缺失的语句是
选项:
A:reg=r"[a-zA-Z]+"
B:reg=r"[a-zA-Z]+$"
C:reg=r"^[a-zA-Z]+$"
D:reg=r"$[a-zA-Z]+^"
答案: 【reg=r"[a-zA-Z]+"】
5、 问题:import res="searching search"___print(re.search(reg,s))查找s中的最后一个search单词,缺失的语句是
选项:
A:reg=r"[A-Za-z]+$"
B:reg=r"^[A-Za-z]+$"
C:reg=r"^[A-Za-z]+"
D:reg=r"[A-Za-z]+"
答案: 【reg=r"[A-Za-z]+$"】
6、 问题:import rereg=r"x[^ab0-9]y"m=re.search(reg,"xayx2yxcy")print(m)结果匹配"xcy":<_sre.SRE_Match object; span=(6, 9), match=’xcy’>
选项:
A:正确
B:错误
答案: 【正确】
7、 问题:import rereg=r"x[0-9]y"m=re.search(reg,"xyx2y")print(m)结果匹配"x2y":<_sre.SRE_Match object; span=(0, 2), match=’xy’>
选项:
A:正确
B:错误
答案: 【错误】
8、 问题:import rereg=r"car\b"m=re.search(reg,"The car is black")print(m)结果匹配"car",因为"car"后面是以个空格:<_sre.SRE_Match object; span=(4, 7), match=’car’>
选项:
A:正确
B:错误
答案: 【正确】
9、 问题:import rereg=r"ab?"m=re.search(reg,"cabcabc")print(m)结果匹配"a\b":<_sre.SRE_Match object; span=(1, 4), match=’ab’>
选项:
A:正确
B:错误
答案: 【错误】
10、 问题:import res="xaabababy"m=re.search(r"ab|ba",s)print(m)结果匹配"ab"或者"ba"都可以:<_sre.SRE_Match object; span=(2, 4), match=’ba’>
选项:
A:正确
B:错误
答案: 【错误】
项目2 爬取天气预报数据 测验2
1、 问题:查找文档中所有<p>超级链接包含的文本值from bs4 import BeautifulSoupdoc=”'<html><head><title>The Dormouse’s story</title></head><body><p class="title"><b>The Dormouse’s story</b></p><p class="story">Once upon a time there were three little sisters; and their names were<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;and they lived at the bottom of a well.</p><p class="story">…</p></body></html>”’soup=BeautifulSoup(doc,"lxml")______for tag in tags: ____缺失的语句是:
选项:
A:tags=soup.find("p"); print(tag.text)
B:tags=soup.find("p"); print(tag["text"])
C:tags=soup.find_all("p"); print(tag.text)
D:tags=soup.find_all("p"); print(tag["text"])
答案: 【tags=soup.find_all("p"); print(tag.text)】
2、 问题:找出文档中<p class="title"><b>The Dormouse’s story</b></p>的<b>元素节点的所有父节点的名称。from bs4 import BeautifulSoupdoc=”'<html><head><title>The Dormouse’s story</title></head><body><p class="title"><b>The Dormouse’s story</b></p><p class="story">Once upon a time there were three little sisters; and their names were<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;and they lived at the bottom of a well.</p><p class="story">…</p></body></html>”’soup=BeautifulSoup(doc,"lxml")print(soup.name)_____while tag: print(tag.name) _______缺失的语句是:
选项:
A:tag=soup.find("b"); tag=tag.parent
B:tag=soup.find("b"); tag=tag["parent"]
C:tag=soup.find_all("b"); tag=tag.parent
D:tag=soup.find_all("b"); tag=tag["parent"]
答案: 【tag=soup.find("b"); tag=tag.parent】
3、 问题:获取<p>元素的所有直接子元素节点from bs4 import BeautifulSoupdoc=”'<html><head><title>The Dormouse’s story</title></head><body><p class="title"><b>The <i>Dormouse’s</i> story</b> Once upon a time …</p></body></html>”’soup=BeautifulSoup(doc,"lxml")____for x in ______: print(x)缺失的语句是:
选项:
A:tag=soup.find("p"); tag.children
B:tag=soup.find("p"); tag.child
C:tag=soup.find_all("p"); tag.children
D:tag=soup.find_all("p"); tag.child
答案: 【tag=soup.find("p"); tag.children】
4、 问题:获取<p>元素的所有子孙元素节点from bs4 import BeautifulSoupdoc=”'<html><head><title>The Dormouse’s story</title></head><body><p class="title"><b>The <i>Dormouse’s</i> story</b> Once upon a time …</p></body></html>”’soup=BeautifulSoup(doc,"lxml")______for x in ______: print(x)缺失的语句是:
选项:
A:tag=soup.find("p"); tag.children
B:tag=soup.find("p"); tag.descendants
C:tag=soup.find_all("p"); tag.children
D:tag=soup.find_all("p"); tag.descendants
答案: 【tag=soup.find("p"); tag.descendants】
5、 问题:soup.select("a") 查找文档中所有<a>元素节点;
选项:
A:正确
B:错误
答案: 【正确】
6、 问题:soup.select("p a") 查找文档中所有<p>节点下的所有<a>元素节点;
选项:
A:正确
B:错误
答案: 【正确】
7、 问题:soup.select("p[class=’story’] a") 查找文档中所有属性class="story"的<p>节点下的所有<a>元素节点;
选项:
A:正确
B:错误
答案: 【正确】
8、 问题:soup.select("p[class] a") 查找文档中所有具有class属性的<p>节点下的所有<a>元素节点;
选项:
A:正确
B:错误
答案: 【正确】
9、 问题:soup.select("a[id=’link1′]") 查找属性id="link1"的<a>节点;
选项:
A:正确
B:错误
答案: 【正确】
10、 问题:soup.select("body head title") 查找<body>下面<head>下面的<title>节点;
选项:
A:正确
B:错误
答案: 【正确】
项目3 爬取旅游网站数据 测验3
1、 问题:def spider(url): #获取新的地址newUrl if newUrl: spider(newUrl)下面说法正确的是:
选项:
A:不是递归调用
B:一定会出现死循环
C:找不到newUrl时会结束递归调用
D:找不到newUrl时也不会结束递归调用
答案: 【找不到newUrl时会结束递归调用】
2、 问题:深度优先爬取说法正确的是
选项:
A:结果与递归调用爬取一样
B:结果与递归调用爬取不一样
C:效率比函数递归调用爬取低
D:效率比函数递归调用爬取高
答案: 【结果与递归调用爬取一样】
3、 问题:广度优先爬取数据,说法正确的是:
选项:
A:爬取数据的顺序与深度优先的不同
B:爬取数据的顺序与深度优先的相同
C:爬取数据的顺序与函数递归方法相同
D:都不对
答案: 【爬取数据的顺序与深度优先的不同】
4、 问题:有一个dowbload(url)函数下载url图像:import threadingdef download(url): pass用多线程调用它,方法是:
选项:
A:T=threading.Thread(target=download,args=[url])T.start()
B:T=threading.Thread(target=download,args=url)T.start()
C:T=threading.Thread(target=download,args=(url))T.start()
D:都不对
答案: 【T=threading.Thread(target=download,args=[url])T.start()】
5、 问题:爬取网站的很多图片时,说法正确是:
选项:
A:使用单线程效率高,程序简单
B:使用单线程效率高,程序复杂
C:使用多线程效率高,程序简单
D:使用多线程效率高,程序复杂
答案: 【使用多线程效率高,程序复杂】
6、 问题:url="http://www.weather.com.cn/weather/101280601.shtml"headers={"User-Agent":"Mozilla/5.0 (Windows; U; Windows NT 6.0 x64; en-US; rv:1.9pre) Gecko/2008072421 Minefield/3.0.2pre"}req=urllib.request.Request(url,headers=headers)data=urllib.request.urlopen(req)data=data.read()其中headers的作用是为了模拟浏览器
选项:
A:正确
B:错误
答案: 【正确】
7、 问题:soup.select("body [class] a") 查找<body>下面所有具有class属性的节点下面的<a>节点;
选项:
A:正确
B:错误
答案: 【正确】
8、 问题:soup.select("body [class] ") 查找<body>下面所有具有class属性的节点;
选项:
A:正确
B:错误
本文章不含期末不含主观题!!
本文章不含期末不含主观题!!
支付后可长期查看
有疑问请添加客服QQ 2356025045反馈
如遇卡顿看不了请换个浏览器即可打开
请看清楚了再购买哦,电子资源购买后不支持退款哦