21春学期(1709、1803、1809、1903、1909、2003、2009、2103)《网络爬虫与信息提取》在线作业
1.[单选题] 通常使用()工具来模拟浏览器进行爬虫请求
A.Selenium
B.Chrome
C.ChromeDriver
D.WebDriver
答:——A——
2.[单选题] 下面代码一共执行循环多少次():
for i in range(10):
print(i ** i)
A.9
B.10
C.11#0
答:——B——
3.[单选题] Redis是()数据库
A.关系数据库
B.键值数据库
C.列存数据库
D.图数据库
答:——B——
4.[单选题] Python中跳过本次循环应用关键字()
A.break
B.continue
C.exit
D.return
答:————
5.[单选题] 打码平台一般通过()识别验证码。
A.人工识别
B.机器学习识别
C.光学字符识别
D.深度学习识别
答:————
6.[单选题] PyMongo中逻辑查询表示等于的符号是()
A.$gt
B.$lt
C.$eq$$ne
答:————
7.[单选题] 带上通过Chrome浏览器从评论页面复制而来的()再发起请求,可以减少爬虫被网站封锁的概率
A.Cookie
B.Html
C.Headers
D.CSS
答:————
8.[单选题] Python中以下哪个容器里的元素不能重复()
A.列表
B.元组
C.字典
D.集合
答:————
9.[单选题] Redis中往集合中读数据,使用关键字()
A.pop
B.spop
C.lpop
D.range
答:————
10.[单选题] Redis是一个开源的使用()语言编写
A.ANSI C
B.C++
C.JAVA
D.Python
答:————
11.[单选题] 可以通过()绕过网站登录。
A.session
B.cookies
C.moonpies
D.localstorage
答:————
12.[单选题] 使用了RedisSpider作为爬虫的父类以后,爬虫会直接监控()中的数据,并不读取start_urls中的数据。
A.Redis
B.RedisSpider
C.Spider
D.MongoDB
答:————
13.[单选题] HTTP常用状态码表明服务器上没有请求的资源的是()
A.500
B.503
C.403
D.404
答:————
14.[单选题] Redis中从集合中查看有多少个值,用关键字()
A.scard
B.card
C.count
D.distinct
答:————
15.[单选题] 采用以下()技术可以实现异步加载奥鹏南开答案q599792222 或请进 opzy.net
A.HTML
B.AJAX
C.CSS
D.HTTP
答:————
16.[单选题] 当爬虫创建好了之后,可以使用”scrapy()” 命令运行爬虫。
A.startup
B.starwar
C.drawl
D.crawl
答:————
17.[单选题] 使用UI Automatorr输入文字的操作是得到相应控件后使用命令()
A.settext
B.set
C.set_text
D.text
答:————
18.[单选题] 要使用Python来操作UI Automator从而控制手机,需要安装一个第三方库()
A.uiautomator
B.automator
C.ui_automator
D.pyautomator
答:————
19.[单选题] 使用xpath方法的返回类型是()
A.列表
B.元组
C.字典
D.集合
答:————
20.[单选题] Python中列表可以用()方法在末尾添加元素
A.add
B.append
C.plus
D.+
答:————
21.[多选题] Redis中的值可以支持()
A.列表
B.哈希
C.集合
D.有序集合
答:————
22.[多选题] 以下哪些方法属于Python写CSV文件的方法()
A.writeheaders
B.writeheader
C.writerrows
D.writerow
答:————
23.[多选题] 下列关于mitmproxy的使用说法正确的是()
A.mitmproxy的端口为8080端口。
B.设置好代理以后,在手机上打开一个App或者打开一个网页,可以看到mitmproxy上面有数据滚动。
C.用鼠标在终端窗口上单击其中的任意一个请求,可以显示这个数据包的详情信息。
D.如果要访问HTTPS网站,还需要安装mitmproxy的证书
答:————
24.[多选题] 如果爬虫爬取的是商业网站,并且目标网站使用了反爬虫机制,那么强行突破反爬虫机制可能构成()
A.非法侵入计算机系统罪
B.非法获取计算机信息系统数据罪
C.非法获取计算机数据罪
D.非法获取系统罪
答:————
25.[多选题] Python中一个函数可以有()个return语句
A.0
B.1
C.多个
D.2
答:————
26.[多选题] HTTP常用状态码表明表明服务器本身发生错误的有()
A.403
B.404
C.500
D.503
答:————
27.[多选题] 如果目标网站有反爬虫声明,那么对方在被爬虫爬取以后,可以根据()来起诉使用爬虫的公司
A.服务器日志
B.数据库日志记录
C.程序日志记录
D.服务器监控
答:————
28.[多选题] 常用的会话跟踪技术是
A.session
B.cookies
C.moonpies
D.localstorage
答:————
29.[多选题] Python中()与元组由类似的数据读取方式
A.字符串
B.列表
C.字典
D.集合
答:————
30.[多选题] cookies的缺点是
A.实现自动登录
B.跟踪用户状态
C.http中明文传输
D.增加http请求的流量
答:————
31.[判断题] Python中列表生成以后还可以往里面继续添加数据,也可以从里面删除数据;
A.对
B.错
答:————
32.[判断题] Redis的列表是一个单向队列
A.对
B.错
答:————
33.[判断题] requests中get请求方法的使用为requests.get(‘网址’, data=data)
A.对
B.错
答:————
34.[判断题] scrapy与selenium结合可以实现直接处理需要异步加载的页面
A.对
B.错
答:————
35.[判断题] 为了在安卓手机上安装证书,需要先发送证书到手机里面。在Charles中选择“Help”-“SSL Proxying”-“Save Charles Root Certificate”命令,可以将Charles的证书保存到计算机桌面。
A.对
B.错
答:————
36.[判断题] XPath提取出来的内容是一个SelectorList对象,它的第0个元素就是网页的源代码。
A.对
B.错
答:————
37.[判断题] 当Charles抓包以后,在Mac OS系统下可以按Command+F组合键,在Windows系统下按Ctrl+F组合键打开Charles进行搜索
A.对
B.错
答:————
38.[判断题] Python中直接对浮点数进行计算有print(0.1+0.2),则结果为0.3
A.对
B.错
答:————
39.[判断题] 在对XPath返回的对象再次执行XPath的时候,子XPath开头需要添加斜线
A.对
B.错
答:————
40.[判断题] Python中写CSV文件的writerows方法参数为字典类型
A.对
B.错
答:————
41.[判断题] 网站返回的Headers中经常有Cookies,可以用mitmdump脚本使用print函数把Cookies打印出来。
A.对
B.错
答:————
42.[判断题] 在安装Scarpy的依赖库时,由于Visual C++ Build Tools的安装速度很慢,为了节省时间,可以和安装Twisted同时进行
A.对
B.错
答:————
43.[判断题] Charles和Chrome开发者工具相比,只是多了一个搜索功能。
A.对
B.错
答:————
44.[判断题] Scrapy的工程名字不能使用”scrapy”,否则爬虫会无法运行。除此以外工程名不受限制。
A.对
B.错
答:————
45.[判断题] 在发送请求时需要注意requests提交的请求头不能与浏览器的请求头一致,因为这样才能隐藏好自己达到获取数据的目的
A.对
B.错
答:————
46.[判断题] Cookies一般包含在请求头Headers中
A.对
B.错
答:————
47.[判断题] Python中相比于findall方法,search方法对于从超级大的文本里面只找第1个数据特别有用,可以大大提高程序的运行效率。
A.对
B.错
答:————
48.[判断题] 当使用Scarpy创建爬虫时,当爬取网易云音乐首页信息时,scrapy genspider的第二个参数直接输入”163.com”就可以了
A.对
B.错
答:————
49.[判断题] chrome开发者工具没法对数据进行搜索。如果想知道一个特定的异步加载内容来自哪个请求,必须在“Network”选项卡里面一个请求一个请求地进行查看.
A.对
B.错
答:————
50.[判断题] 插入数据时,MongoDB会自动添加一列“_id”,也就是自增ID,每次自动加1
A.对
B.错
答:————