2020 人工智能与深度学习基础-王晓军(71171212K-02)(东北财经大学) 最新满分章节测试答案
- 【作业】第1讲 BigData&AI思维篇01-认识大数据 第1讲 作业
- 【作业】第5讲 BigDat&AI技术篇02-Python快速入门(一) 作业2:提交第5讲视频中的代码
- 【作业】第6讲 BigDat&AI技术篇02-Python快速入门(二) 作业3:提交第6讲视频中的代码
- 【作业】第8讲 BigData&AI技术篇04-TensorFlow 编程基础 作业4
- 【作业】第9讲 BigDat&AI技术篇05-单变量线性回归:TesnsorFlow实战 作业5
- 第10讲 BigDat&AI技术篇06-机器学习中的基本线性代数 单元测试1
- 【作业】第11讲 BigDat&AI技术篇07-多元线性回归:波士顿房价预测问题TensorFlow实战 作业7:提交第11讲第三版或第四版的模型代码,截止日期5月17日23:30,代码完整、作业文件
- 第12讲 BigDat&AI技术篇08- MNIST手写数字识别:分类应用入门(一) 单元测试2
- 【作业】第12讲 BigDat&AI技术篇08- MNIST手写数字识别:分类应用入门(一) 作业8
- 【作业】第13讲 BigDat&AI技术篇08- MNIST手写数字识别:分类应用入门(二) 作业9
- 第13讲 BigDat&AI技术篇08- MNIST手写数字识别:分类应用入门(二) 单元测试3
- 第14讲 MNIST手写数字识别进阶:多层神经网络与应用 单元测试4
- 【作业】第14讲 MNIST手写数字识别进阶:多层神经网络与应用 作业10
- 【作业】第15讲 BigDat&AI技术篇10-泰坦尼克号旅客生存预测:Keras应用实践 作业11
- 【作业】第16讲 BigDat&AI技术篇11-图像识别问题:卷积神经网络与应用 作业6
- 【作业】第16讲 BigDat&AI技术篇11-图像识别问题:卷积神经网络与应用 作业12
- 【作业】第16讲 BigDat&AI技术篇11-图像识别问题:卷积神经网络与应用 附加题:第16讲代码
- 【作业】第17讲 BigData&AI技术篇12-猫狗大战:迁移学习及应用 补交作业
- 【作业】第17讲 BigData&AI技术篇12-猫狗大战:迁移学习及应用 附加题2-第17讲
本答案对应课程为:点我自动跳转查看
本课程起止时间为:2020-03-02到2020-07-03
本篇答案更新状态:已完结
【作业】第1讲 BigData&AI思维篇01-认识大数据 第1讲 作业
1、 问题:以“我在视频中学到了哪些大数据知识?”为方向,写一篇500字左右的学习总结
评分规则: 【 每总结一个知识点获10分
】
【作业】第5讲 BigDat&AI技术篇02-Python快速入门(一) 作业2:提交第5讲视频中的代码
1、 问题:提交第5讲视频中的代码
评分规则: 【 代码完整为满分100
】
【作业】第6讲 BigDat&AI技术篇02-Python快速入门(二) 作业3:提交第6讲视频中的代码
1、 问题:提交第6讲视频中的代码
评分规则: 【 代码完整为满分100
】
【作业】第8讲 BigData&AI技术篇04-TensorFlow 编程基础 作业4
1、 问题:提交第8讲视频中的代码(包括随堂习题),截止日期4月26日23:30,代码完整、作业文件命名正确、提交方式正确为满分100
评分规则: 【 提交第8讲视频中的代码(包括随堂习题),截止日期4月26日23:30,代码完整、作业文件命名正确、提交方式正确为满分100
】
【作业】第9讲 BigDat&AI技术篇05-单变量线性回归:TesnsorFlow实战 作业5
1、 问题:提交第9讲视频中的代码,截止日期5月5日23:30
评分规则: 【 代码完整、作业文件命名正确、提交方式正确为满分100。
】
第10讲 BigDat&AI技术篇06-机器学习中的基本线性代数 单元测试1
1、 问题:计算
选项:
A:
B:
C:
D:
答案: 【
2、 问题:如果矩阵乘,除,或者加、减一个标量,即:对矩阵的()元素进行数学运算。
选项:
A:每一个
B:第一列
C:第一行
D:第一行第一列
答案: 【每一个】
3、 问题:计算
选项:
A:不符合矩阵减法运算规则
B:
C:
D:
答案: 【不符合矩阵减法运算规则】
4、 问题:矩阵-矩阵加法和减法要求是矩阵具有相同的()
选项:
A:尺寸,即行数和列数都相等
B:行数
C:列数
D:元素数
答案: 【尺寸,即行数和列数都相等】
5、 问题:计算
选项:
A:
B:0
C:
D:
答案: 【
6、 问题:下列代码的运行结果()import numpy as npa=np.array([[1,2],[3,4]])b=np.array([[4,3],[2,1]])print(a*b)
选项:
A:[[4 6] [6 4]]
B:[[8 5][20 13]]
C:46
D:报错
答案: 【[[4 6] [6 4]]】
7、 问题:下列代码的运行结果()a=np.array([[1,2],[3,4]])b=np.array([[4,3],[2,1]])print(np.matmul(a,b))
选项:
A:[[8 5][20 13]]
B:[[4 6][6 4]]
C:报错
D:20
答案: 【[[8 5][20 13]]】
8、 问题:下列代码的运行结果()import numpy as npa=np.array([[1,2],[3,4]])b=np.array([[4,3],[2,1]])print(np.multiply(a,b))
选项:
A:[[4 6][6 4]]
B:20
C:报错
D:[[8 5][20 13]]
答案: 【[[4 6][6 4]]】
9、 问题:下列代码的运行结果()import numpy as npa=np.array([[1,2],[3,4]])b=np.array([[4],[2]])print(a*b)
选项:
A:[[4 8] [6 8]]
B:报错
C:[[ 8] [20]]
D:26
答案: 【[[4 8] [6 8]]】
10、 问题:下列代码的运行结果()import numpy as npa=np.array([[1,2],[3,4]])b=np.array([[4],[2]])print(np.matmul(a,b))
选项:
A:[[ 8] [20]]
B:[[4 8] [6 8]]
C:28
D:报错
答案: 【[[ 8] [20]]】
11、 问题:下列代码的运行结果()import numpy as npa=np.array([[1,2],[3,4]])b=np.array([[4],[2]])print(np.multiply(a,b))
选项:
A:[[4 8] [6 8]]
B:报错
C:28
D:[[ 8] [20]]
答案: 【[[4 8] [6 8]]】
12、 问题:下列程序中运行结果为 [[8]] 的是()
选项:
A:import numpy as npa=np.array([[1,2]])b=np.array([[4],[2]])print(np.matmul(a,b))
B:import numpy as npa=np.array([[1,2]])b=np.array([[4],[2]])print(np.multiply(a,b))
C:import numpy as npa=np.array([[1,2]])b=np.array([[4],[2]])print(a*b)
D:都不能输出[[8]]
答案: 【import numpy as npa=np.array([[1,2]])b=np.array([[4],[2]])print(np.matmul(a,b)) 】
13、 问题:从标签化训练数据集中推断出函数的机器学习任务是()
选项:
A:有监督学习
B:无监督学习
C:强化学习
D:半监督学习
答案: 【有监督学习】
14、 问题:样本数据如下x12345y21465假设学习到的模型为y=x+1,则L1损失为()
选项:
A:4
B:2
C:16
D:3
答案: 【4】
15、 问题:样本数据如下x12345y25469假设学习到的模型为y=2x,则L2损失为()
选项:
A:10
B:6
C:36
D:8
答案: 【10】
16、 问题:样本数据如下x12345y25469假设学习到的模型为y=2x,则均方误差为()
选项:
A:2.0
B:1.2
C:7.2
D:1.6
答案: 【2.0】
17、 问题:样本数据如下x12345y3.55689则拟合y=x+4和拟合y=2x哪个的均方误差较大()
选项:
A:一样大
B:y=x+3
C:y=2x
D:不能确定
本文章不含期末不含主观题!!
本文章不含期末不含主观题!!
支付后可长期查看
有疑问请添加客服QQ 2356025045反馈
如遇卡顿看不了请换个浏览器即可打开
请看清楚了再购买哦,电子资源购买后不支持退款哦