注意:因为学习平台题目是随机,选择题选项也是随机,一定注意答案对应的选项,同学们在本页按“Ctrl+F”快捷搜索题目中“关键字”就可以快速定位题目,还是不懂的话可以看这个:快速答题技巧
一、2025年秋江苏开放大学机器学习作业一单选题答案
1、关于特征选择,下列对Ridge回归和Lasso回归说法正确的是?
A、Lasso回归适用于特征选择
B、Ridge回归适用于特征选择
C、以上说法都不对
D、两个都适用于特征选择
学生答案:A
2、下列关于Min-Max标准化的说法正确的是()
A、经Min-Max标准化后的特征的样本方差不确定
B、Min-Max标准化⽅法适⽤于特征的最⼤值或最⼩值未知,样本分布⾮常离散的情况
C、经Min-Max标准化后的取值范围可以为任意实数
D、经Min-Max标准化后的特征的样本均值为0
学生答案:A
3、构建一个最简单的线性回归模型需要几个系数(只有一个特征)?
A、4
B、3
C、1
D、2
学生答案:D
4、如果我们说“线性回归”模型完美地拟合了训练样本(训练样本误差为零),则下面哪个说法是正确的?
A、不确定
B、以上答案都不对
C、测试样本误差始终为零
D、测试样本误差不可能为零
学生答案:B
5、箱线图是检测离群值的⽅法,下⾯关于箱线图的说法不正确的是?
A、箱外的两条线(胡须)分别延伸到最⼩和最⼤⾮异常点
B、箱线图中框的上边线表示上四分位数,框的下边线表示下四分位数
C、四分位距IQR=1.5(Q3-Q1),其中Q3为上四分位数,Q1为下四分位数
D、箱中⾼于上边缘和低于下边缘的值为离群点
学生答案:C
6、关于三种常见的稳健性回归方法—Huber回归、RANSAC回归和泰尔森回归,下列说法正确的是()
A、泰尔森回归比RANSAC回归在样本数量上的伸缩性(适应性)好;
B、Huber回归可以更好地应对X方向的中等大小的异常值,但是这个属性将在高维情况下消失;
C、一般情况下,泰尔森回归可以更好地处理y方向的大值异常点。
D、从回归的速度上看,一般来说,Huber回归最快,其次是RANSAC回归,最慢的是泰尔森回归;
学生答案:D
7、关于三种常⻅的稳健性回归⽅法–Huber回归、RANSAC回归和泰尔森回归,下列选项说法正确的是:
A、泰尔森回归⽐RANSAC回归在样本数量上的伸缩性(适应性)好
B、从回归的速度上看,⼀般来说,Huber回归最快,其次是RANSAC回归,最慢的是泰尔森回归
C、Huber回归可以更好地应对X⽅向的中等⼤⼩的异常值,但是这个属性将在⾼维情况下消失
D、⼀般情况下,泰尔森回归可以更好地处理y⽅向的⼤值异常点
学生答案:B
8、下列关于将连续型特征离散化后再建⽴逻辑回归模型的说法错误的是()
A、对异常数据有很强的鲁棒性,对异常数据不敏感
B、起到简化逻辑回归模型的作⽤
C、易于模型的快速迭代
D、计算结果存储不方便,不容易扩展。
学生答案:D
9、关于线性回归模型的正则化,下列选项叙述不正确的是:
A、正则化的常⽤⽅法为岭回归和LASSO,主要区别在于岭回归的⽬标函数中添加了L2惩罚函数,⽽
LASSO的⽬标函数中添加的是L1惩罚函数
B、对⽐岭回归和LASSO,岭回归更容易得到稀疏解
C、正则化可以减⼩线性回归的过度拟合和多重共线性等问题
D、在求解LASSO时,常⽤的求解算法包括坐标下降法、LARS算法和ISTA算法等
学生答案:A
10、假如我们使用Lasso回归来拟合数据集,该数据集输入特征有100个(X1,X2,…,X100)。现在,我们把其中一个特征值扩大10倍(例如是特征X1),然后用相同的正则化参数对Lasso回归进行修正。那么,下列说法正确的是?
A、特征X1很可能还包含在模型之中
B、以上说法都不对
C、特征X1很可能被排除在模型之外
D、无法确定特征X1是否被舍弃
学生答案:A
11、假设你有以下数据:输入和输出都只有一个变量。使用线性回归模型(y=wx+b)来拟合数据。那么使用留一法(Leave-One Out)交叉验证得到的均方误差是多少?
X(independentvariable) | Y(dependent variable) |
0 | 2 |
2 | 2 |
3 | 1 |
A、10/27
B、55/27
C、39/27
D、49/27
学生答案:D
12、下列关于特征选择⽬的和原则的说法正确的是()
A、与⽬标特征相关性低的特征应该优先被选择
B、特征选择能有效降低特征维度,简化模型
C、⽅差较高的特征应该被剔除
D、特征选择一般无法提升模型性能
学生答案:A
13、下列模型中属于回归模型的是?
A、ID3
B、DBSCAN
C、线性回归
D、逻辑回归
学生答案:C
14、下列关于Z-Score标准化的说法不正确的是()
A、Z-Score标准化⽅法适⽤于特征的最⼤值或最⼩值未知,样本分布⾮常离散的情况
B、经Z-Score标准化后的取值范围可以为任意实数
C、经Z-Score标准化后的特征的样本方差不确定
D、经Z-Score标准化后的特征的样本均值为0
学生答案:C
15、假如使用一个较复杂的回归模型来拟合样本数据,使用Ridge回归,调试正则化参数λ,来降低模型复杂度。若λ较大时,关于偏差(bias)和方差(variance),下列说法正确的是?
A、若λ较大时,偏差减小,方差增大
B、若λ较大时,偏差增大,方差减小
C、若λ较大时,偏差减小,方差减小
D、若λ较大时,偏差增大,方差增大
学生答案:B
二、2025年秋江苏开放大学机器学习作业一多选题答案
1、下列哪些假设是我们推导线性回归参数时遵循的(多选)?
A、X是非随机且测量没有误差的
B、模型误差在统计学上是独立的
C、X与Y有线性关系(多项式关系)
D、误差一般服从0均值和固定标准差的正态分布
学生答案:A;B;C;D
2、模型输⼊的特征通常需要是数值型的,所以需要将⾮数值型特征通过特征编码转换为数值特
征。下列选项对DataFrame对象df1中的Make字段进⾏特征编码,其中正确的是?

A、df1[‘Make’] = df1[‘Make’].replace({‘Toyota’:1, ‘Ford’:2, ‘Volvo’:3, ‘Audi’:4, ‘BMW’:5,
‘Nissan’:6})
B、df1[‘Make’] = df1[‘Make’].map({‘Toyota’:1, ‘Ford’:2, ‘Volvo’:3, ‘Audi’:4, ‘BMW’:5, ‘Ni
ssan’:6})
C、df1[‘Make’] = df1[‘Make’].str.replace({‘Toyota’:1, ‘Ford’:2, ‘Volvo’:3, ‘Audi’:4, ‘BMW
‘:5, ‘Nissan’:6})
D、from sklearn.preprocessing import LabelEncoder
le = LabelEncoder()
df1[‘Make’]=le.fit_transform(df1[“Make”])
未经授权,禁止转载,发布者:形考达人
,出处:https://www.xingkaowang.com/29415.html
免责声明:本站不对内容的完整性、权威性及其观点立场正确性做任何保证或承诺!付费为资源整合费用,前请自行鉴别。
免费答案:形考作业所有题目均出自课程讲义中,可自行学习寻找题目答案,本站内容可作为临时参考工具,但不应完全依赖,建议仅作为辅助核对答案的工具,而非直接使用!