注意:因为学习平台题目是随机,选择题选项也是随机,一定注意答案对应的选项,同学们在本页按“Ctrl+F”快捷搜索题目中“关键字”就可以快速定位题目,还是不懂的话可以看这个:快速答题技巧
一、2025年秋江苏开放大学机器学习作业二单选题答案
1、下列有关轮廓系数的说法错误的是()
A、某个样本的轮廓系数近似为0,说明该样本在两个簇的边界上
B、所有样本的轮廓系数均值为聚类结果的轮廓系数,是该聚类是否合理、有效的度量
C、某个样本的轮廓系数的绝对值接近1,说明该样本聚类结果合理
D、某个样本的轮廓系数接近1,说明该样本聚类结果合理
正确答案:C
2、下列有关特征抽取和特征选择的说法有误的⼀项是()
A、特征抽取的⽬标是根据原始的d个特征的组合形成k个新的特征,即将数据从d维空间映射到k维空间
B、特征选择的⽬标是从原始的d个特征中选择k个特征
C、PCA和LDA是特征选择的两种主要⽅法
D、特征抽取和特征选择是达到降维⽬的的两种途径
正确答案:C
3、下图给出了三个节点的相关信息,请给出特征A1、A2及A3的特征重要性递减排序()

A、A1>A2>A3
B、A3>A1>A2
C、A2>A3>A1
D、所给信息不⾜。
正确答案:B
4、下列有关词袋表示法的理解有误的是()
A、不考虑词语出现的顺序,每个出现过的词汇单独作为⼀列特征
B、将每个⽂本对应词表转化为特征向量
C、不重复的特征词汇集合为词表
D、仅出现在少数本⽂的词汇,⼀般被标记为停⽤词不计⼊特征向量
正确答案:D
5、兰德系数和轮廓系数都是常⽤的聚类分析指标,以下对兰德系数和轮廓系数说法错误的是
A、兰德系数取值为[0,1],越⼤聚类结果与真实情况越接近
B、调整兰德系数取值范围为[-1,1],负数代表结果不好,越接近于0越好
C、在聚类结果随机产⽣的情况下,兰德系数不能保证系数接近于0、D、轮廓系数适⽤于实际类别信息未知的情况
正确答案:B
6、关于三种常⻅的稳健性回归⽅法–Huber回归、RANSAC回归和泰尔森回归,下列选项说法
正确的是:
A、Huber回归可以更好地应对X⽅向的中等⼤⼩的异常值,但是这个属性将在⾼维情况下消失
B、从回归的速度上看,⼀般来说,Huber回归最快,其次是RANSAC回归,最慢的是泰尔森回归
C、⼀般情况下,泰尔森回归可以更好地处理y⽅向的⼤值异常点
D、泰尔森回归⽐RANSAC回归在样本数量上的伸缩性(适应性)好
正确答案:B
7、下列有关DBSCAN聚类算法的理解有误的⼀项是()
A、不需要预先设置聚类数量k
B、可以对任意形状的⾼密度数据集进⾏聚类,相对的,K-Means之类的聚类算法⼀般只适⽤于凸数据
集
C、调参相对于传统的K-Means之类的聚类算法稍复杂,需要对距离阈值ϵ,邻域样本数阈
值MinPts联合调参,不同的参数组合对最后的聚类效果有较⼤影响
D、对数据集中的异常点敏感
正确答案:D
8、下列关于特征选择⽬的和原则的说法错误的是()
A、特征选择可以有效提升模型性能
B、⽅差较⾼的特征应该被剔除
C、特征选择能有效降低特征维度,简化模型
D、与⽬标特征相关性⾼的特征应该优先被选择
正确答案:B
9、以下程序语句有误的是()
A、clf=LogisticRegression(penalty=’l2′,random_state=10,solver=’liblinear’)
B、clf=LogisticRegression(penalty=’l1′,random_state=10,solver=’liblinear’)
C、clf=LogisticRegression(penalty=’l1′,random_state=10,solver=’lbfgs’)
D、clf=LogisticRegression(penalty=’l2′,solver=’newton-cg’)
正确答案:C
10、下列有关包裹式和嵌⼊式特征选择的说法错误的是()
A、Scikit-learn中实现嵌⼊式特征选择的类SelectFromModel必须与有feature_importances_或
者coef_属性的模型⼀起使⽤,如随机森林和逻辑回归
B、Scikit-learn中实现嵌⼊式特征选择的类有SelectFromModel、RFE和RFECV
C、包裹式特征选择的思想是把特征选择看做⼀个特征⼦集搜索问题,筛选各个特征⼦集,⽤模型评
估各个⼦集的效果
D、嵌⼊式特征选择的思想是根据模型分析特征的重要性,常⽤正则化⽅式来做特征选择
正确答案:B
11、下列关于软投票说法错误的是?
A、软投票过程中每个基分类器都预测⼀个类别
B、可以对每个基分类器设置权重,⽤于对预测概率求进⾏加权平均
C、投票表决器可以组合不同的基分类器
D、使用概率平均的⽅式来预测样本类别
正确答案:A
12、下列有关过滤式特征选择的说法错误的是()
A、过滤式特征选择的缺点是只评估了单个特征对结果的影响,没有考虑到特征之间的相关作⽤,可能
剔除有⽤的相关特征
B、Scikit-learn中实现过滤式特征选择的SelectKBest类可以指定过滤个数,SelectPercentile类
可以指定过滤百分⽐
C、过滤式特征选择的评价指标主要有Pearson相关系数,互信息,距离相关度等;其中卡⽅检
验(chi2),F检验回归(f_regression),互信息回归(mutual_info_regression)⽤于回归问
题,F检验分类(f_classif),互信息分类(mutual_info_classif)⽤于分类问题
D、过滤式特征选择的⽅法是评估单个特征和结果值之间的相关程度,留下相关程度靠前的特征
正确答案:C
13、下列有关ROC曲线与AUC的描述错误的是
A、ROC曲线越靠近(0,1)证明模型整体预测能⼒越差
B、AUC的⼏何意义为ROC曲线与横轴FPR之间的⾯积
C、ROC曲线可以⽤来考察模型的预测能⼒
D、AUC的取值为[0.5,1]
正确答案:A
14、以下四个算法中,哪个不属于Scikit-learn聚类的主要算法()
A、neighbors.KNeighborsRegressor
B、cluster.SpectralClustering
C、cluster.AgglomerativeClustering
D、cluster.KMeans
未经授权,禁止转载,发布者:形考达人
,出处:https://www.xingkaowang.com/30688.html
免责声明:本站不对内容的完整性、权威性及其观点立场正确性做任何保证或承诺!付费为资源整合费用,前请自行鉴别。
免费答案:形考作业所有题目均出自课程讲义中,可自行学习寻找题目答案,本站内容可作为临时参考工具,但不应完全依赖,建议仅作为辅助核对答案的工具,而非直接使用!