節(jié)前開(kāi)胃菜|12道人工智能試題看你能對(duì)幾道
最近學(xué)姐在想關(guān)注我的同學(xué)學(xué)什么方向的都有,怎么能讓你們同臺(tái)競(jìng)技呢?直到學(xué)姐看到一直關(guān)注的大佬的公眾號(hào)搞得答題推文,就把這些題整理了一下今天考考你們,看看你們能不能答對(duì)!
一共18道題,時(shí)間不限,可以查資料但不能不答題就看答案。
問(wèn)題1
假設(shè)有一個(gè)的dataframe類(lèi)型的表格df,其有一列A為數(shù)值類(lèi)型。其中下面哪個(gè)操作會(huì)報(bào)錯(cuò)?
A. df['A'].mean()
B. df['A'].ptp()
C. df['A'].std()
D. df['A'].min()
問(wèn)題2
給定數(shù)值分布的情況下,箱線圖計(jì)算得到離群點(diǎn)的方式是?
A. 計(jì)算Q1=30%分位點(diǎn),和Q3=70%分位點(diǎn),然后范圍Q1-1.5*(Q3-Q1) - Q3+1.5*(Q3-Q1)為正常數(shù)值范圍
B. 計(jì)算Q1=25%分位點(diǎn),和Q3=75%分位點(diǎn),然后范圍Q1-1.5*(Q3-Q1) - Q3+1.5*(Q3-Q1)為正常數(shù)值范圍
問(wèn)題3
使用LightGBM訓(xùn)練模型,可以計(jì)算得到的特征重要性。特征重要性一定可以代表特征的有效性。
A. 正確
B. 錯(cuò)誤
問(wèn)題4
在訓(xùn)練深度學(xué)習(xí)模型時(shí),SGD和Adam哪一個(gè)占用的顯存/內(nèi)存更大?
A. SGD
B. Adam
問(wèn)題5
訊飛人臉關(guān)鍵點(diǎn)檢測(cè)比賽需要選手識(shí)別出人臉的4個(gè)關(guān)鍵點(diǎn),給定的圖像尺寸為96*96。關(guān)鍵點(diǎn)坐標(biāo)作為標(biāo)簽,此時(shí)損失函數(shù)和標(biāo)簽處理方法哪種最好?
A. 損失為交叉熵,標(biāo)簽不做處理
B. 損失為MAE,標(biāo)簽不做處理
C. 損失為交叉熵,標(biāo)簽坐標(biāo)除以96
D. 損失為MAE,標(biāo)簽坐標(biāo)除以96
問(wèn)題6
下列哪一個(gè)庫(kù)中的樹(shù)模型,不能使用GPU?
A. LightGBM
B. XGBoost
C. sklearn
D. CatBoost
問(wèn)題7
哪些機(jī)器學(xué)習(xí)算法不需要做歸一化處理?
A. Adaboost
B. SVM
C. LR
D. 樹(shù)模型
問(wèn)題8
剪枝是防止樹(shù)模型過(guò)擬合的方法,在隨機(jī)森林中需要做后剪枝操作嗎?
A. 不需要
B. 需要
問(wèn)題9
下列哪種特征信息,樹(shù)模型(XGBoost、LightGBM、CatBoost)是學(xué)習(xí)不到的?
A. Label Encoder
B. Target Encoder
C. Count Encoder
問(wèn)題10
在深度學(xué)習(xí)模型訓(xùn)練中,batch size和學(xué)習(xí)率是非常重要的超參數(shù):
A. batch size越大,學(xué)習(xí)率應(yīng)該變小
B. batch size越大,學(xué)習(xí)率應(yīng)該變大
C. batch size和學(xué)習(xí)率互不影響
D. 兩者不滿足上述所有關(guān)系
問(wèn)題11
Bert模型是非常強(qiáng)大的NLP模型,可以用于完成?
A. 文本分類(lèi)
B. 詞性表述
C. 文本問(wèn)答
D. 多項(xiàng)選擇
E. 全都要(上面功能都可以)
問(wèn)題12
對(duì)抗訓(xùn)練是使用對(duì)抗樣本來(lái)增加模型的建模能力,可以增加NLP模型的建模能力:
A. 對(duì)抗訓(xùn)練是Embedding矩陣進(jìn)行的
B. 對(duì)抗訓(xùn)練是網(wǎng)絡(luò)所有參數(shù)進(jìn)行的
C. 對(duì)抗訓(xùn)練是網(wǎng)絡(luò)全連接層進(jìn)行的
本文考題收集整理自Coggle數(shù)據(jù)科學(xué)公眾號(hào),如有侵權(quán)請(qǐng)聯(lián)系刪除~
掃碼關(guān)注學(xué)姐公眾號(hào)
回復(fù)【參考答案】即可獲取答案!
