五月天青色头像情侣网名,国产亚洲av片在线观看18女人,黑人巨茎大战俄罗斯美女,扒下她的小内裤打屁股

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

節(jié)前開(kāi)胃菜|12道人工智能試題看你能對(duì)幾道

2021-09-18 19:10 作者:深度之眼官方賬號(hào)  | 我要投稿

最近學(xué)姐在想關(guān)注我的同學(xué)學(xué)什么方向的都有,怎么能讓你們同臺(tái)競(jìng)技呢?直到學(xué)姐看到一直關(guān)注的大佬的公眾號(hào)搞得答題推文,就把這些題整理了一下今天考考你們,看看你們能不能答對(duì)!


一共18道題,時(shí)間不限,可以查資料但不能不答題就看答案。


問(wèn)題1


假設(shè)有一個(gè)的dataframe類(lèi)型的表格df,其有一列A為數(shù)值類(lèi)型。其中下面哪個(gè)操作會(huì)報(bào)錯(cuò)?


  • A. df['A'].mean()

  • B. df['A'].ptp()

  • C. df['A'].std()

  • D. df['A'].min()


問(wèn)題2


給定數(shù)值分布的情況下,箱線圖計(jì)算得到離群點(diǎn)的方式是?


  • A. 計(jì)算Q1=30%分位點(diǎn),和Q3=70%分位點(diǎn),然后范圍Q1-1.5*(Q3-Q1) - Q3+1.5*(Q3-Q1)為正常數(shù)值范圍


  • B. 計(jì)算Q1=25%分位點(diǎn),和Q3=75%分位點(diǎn),然后范圍Q1-1.5*(Q3-Q1) - Q3+1.5*(Q3-Q1)為正常數(shù)值范圍

問(wèn)題3


使用LightGBM訓(xùn)練模型,可以計(jì)算得到的特征重要性。特征重要性一定可以代表特征的有效性。


  • A. 正確

  • B. 錯(cuò)誤

問(wèn)題4


在訓(xùn)練深度學(xué)習(xí)模型時(shí),SGD和Adam哪一個(gè)占用的顯存/內(nèi)存更大?


  • A. SGD

  • B. Adam


問(wèn)題5


訊飛人臉關(guān)鍵點(diǎn)檢測(cè)比賽需要選手識(shí)別出人臉的4個(gè)關(guān)鍵點(diǎn),給定的圖像尺寸為96*96。關(guān)鍵點(diǎn)坐標(biāo)作為標(biāo)簽,此時(shí)損失函數(shù)和標(biāo)簽處理方法哪種最好?


  • A. 損失為交叉熵,標(biāo)簽不做處理

  • B. 損失為MAE,標(biāo)簽不做處理

  • C. 損失為交叉熵,標(biāo)簽坐標(biāo)除以96

  • D. 損失為MAE,標(biāo)簽坐標(biāo)除以96


問(wèn)題6


下列哪一個(gè)庫(kù)中的樹(shù)模型,不能使用GPU?


  • A. LightGBM

  • B. XGBoost

  • C. sklearn

  • D. CatBoost


問(wèn)題7


哪些機(jī)器學(xué)習(xí)算法不需要做歸一化處理?


  • A. Adaboost

  • B. SVM

  • C. LR

  • D. 樹(shù)模型


問(wèn)題8


剪枝是防止樹(shù)模型過(guò)擬合的方法,在隨機(jī)森林中需要做后剪枝操作嗎?


  • A. 不需要

  • B. 需要


問(wèn)題9


下列哪種特征信息,樹(shù)模型(XGBoost、LightGBM、CatBoost)是學(xué)習(xí)不到的?


  • A. Label Encoder

  • B. Target Encoder

  • C. Count Encoder


問(wèn)題10


在深度學(xué)習(xí)模型訓(xùn)練中,batch size和學(xué)習(xí)率是非常重要的超參數(shù):


  • A. batch size越大,學(xué)習(xí)率應(yīng)該變小

  • B. batch size越大,學(xué)習(xí)率應(yīng)該變大

  • C. batch size和學(xué)習(xí)率互不影響

  • D. 兩者不滿足上述所有關(guān)系


問(wèn)題11


Bert模型是非常強(qiáng)大的NLP模型,可以用于完成?


  • A. 文本分類(lèi)

  • B. 詞性表述

  • C. 文本問(wèn)答

  • D. 多項(xiàng)選擇

  • E. 全都要(上面功能都可以)


問(wèn)題12


對(duì)抗訓(xùn)練是使用對(duì)抗樣本來(lái)增加模型的建模能力,可以增加NLP模型的建模能力:


  • A. 對(duì)抗訓(xùn)練是Embedding矩陣進(jìn)行的

  • B. 對(duì)抗訓(xùn)練是網(wǎng)絡(luò)所有參數(shù)進(jìn)行的

  • C. 對(duì)抗訓(xùn)練是網(wǎng)絡(luò)全連接層進(jìn)行的

本文考題收集整理自Coggle數(shù)據(jù)科學(xué)公眾號(hào),如有侵權(quán)請(qǐng)聯(lián)系刪除~


掃碼關(guān)注學(xué)姐公眾號(hào)

回復(fù)【參考答案】即可獲取答案!



節(jié)前開(kāi)胃菜|12道人工智能試題看你能對(duì)幾道的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
辉南县| 班戈县| 镇坪县| 望都县| 黄陵县| 缙云县| 托克托县| 阳西县| 霍山县| 怀远县| 吉水县| 临沭县| 恩平市| 肥乡县| 慈溪市| 稷山县| 莆田市| 镶黄旗| 湘乡市| 个旧市| 舟曲县| 鄯善县| 新闻| 新昌县| 河东区| 商都县| 句容市| 苗栗市| 阿勒泰市| 中超| 南涧| 若羌县| 隆德县| 昌宁县| 南充市| 宁夏| 三原县| 六枝特区| 绥江县| 灵山县| 德安县|