|
推薦
發(fā)表于 2024-8-30 17:02:44
|
只看該作者
本帖最后由 學(xué)者11 于 2024-8-30 17:10 編輯
我覺(jué)得是你的提問(wèn)就顯得欠缺語(yǔ)法,比如第一個(gè)問(wèn)題,換成“在視覺(jué)深度學(xué)習(xí)領(lǐng)域,之前用2000張圖像訓(xùn)練過(guò)的目標(biāo)檢測(cè)模型,現(xiàn)在新加入幾張NG圖像是否可以進(jìn)行重新訓(xùn)練?”,這種描述是不是更好?
答案是當(dāng)然可以,然而在這樣做之前,你需要考慮以下幾個(gè)方面:
數(shù)據(jù)一致性:確保新的圖像與原來(lái)的訓(xùn)練集在數(shù)據(jù)分布上保持一致,避免引入數(shù)據(jù)偏移。
數(shù)據(jù)質(zhì)量:“NG圖像”的質(zhì)量可能會(huì)對(duì)訓(xùn)練過(guò)程產(chǎn)生影響。如果這些圖像是低質(zhì)量的或者標(biāo)注有誤,那么它們可能會(huì)影響模型的整體性能。
數(shù)據(jù)量影響:雖然添加少量圖像通常不會(huì)顯著改變模型的行為,但如果這些圖像具有很強(qiáng)的代表性或包含重要的特征,則有可能對(duì)模型產(chǎn)生積極的影響。反之,如果這些圖像的質(zhì)量較差,也有可能導(dǎo)致模型性能下降。
如果你擔(dān)心新的圖像會(huì)對(duì)現(xiàn)有模型造成負(fù)面影響,可以嘗試使用遷移學(xué)習(xí)的方法,僅微調(diào)模型的部分層而不是整個(gè)網(wǎng)絡(luò)。
另外,也可以采用增量學(xué)習(xí)的方法,這樣模型可以逐步適應(yīng)新的數(shù)據(jù)而不完全忘記舊的數(shù)據(jù)上的學(xué)習(xí)成果。
人家不愿意回答采用的是哪種深度學(xué)習(xí)框架也很正常,這屬于商業(yè)機(jī)密。
你問(wèn)人家ONNX推理的事,對(duì)方只會(huì)認(rèn)為你有惡意。因?yàn)橥ㄟ^(guò)ONNX,開(kāi)發(fā)者可以使用一種深度學(xué)習(xí)框架訓(xùn)練模型,然后在另一種框架或者專(zhuān)門(mén)的高性能推理引擎中運(yùn)行這個(gè)模型。所以對(duì)方會(huì)想,你該不會(huì)想偷我們的模型,然后在你們公司的框架上運(yùn)行這個(gè)模型吧。人家賣(mài)的是服務(wù),沒(méi)打算把家賣(mài)給你啊。
所以根本原因是你的提問(wèn)已經(jīng)大大超過(guò)了一個(gè)普通用戶(hù)的需求,很多是創(chuàng)業(yè)者才會(huì)想到的。
|
|