機(jī)械社區(qū)

 找回密碼
 注冊(cè)會(huì)員

QQ登錄

只需一步,快速開(kāi)始

搜索
查看: 1193|回復(fù): 19
打印 上一主題 下一主題

聊聊視覺(jué)算法

[復(fù)制鏈接]
跳轉(zhuǎn)到指定樓層
1#
發(fā)表于 2024-8-30 14:51:17 | 只看該作者 回帖獎(jiǎng)勵(lì) |倒序?yàn)g覽 |閱讀模式
前陣子有幾個(gè)供應(yīng)商來(lái)推薦他們的視覺(jué)設(shè)備,跟我聊視覺(jué)深度學(xué)習(xí),后來(lái)我問(wèn)了幾個(gè)問(wèn)題,答不上來(lái)就不了了之了,說(shuō)明自己都不知道用來(lái)干嘛的。這個(gè)細(xì)分領(lǐng)域,亦是魚(yú)龍混雜,做的好的少之甚少。

我問(wèn)了5個(gè)問(wèn)題:

1. 是否可以遷移訓(xùn)練模型?例如之前用2000張圖像的目標(biāo)檢測(cè)模型,新發(fā)現(xiàn)的幾張NG圖像加入重新訓(xùn)練?

2. 你們家的深度學(xué)習(xí)是基于哪幾個(gè)深度學(xué)習(xí)框架的?
--- TensorFlow
--- pytorch
--- Keras
--- Caffe
--- Theano
--- CNTK

3. 你們的視覺(jué)深度學(xué)習(xí)目前支持哪幾種應(yīng)用場(chǎng)景?
--- 分類(lèi)檢測(cè)
--- 目標(biāo)檢測(cè)
--- 語(yǔ)義分割
--- 還是其他?

4. 是否有獨(dú)立的標(biāo)注軟件?(他們問(wèn)什么是標(biāo)注軟件?)
--- 標(biāo)注軟件就是人工把缺陷位置圈出來(lái),這就是標(biāo)注。

5. 你們目前的模型是什么格式的?是否可以使用通用的ONNX推理?


評(píng)分

參與人數(shù) 1威望 +100 收起 理由
老鷹 + 100

查看全部評(píng)分

回復(fù)

使用道具 舉報(bào)

推薦
發(fā)表于 2024-8-31 17:08:48 | 只看該作者
本帖最后由 huhu2 于 2024-8-31 18:57 編輯

現(xiàn)在只剩下兩家了,google的TENSORFLOW和facebook的pytorch,caffe是奄奄一息,其他的墳頭長(zhǎng)草了吧!遷移學(xué)習(xí)應(yīng)該是指比如你原先識(shí)別的是黑白的中文或數(shù)字,換為彩色的中文或數(shù)字是否也可以快速的識(shí)別。另外ONNX主要是把訓(xùn)練好的模型發(fā)布到網(wǎng)上服務(wù)器上給用戶(hù)使用,tensorflow用自家的軟件部署或發(fā)布,其他家都用ONNX部署吧。

點(diǎn)評(píng)

優(yōu)秀  發(fā)表于 2024-8-31 17:25
推薦
發(fā)表于 2024-8-30 17:02:44 | 只看該作者
本帖最后由 學(xué)者11 于 2024-8-30 17:10 編輯

我覺(jué)得是你的提問(wèn)就顯得欠缺語(yǔ)法,比如第一個(gè)問(wèn)題,換成“在視覺(jué)深度學(xué)習(xí)領(lǐng)域,之前用2000張圖像訓(xùn)練過(guò)的目標(biāo)檢測(cè)模型,現(xiàn)在新加入幾張NG圖像是否可以進(jìn)行重新訓(xùn)練?”,這種描述是不是更好?
答案是當(dāng)然可以,然而在這樣做之前,你需要考慮以下幾個(gè)方面:
數(shù)據(jù)一致性:確保新的圖像與原來(lái)的訓(xùn)練集在數(shù)據(jù)分布上保持一致,避免引入數(shù)據(jù)偏移。
數(shù)據(jù)質(zhì)量:“NG圖像”的質(zhì)量可能會(huì)對(duì)訓(xùn)練過(guò)程產(chǎn)生影響。如果這些圖像是低質(zhì)量的或者標(biāo)注有誤,那么它們可能會(huì)影響模型的整體性能。
數(shù)據(jù)量影響:雖然添加少量圖像通常不會(huì)顯著改變模型的行為,但如果這些圖像具有很強(qiáng)的代表性或包含重要的特征,則有可能對(duì)模型產(chǎn)生積極的影響。反之,如果這些圖像的質(zhì)量較差,也有可能導(dǎo)致模型性能下降。
如果你擔(dān)心新的圖像會(huì)對(duì)現(xiàn)有模型造成負(fù)面影響,可以嘗試使用遷移學(xué)習(xí)的方法,僅微調(diào)模型的部分層而不是整個(gè)網(wǎng)絡(luò)。
另外,也可以采用增量學(xué)習(xí)的方法,這樣模型可以逐步適應(yīng)新的數(shù)據(jù)而不完全忘記舊的數(shù)據(jù)上的學(xué)習(xí)成果。

人家不愿意回答采用的是哪種深度學(xué)習(xí)框架也很正常,這屬于商業(yè)機(jī)密。

你問(wèn)人家ONNX推理的事,對(duì)方只會(huì)認(rèn)為你有惡意。因?yàn)橥ㄟ^(guò)ONNX,開(kāi)發(fā)者可以使用一種深度學(xué)習(xí)框架訓(xùn)練模型,然后在另一種框架或者專(zhuān)門(mén)的高性能推理引擎中運(yùn)行這個(gè)模型。所以對(duì)方會(huì)想,你該不會(huì)想偷我們的模型,然后在你們公司的框架上運(yùn)行這個(gè)模型吧。人家賣(mài)的是服務(wù),沒(méi)打算把家賣(mài)給你啊。

所以根本原因是你的提問(wèn)已經(jīng)大大超過(guò)了一個(gè)普通用戶(hù)的需求,很多是創(chuàng)業(yè)者才會(huì)想到的。




點(diǎn)評(píng)

NO  發(fā)表于 2024-8-30 22:51
推薦
發(fā)表于 2024-8-30 23:10:42 | 只看該作者
那些視覺(jué)軟件基本上都內(nèi)嵌了大把的算法庫(kù),隨便改改就可以用了,比如說(shuō)Halcon
推薦
發(fā)表于 2024-8-30 15:13:26 | 只看該作者
這5個(gè)問(wèn)題都不知道,那還不如我,至少我知道
我是不是也能去做視覺(jué)產(chǎn)品了
4#
發(fā)表于 2024-8-30 21:17:19 | 只看該作者
回復(fù)

使用道具 舉報(bào)

7#
發(fā)表于 2024-8-31 21:50:40 | 只看該作者
學(xué)者11 發(fā)表于 2024-8-30 17:02
我覺(jué)得是你的提問(wèn)就顯得欠缺語(yǔ)法,比如第一個(gè)問(wèn)題,換成“在視覺(jué)深度學(xué)習(xí)領(lǐng)域,之前用2000張圖像訓(xùn)練過(guò)的目 ...

本質(zhì)被你看到了。
8#
發(fā)表于 2024-9-2 07:59:50 | 只看該作者
大有前途啊
9#
發(fā)表于 2024-9-2 10:27:16 | 只看該作者
會(huì)不會(huì)覺(jué)得你是同行提問(wèn)

點(diǎn)評(píng)

哈哈哈  發(fā)表于 2024-9-2 10:28
10#
發(fā)表于 2024-9-2 10:30:26 | 只看該作者
我們就是拿樣品過(guò)去給他做視覺(jué)分析  OK后 我再拿一批料過(guò)去給他判斷,拿判斷過(guò)的產(chǎn)品OK  NG 回來(lái)公司用自己的檢測(cè)方法判斷他們的視覺(jué)是否可行,可以就買(mǎi) 不行就在商量 或者換一家

點(diǎn)評(píng)

對(duì),傳統(tǒng)視覺(jué)用這種方式可行;但是涉及到AI層面,需要謹(jǐn)慎,因?yàn)楝F(xiàn)在這方面的資源也是魚(yú)龍混雜。好多是二道販子啊。  發(fā)表于 2024-9-2 10:37

本版積分規(guī)則

小黑屋|手機(jī)版|Archiver|機(jī)械社區(qū) ( 京ICP備10217105號(hào)-1,京ICP證050210號(hào),浙公網(wǎng)安備33038202004372號(hào) )

GMT+8, 2024-11-18 06:14 , Processed in 0.064749 second(s), 18 queries , Gzip On.

Powered by Discuz! X3.4 Licensed

© 2001-2017 Comsenz Inc.

快速回復(fù) 返回頂部 返回列表