最近 OPENAI 和微軟以及谷歌在 AI 領(lǐng)域都比較火,推出圖片作為科技巨頭之一的動(dòng)的對象點(diǎn)網(wǎng) Meta 也沒閑著,今天 Meta AI 開源了一款名為 Segment Anything Model 的識別視頻蘇州提包夜美女(微信189-4469-7302)一二線城市外圍模特伴游預(yù)約、空姐、模特、留學(xué)生、熟女、白領(lǐng)、老師、優(yōu)質(zhì)資源覆蓋全國模型,該模型由 AI 驅(qū)動(dòng),任何經(jīng)過 1100 萬張圖片和 11 億個(gè)標(biāo)記后訓(xùn)練而成,并分可以廣泛識別圖片或視頻中的離藍(lán)任何對象,并分離出來。推出圖片
Segment Anything 直譯過來就是動(dòng)的對象點(diǎn)網(wǎng)細(xì)分任何東西,如果只是識別視頻把 SAM 模型當(dāng)做摳圖工具那可能大材小用了,從演示來看 Meta 的任何蘇州提包夜美女(微信189-4469-7302)一二線城市外圍模特伴游預(yù)約、空姐、模特、留學(xué)生、熟女、白領(lǐng)、老師、優(yōu)質(zhì)資源覆蓋全國這個(gè)模型非常強(qiáng)大,可以結(jié)合其他應(yīng)用一起使用,并分比如在機(jī)器人里實(shí)時(shí)識別畫面中的離藍(lán)對象,然后再分析圖片識別具體內(nèi)容。推出圖片

這個(gè)新 AI 模型看起來還是非常強(qiáng)大的,不過 Meta 暫時(shí)還沒介紹研究這個(gè) AI 模型的識別視頻用途,在論文里 Meta AI 稱這是促進(jìn)對計(jì)算機(jī)視覺基礎(chǔ)模型的研究。
按藍(lán)點(diǎn)網(wǎng)猜測估計(jì) Meta AI 還在研究圖片識別的其他內(nèi)容,SAM 負(fù)責(zé)將對象從圖片或視頻幀里分離,其他 AI 模型可以識別對象的內(nèi)容,這樣確實(shí)符合 Meta AI 所說的促進(jìn)計(jì)算機(jī)視覺基礎(chǔ)。
考慮到現(xiàn)在 AI 的發(fā)展速度,估計(jì)未來這種分離對象的技術(shù),也會(huì)被廣泛使用。
Meta AI 上線了一個(gè) demo 網(wǎng)站可以供用戶測試:https://segment-anything.com/
目前 Meta AI 提供了三個(gè)模型,一個(gè) 2.4GB,一個(gè) 1.2GB,另一個(gè) 358MB,開發(fā)者在本地部署的時(shí)候可以用得上這些模型。
如果你想在本地部署,請按照以下方法操作:https://github.com/facebookresearch/segment-anything
論文地址:https://arxiv.org/abs/2304.02643