Meta推出像素級動作追蹤模型,簡易版在線可玩 | GitHub 1.4K星
視頻動作跟蹤,已經(jīng)精確到了每個像素!
meta最新推出的視頻跟蹤工具CoTracker,發(fā)布沒多久就在GitHub上斬獲了1.4k星標。
從官方發(fā)布的幾個DEMO來看,效果還是很震撼的。
一場馬術(shù)比賽中,馬匹在騎手的操縱下優(yōu)雅地跨過障礙,畫出了優(yōu)美的弧線。
還有一架帆船乘風(fēng)破浪,仿佛捉住了風(fēng)的影子。
另一邊,一位跳傘運動員從空中劃過,留下了一道絢麗的彩虹……
對這個新“玩具”,有網(wǎng)友評論說,它不僅能改變物體追蹤技術(shù),也將在體育(動作)分析、野生動物追蹤,甚至電影后期領(lǐng)域掀起一場新的革命。
我們也第一時間上手試玩了一下線上的簡易版本,下面就一起來看看吧。
精準記錄像素軌跡
首先有請四川知名網(wǎng)紅、熊貓界的當紅炸子雞“果賴”隆重登場。
只見花花六親不認的步伐被CoTracker整個記錄了下來,真的是太可愛了。
不過要論戲劇性的話,可能還得是我們的“西直門三太子”萌蘭。
看完了可愛的胖達,接下來就要進入整活環(huán)節(jié)了,來點名場面!
這個就不用再多介紹了吧(確信)。
除了上面的這位老朋友,還有王境澤吃炒飯的鏡頭。
只見他手上誠實的動作在CoTracker面前暴露無遺。
而在地球的另一邊,馬斯克正在直播用FSD開著特斯拉去找小扎,準備進行一番親切友好的交流。
CoTracker的效果就展示到這里了,朋友們?nèi)绻肟雌渌Ч梢宰约和嫱婵础?/p>
傳送門:
https://huggingface.co/spaces/facebook/cotracker
不過,在線DEMO是個簡易版本,還不支持自定義跟蹤位置,只能根據(jù)輸入的跟蹤數(shù)量等距分配。
但是如果自己部署、用代碼操縱的話,就可以設(shè)置任意跟蹤點了。
說到這我們正好來看一下CoTracker該怎么部署。
首先是Colab版本,我們剛剛說到的自定義跟蹤點也在Colab當中。
傳送門:
https://colab.research.google.com/github/facebookresearch/co-tracker/blob/master/notebooks/demo.ipynb
Colab的過程不必過多介紹,進入之后運行筆記中的代碼就可以了。
而如果想自己動手的話,最簡單的方式是從torch.hub中直接調(diào)用已完成預(yù)訓(xùn)練的版本。
pipinstalleinopstimmtqdm
importtorch
importtimm
importeinops
importtqdm
cotracker=torch.hub.load("facebookresearch/co-tracker","cotracker_w8")
如果要對模型進行評估或訓(xùn)練,那么使用GitHub Repo更為合適。
首先要安裝一下程序和相關(guān)依賴:
gitclonehttps://github.com/facebookresearch/co-tracker
cdco-tracker
pipinstall-e.
pipinstallopencv-pythoneinopstimmmatplotlibmoviepyflow_vis
然后下載模型:
mkdircheckpoints
cdcheckpoints
wgethttps://dl.fbaipublicfiles.com/cotracker/cotracker_stride_4_wind_8.pth
wgethttps://dl.fbaipublicfiles.com/cotracker/cotracker_stride_4_wind_12.pth
wgethttps://dl.fbaipublicfiles.com/cotracker/cotracker_stride_8_wind_16.pth
cd..
有關(guān)評估和訓(xùn)練的方式,可以到GitHub項目頁來查看,鏈接放在了文末。
那么,CoTracker又是怎么實現(xiàn)像素級追蹤的呢?
評分超過DINOv2
雖然都是追蹤,但CoTracker和物體追蹤模型有很大區(qū)別。
CoTracker并沒有基于語義理解對視頻中物體進行分割的過程,而是把重點放在了像素點上。
底層方面,CoTracker采用了Transformer架構(gòu)。
Transformer編碼了視頻中點的跟蹤信息,并迭代更新點的位置。
推理上,CoTracker還采用了一種窗口機制,在時間軸上劃分出滑動窗口。
CoTracker使用上個窗口的輸出對后面的窗口進行初始化,并在每個窗口上運行多次Transformer迭代。
這樣就使得CoTracker能夠?qū)ΩL的視頻進行像素級跟蹤。
總之,經(jīng)過一番訓(xùn)練之后,CoTracker取得了一份不俗的成績單。
在FastCapture數(shù)據(jù)集測試上,CoTracker的成績在一眾模型中脫穎而出,其中也包括meta自家的DINOv2。
總之,喜歡的話,就趕緊體驗一下試試吧!
論文地址:
https://arxiv.org/pdf/2307.07635.pdf
GitHub項目頁:
https://github.com/facebookresearch/co-tracker
—完—
本文來源于量子位公眾號,如有侵權(quán)請聯(lián)系刪除
本站部分文章來自網(wǎng)絡(luò)或用戶投稿。涉及到的言論觀點不代表本站立場。閱讀前請查看【免責(zé)聲明】發(fā)布者:方應(yīng),如若本篇文章侵犯了原著者的合法權(quán)益,可聯(lián)系我們進行處理。本文鏈接:http://www.gdyuanyu.cn/tougao/97381.html