機器人開始懂得「預測」被遮蔽物體的形狀,你覺得可以應用在哪些地方?

電腦王阿達

27

發佈時間: 2022-04-26 05:04

就連科技狂人 Elon Musk 都在最近的專訪中承認,自己對於自動駕駛科技的進步曲線錯估。可見即便心中「那個未來」的科技感覺多麼近在眼前,到達前其實仍需要非常多的技術與研究累積才可能達成。最近,康奈爾大學所公布的機器人相關論文,倒是讓人覺得目前許多機器視覺學習還在卡關的技術,將有機會被解決。繼續閱讀機器人開始懂得「預測」被遮蔽物體的形狀,你覺得可以應用在哪些地方?報導內文。
機器人開始懂得預測被遮蔽物體的形狀
▲圖片來源:DisneyResearchHub

機器人開始懂得「預測」被遮蔽物體的形狀,你覺得可以應用在哪些地方?

現階段透過視覺來進行機器學習的技術,基本上要辨識分別獨立的物件,應該已經不算是太困難的事。不過就像 Tesla 目前還苦於尋求真正實用的 Real-World AI,那種可以預測遮蔽物後可能的物件甚至動態的視覺辨識演算法,顯然會是這類機器學習技術需要突破的障礙。

來自康奈爾大學的學者最近釋出一篇研究以分層建模來進行非模態感知(Amodal)的實作(誒... 白話就是讓機器人可以預測被遮蔽物件的可能形狀),似乎有機會找到這方面技術的突破點。

[caption id="attachment_437802" align="alignnone" width="1000"] 來源:Cornell University[/caption]

研究團隊透過 Hierarchical Occlusion Modeling(HOM)直譯是分層遮蔽建模技術,讓以往總會因為「層層疊」而導致影像辨識融成一片的問題,可以在分層分析後被機器人給找到被遮蔽物體的「輪廓」。

[caption id="attachment_437803" align="alignnone" width="1000"] 來源:Cornell University[/caption]

研究中所測試的環境包括桌面、室內與箱子內,分別以斜角與俯視的方式讓 UOAIS-Net 去分析這些物件彼此的前後關係,還有辨識被遮蔽物的可能形狀。就目前看到的成果來看,雖然遇到背景複雜的狀況時,這套視覺辨識系統還是免不了被擾亂,不過大多數狀況下,機器學習都能展現出相當接近現實的判斷結果。

攝影網站 PetaPixel 認為,可以期待這項科技對相機研發帶來一定程度的影響。筆者認為,由相機技術延伸而出的相關應用,包括自動駕駛技術等相關辨識技術,應該也很有機會得到相當的改進。

隨著機器學習的相關技術乃至於更多相關的硬體都在持續進步。不僅可以看到針對機器人感知周遭環境的技術有所升級,也能看到不少嘗試跨越恐怖谷,讓人感受到「友善」的外在面貌與表情展現。先前由 Engineered Arts 所帶來的機器人就給人十分生動的感覺;就連 DisneyResearchHub 也有針對「眼神」方面的相關技術展示。更別說,最近研究車用 AI 研究到也打算出的 Tesla Rebot。都令人期待未來還能有什麼更多發展呢!

延伸閱讀:

Meta 全面取代 Oculus 品牌,元宇宙也能開實體商店

資料來源機器人開始懂得「預測」被遮蔽物體的形狀,你覺得可以應用在哪些地方?
若針對此內容有任何建議,請聯繫客服