【台灣台北–2025年7月10日】全球最大科技製造平台服務商鴻海科技集團(TWSE:2317)旗下,鴻海研究院人工智慧研究所與香港城市大學合作成果,再創佳績,提出ModeSeq模型,獲得電腦視覺與圖形辨識CVPR 2025(IEEE Computer Vision and Pattern Recognition Conference)之收錄。研究團隊更進一步精進,推出改良版模型 “Parallel ModeSeq”參加2025年CVPR WAD workshop國際知名自動駕駛競賽 Waymo Open Dataset (WOD) Challenge - Interaction Prediction 挑戰賽,一舉獲得冠軍,在新加坡國立大學、不列顛哥倫比亞大學、向量人工智慧研究所、滑鐵盧大學以及喬治亞理工學院等參賽者中脫穎而出。
CVPR是人工智慧與計算機視覺領域最具有影響力的國際學術會議,每年吸引頂尖科技企業、研究機構以及學術界高手參與。鴻海研究院團隊已於今年 6月13日在會議上發表多模態軌跡預測模型ModeSeq。該技術專注於多模態軌跡預測,解決過去方法對於預測多種可能軌跡的困難,在保持高性能的同時獲得多樣性的預測。 ModeSeq提出的方法,是使用順序模式建模並設計Early-Match-Take-All (EMTA)損失函數來增強多模態軌跡預測。 ModeSeq使用因式分解變換器(Factorized Transformers)進行場景編碼,並使用結合記憶變換器與因式分解變換器模組ModeSeq層的解碼器。
鴻海研究院的ModeSeq模型已是連續第二年獲獎,它在2024年CVPR Waymo Motion Prediction Challenge獲得了全球第二名的佳績。經過持續優化之後, 下一代新模型Parallel ModeSeq參加今年CVPR workshop的Waymo Open Dataset (WOD) Challenge - Interaction Prediction 挑戰賽,一舉獲得冠軍。
圖1:ModeSeq 模型運作流程圖。展示ModeSeq 模型如何預測車輛未來的多種可能路徑。透過左半部的整體架構以及右半部的單層運算這兩個模組的協同工作,模型能全面地理解當下情況,並以循序漸進的方式,解讀出一系列最有可能的未來行駛軌跡(圖中紅色車輛與箭頭所示),並為每種可能性給出一個信賴分數(例如 0.2)。
本次研究,由鴻海研究院人工智慧研究所栗永徽所長率領所內研究員,與香港城市大學汪建平教授團隊、美國卡內基梅隆大學研究人員共同合作完成,在Motion Prediction Benchmark測試中,mAP、soft mAP方面優於以往的方法,同時在minADE和minFDE指標上保持了可比的性能。
栗永徽所長表示:「我們研發的ModeSeq技術,能夠為自動駕駛車輛提供更準確、多樣化的交通參與者行為預測,直接提升決策系統的安全性,降低計算成本,並且具備獨特的模態外推(mode extrapolation)能力,能夠根據場景的不確定性程度動態調整預測的行為模式數量。此技術發表在CVPR,代表研究成果已達世界頂尖水準。
圖2:人工智慧研究所栗永徽所長(右一)帶領徐銘鍵研究員出席2025年AI頂會CVPR發表自動駕駛領域最新研發成果 ModeSeq
鴻海研究院此次的技術突破,展現鴻海研究院在自動駕駛技術的領導地位,團隊技術實力獲得國際的認可,亦有助於推動自動駕駛領域的發展,並在自動駕駛的軌跡預測領域產生深遠的影響力。鴻海研究院將繼續致力於AI的前瞻研究,為全球技術創新和產業進步做出更大的貢獻。
關於鴻海研究院
鴻海研究院成立於2020年,隸屬於鴻海科技集團(Hon Hai Technology Group),旗下設有五個研究所及一間實驗室。每個研究單位皆擁有高科技研究專業人員,專注於未來三到七年的前瞻技術研究,以強化鴻海的長期技術與產品創新動能,支持集團轉型為「智慧導向」,並提升鴻海「3+3+3」營運策略的競爭力。




_20250613_2372.png)
_20250613_2372.png)