過往軌跡預測方法並不具備流式處理的能力,必須特別為每一個待預測的交通參與者分別計算一套專有的場景編碼,以達到更高的預測精度,導致產生出極大的計算負擔。

本次鴻海研究院與香港城市大學所提出的 QCNet 是一種智慧型軌跡預測模型,其主要優勢在於能夠理解真實駕駛場景的全局資訊,活用和 ChatGPT 相同技術基礎的 Transformer 架構,將其修改為適用於自動駕駛場景,使其學習車輛歷史軌跡,車輛間交互行為、道路環境等多樣性與不確定性,得到豐富的場景反饋。

QCNet 可在複雜的道路環境捕捉車輛的多種潛在意圖、超長距離預測未來 6 至 8 秒內的運動軌跡、可同時對場景中的多個目標進行準確的預測,並可將編碼器的計算效率提升 85%以上。

除了高效精準的預測,QCNet 為交通場景中包括車道、斑馬線、車輛、行人等在內的每一個場景元素分別建立了一套局部座標系,在場景元素所對應的局部座標系下學習表徵,並通過相對時空位置編碼來捕捉不同場景元素之間的相對關係,從而得以避免大量重複的計算並最終提升模型的即時計算效率。

鴻海研究院人工智慧研究所栗永徽所長表示,鴻海研究院在 AI 與自 動駕駛領域投入大量人力,從基礎模型以及算法核心精進技術, QCNet 能夠在 Argoverse 1 與 Argoverse 2 取得排名第一的佳績, 並且將於今年6月全世界 AI 領域享譽全球的頂級會議 CVPR 發表, 很欣慰看到本所自駕團隊的研發成果受到世界級的肯定,未來 QCNet 可應用於集團電動車自動駕駛系統,大幅提升自動駕駛決策的實時性與安全性。

壹蘋新聞網-投訴爆料

爆料網址:reporting.nextapple.com

爆料信箱:news@nextapple.com

★加入《壹蘋》Line,和我們做好友!

★下載《壹蘋新聞網》APP

★Facebook 按讚追蹤

壹蘋娛樂粉專壹蘋新聞網粉專


點擊閱讀下一則新聞 點擊閱讀下一則新聞

Android 15測試版 開放11款手機品牌搶先體驗