Google 加速AI識別技術 創建人類行為資料集

記者/蕭子睿

Google近期為加強AI的影像識別技術,使用AVA(atomic visual actions)數據學習模式,搭配旗下YouTube公開的上百萬部影片,將影片中人的動作做分類後,讓人工智慧系統可以迅速分析人類的動作行為,並理解其背後的含義,以創建龐大動作數據資料庫。

■AVA分析YouTube的影片樣本。(截圖自/Google Research Blog)

人工智慧目前可以分析靜態影像,但是辨識人類的動作上難度高,不論是動作或手勢等,除了因為動作的表現有許多細節外,地區文化、種族等因素也有不同的意涵,使AI技術可能產生謬誤,而成為無法突破的難題。

而AVA用真實的影片做實驗,以電視與電影類別為素材,將YouTube中約五十多萬部的影片,針對每一部擷取15分鐘的內容,將其均分為300組3秒片段進行分析,並做不同的標記區分動作細節,輸入至資料庫之中,進而讓人工智慧能深度學習,了解人類互動行為所代表的意義。現在已經分析了九萬六千多個人類動作,完成兩萬多個識別標籤。

透過建立動作數據資料庫,可以提升AI的行為預測能力,以及動態影片內容的分析應用,未來幫助YouTube 處理與審核影片,讓影像內容的分類更為完整,同時廣告主也能在投放廣告內容選擇上有更精準的分析。

分享此新聞: