圖:螞蟻數科國際算法負責人李建樹分享深度偽造定位數據集
由斯坦福大學、谷歌與加州大學伯克利分校聯合開源的視頻數據集 DeepAction,包含7款大模型生成的2,600段人類動作視頻以及相匹配的真實鏡頭,這些視頻展示了行走、奔跑、烹飪等日常行為,研究者可在Hugging Face(抱抱臉社區(qū))下載獲取。此外,研究團隊發(fā)表的論文《AI生成人體動作檢測》(Human Action CLIPs: Detecting AI-Generated Human Motion)獲得該主題workshop最佳論文。該論文提出了一種基于多模態(tài)語義嵌入的鑒別技術,可精準區(qū)分真實人體動作與AI生成動作。該方法具有較強的魯棒性,可有效抵御數據篡改手段(如調整分辨率、壓縮視頻等)對檢測算法的干擾。
圖:新加坡科技研究局周天異教授為斯坦福大學Matyas Bohacek頒發(fā)最佳論文獎
澳大利亞莫納什大學Abhinav Dhall教授分享了其研究團隊通過腦電圖數據發(fā)現:不同文化背景人群對AI造假視頻存在感知差異,當視頻語言為參與者熟悉的英語且演員來自相似種族背景時,其區(qū)分真實視頻與深度偽造視頻的表現更佳。該研究為全球化多元背景下的深度偽造分析領域鋪就了未來探索路徑。
公開信息顯示,螞蟻數科長期關注并持續(xù)投入AI安全及風險防范,旗下安全科技品牌ZOLOZ自2017年起服務海外機構的數智化升級,目前已覆蓋超25個國家和地區(qū),“實人認證”產品準確率達99.9%。