今日 Paper | 2019-nCoV傳播預測;行人重識別;協同時態建模;舞蹈生成等
- 2020 年 2 月 24 日
- 筆記
目錄
- 用綜合方法預測2019-nCoV傳播的結束
- 通過被動WiFi傳感和數據挖掘了解社會事件中的人群行為
- 用於RGB-紅外行人重識別的交叉模態配對圖像生成
- CTM:面向動作識別的協同時態建模
- Music2Dance:使用WaveNet的音樂驅動的舞蹈生成
用綜合方法預測2019-nCoV傳播的結束
論文名稱:Predictions of 2019-nCoV Transmission Ending via Comprehensive Methods
作者:Zeng Tianyu /Zhang Yunong /Li Zhenyu /Liu Xiao /Qiu Binbin
發表時間:2020/2/12
論文鏈接:https://arxiv.org/abs/2002.04945v1
推薦原因
這篇論文試圖預測新型冠狀病毒的傳播,提出了一種多模態常微分方程神經網絡(Multi-Model Ordinary Differential Equation set Neural Network,MMODEs-NN)以及無模型方法,來預測疫情在中國大陸尤其是湖北省的擴散情況。與現有流行病學模型相比,這篇論文提出的方法可以使用常微分方程激活法來模擬傳播,而基於S形函數、高斯函數和Poisson分佈的無模型方法是線性的,因而非常高效。根據數值實驗與實情,為了控制疫情擴散的特別政策在一些省取得效果,目前預測這股疫情可能在2月18日之前減速並在2020年4月之前結束。這篇論文所提的數學和人工智能方法可以對2019-nCoV的結束給出一致且合理的預測。



通過被動WiFi傳感和數據挖掘了解社會事件中的人群行為
論文名稱:Understanding Crowd Behaviors in a Social Event by Passive WiFi Sensing and Data Mining
作者:Zhou Yuren /Lau Billy Pik Lik /Koh Zann /Yuen Chau /Ng Benny Kai Kiat
發表時間:2020/2/5
論文鏈接:https://arxiv.org/abs/2002.04401v1
推薦原因
這篇論文通過WiFi傳感數據進行人群行為分析。
通過收集從移動設備發送的WiFi請求,無源WiFi感測提供了一種比人群計數器和攝像機更好的監控人群的方法。在現有研究中,對收集數據的全面分析和挖掘沒有給予足夠重視。這篇論文提出一個全面的數據分析框架,以在統計、可視化和無監督機器學習幫助下,全面分析收集的探測請求,以提取與大型社交事件中的人群行為相關的三種類型模式。這個分析框架首先從探測請求中提取移動設備的軌跡並進行分析,以揭示人群運動的空間模式。然後採用分層聚集聚類法來查找不同位置之間的互連。接下來應用K均值和K聚類算法分別按天數和位置提取人群的時間訪問模式。最後通過與時間結合,軌跡被轉換為時空模式,揭示了軌跡持續時間如何隨長度變化,以及人群運動的總體趨勢如何隨時間變化。這個數據分析框架通過在大型社交事件中收集的真實數據進行了驗證。



用於RGB-紅外行人重識別的交叉模態配對圖像生成
論文名稱:Cross-Modality Paired-Images Generation for RGB-Infrared Person Re-Identification
作者:Wang Guan-An /Yang Tianzhu Zhang. Yang /Cheng Jian /Chang Jianlong /Liang Xu /Hou Zengguang
發表時間:2020/2/10
論文鏈接:https://arxiv.org/abs/2002.04114v1
推薦原因
這篇論文要解決的是行人重識別問題。
RGB和IR圖像之間缺少對應標籤,會導致某些實例的對齊錯誤,從而限制RGB-IR Re-ID的性能。與現有方法不同,這篇論文提出生成跨模態配對圖像,並執行全局集合級和細粒度實例級對齊。這種方法可以通過解開特定於模態和模態不變的特徵來執行集合級對齊。與傳統方法相比,所提方法可以顯式刪除特定於模態的特徵,並且可以更好地減少模態變化。給定一個人的跨模態不成對圖像,所提方法可以從交換的圖像生成跨模態成對圖像,通過最小化每對圖像的距離直接執行實例級對齊。在兩個標準基準上的大量實驗結果表明,所提模型有利於抗衡當前最佳方法,特別是在SYSU-MM01數據集上,所提模型在Rank-1和mAP方面可以實現9.2%和7.7%的提升。



CTM:面向動作識別的協同時態建模
論文名稱:CTM: Collaborative Temporal Modeling for Action Recognition
作者:Liu Qian /Wang Tao /Liu Jie /Guan Yang /Bu Qi /Yang Longfei
發表時間:2020/2/8
論文鏈接:https://arxiv.org/abs/2002.03152v1
推薦原因
這篇論文要解決的是動作識別問題。
與圖像識別任務不同,動作識別任務對於時間維度的要求更高。為了學習到視頻的強大特徵,這篇論文提出了一個名為CTM的協同時間模型來學習時間信息。CTM作為一個單獨的時間建模模塊,包括了兩條協作路徑:一個空間感知的時間建模路徑和一個無空間感知的時間建模路徑。CTM模型可以無縫地插入許多流行的神經網絡模型中以生成CTM網絡,可以將學習時間信息的能力帶給僅捕獲了空間信息的2D CNN骨幹網絡中。在幾個流行的動作識別數據集上進行的實驗表明,CTM塊在2D CNN基線模型上帶來了性能提升。



Music2Dance:使用WaveNet的音樂驅動的舞蹈生成
論文名稱:Music2Dance: Music-driven Dance Generation using WaveNet
作者:Zhuang Wenlin /Wang Congyi /Xia Siyu /Chai Jinxiang /Wang Yangang
發表時間:2020/2/2
論文鏈接:https://arxiv.org/abs/2002.03761v1
推薦原因
這篇論文提出了一個名為Music2Dance的模型,用於解決全自動音樂編排的問題。
Music2Dance的主要思想是將最初為語音生成而設計的WaveNet轉變為人體運動合成,首先通過考慮節奏和旋律的特徵來提取音樂特徵,接着將舞蹈的類型設計為網絡的全局條件。為了解決數據缺乏的挑戰,這篇論文收集捕捉了專業舞者同步的音樂舞蹈對,從而建立了高質量的音樂舞蹈對數據集。這個數據集上的實驗表明了Music2Dance的有效性。




