新特效火爆抖音!各路神仙齊唱《螞蟻呀嘿》
當互聯網大佬們集體唱歌,會擦出怎樣的火花?
現在,火爆抖音的AI特效,一鍵就可以實現夢幻聯動。
瞧!馬雲、馬化騰、馬斯克等大佬們,正在集體演唱神曲《螞蟻呀嘿》。
不光演唱,表情也是十分的賣力(傲嬌的小眼神很是傳神啊)。
完全看不出是被迫的樣子呢。(手動狗頭)
效果之魔性,引得網友直呼:
短短的幾秒,要用一生去治癒…..
還有網友表示,最近是咋滴啦?!一打開抖音,好像捅了螞蟻窩。
大家一起《螞蟻呀嘿》!
這款AI特效,只需要一張照片,就可以火速讓anyone「螞蟻呀嘿」。
正因為這麼便捷,果不其然,馬上成為了抖音網友們的「新寵」。
各路名人開始搞起!
首先登場的是四大天王:劉德華、張學友、郭富城和黎明!
或許天王們太久沒有同框過了,網友們用這種方式將他們「召集」在一起,也是別有一番風味。
「永不過時」的《還珠格格》,也趕上了這趟潮流列車。
王者峽谷里的英雄們,網友們也是沒有放過。
不得不感慨二次元的顏值,不論怎麼惡搞、變形,還是能保持俊美的樣子(程咬金除外)。
除了上面這種九宮格模式外,高端的操作還可以實現集體同框。
於是,「愛玩」的德雲社就以這種方式亮相了。
不知道是不是因為特效太過逼真、還是脖子有點短(不是),竟然還有人以為是真的。
第一眼我以為是特效。
當然,此等名場面,怎麼少得了量子位本位!集體《螞蟻呀嘿》表演,隆重登場!
OK,各種效果、各種玩法已經展示完畢。
接下來,是時候上手實操了!
如何製作專屬的「螞蟻呀嘿」?
首先需要準備三個工具:
Avatarify、任意一款加速器APP、剪映(可有可無)。
第一步,打開加速器,啟動加速模式。
第二步,打開這款軟體Avatarify,選擇一張照片即可進入選擇特效頁面(臉正一點食用效果更佳)。
然後向下拉,找到布拉德·皮特的特效即可。
是不是很簡單?
不過有點遺憾的是,暫時只有蘋果手機才OK(Android用戶淚目)。
一個人演唱「螞蟻呀嘿」的效果就已經實現了。
如果想要多人演唱、九宮格那樣式兒的,那就需要剪映來加持了,這裡就不詳細展開了。
當然,這款軟體除了《螞蟻呀嘿》之外,還有很多模板可選。
例如,李開復老師便友情上演了一首《Only You》。
隨著這波潮流,Avatarify及其他相關軟體,已經超過微信、拼多多、抖音的下載量,登頂蘋果App Store免費榜「前三甲」!
什麼原理?
那麼問題來了。
AI,是如何搞定各位大佬來唱歌的呢?
讓一張照片動起來,人臉跟著音樂一起擠眉弄眼,需要一個叫做一階運動模型 (First Order Motion Model)來搞定。
技術原理借鑒了去年義大利特倫託大學的一項研究,入選了NIPS 2019。
當時的例子是這樣的。
以川建國同志為參考,來自《冰與火之歌》的演員照片瞬間做到了神同步。
不光是臉動,一個模特換pose、奔騰的馬也都不在話下。
模型框架主要由2部分構成,運動估計模組和影像生成模組。
運動估計模組的目的,是預測一個密集的運動場。研究人員假設存在一個抽象的參考框架,並且獨立估計兩個變換,分別是「從參考到源」和「從參考到驅動」,這樣就能夠獨立處理源幀和驅動幀。
而這兩種變換,通過使用以自監督方式學習的關鍵點來獲得。利用局部仿射變換對每個關鍵點附近的運動進行建模。
隨後,密集運動網路結合局部近似得到密集運動場。
這個網路還能輸出遮擋的mask,指示哪些影像的驅動部分可以通過源影像的扭曲(warping)來重建,哪些部分應該被繪製(根據上下文推斷)。
在生成模組按照驅動影片中,提供的源對象移動的影像進行渲染。
此處,研究人員還使用一個生成器網路,根據密集的運動對源影像進行扭曲,並對源影像中被遮擋的影像部分進行著色。
訓練階段,研究人員採用了大量的影片序列集合來訓練模型,這當中包含了相同類別的對象。
隨後在測試階段,研究人員將模型應用於由源影像和驅動影片的每一幀組成的對,並執行源對象的影像動畫。
最終在品質評估中,這一方法在所有基準上都明顯優於當前先進技術。
此前類似研究也很火爆
這種AI特效能夠如此火爆,甚至「破圈」,讓大家玩得不亦樂乎,最主要的原因是方便——不需要任何編程知識,便可完成。
但在此之前,其實這種AI特效在圈裡也是有火過,但都需要一定的電腦能力才可以實現。
比如,一張名人照片和一個你說話的影片,就可以讓夢露學你說話。
還有,印度程式設計師開發的實時動畫特效。你一動,蒙娜麗莎跟著你一起動~
那麼現在,你被「螞蟻呀嘿」洗腦了嗎?
快去體驗下吧。