暴力程式代寫觀後感!秒生成600字文章還帶圖,拯救50萬大學生,打賞千元

  • 2020 年 3 月 31 日
  • 筆記

預計閱讀時間:8 分鐘

同一個中國,同一個網課。

3月9日,全國大學生共同上了一堂疫情防控思政大課,這可能是中國參與人數最多的一次網課了。

據統計,參加此次網課的學生數量高達4000萬,大量的湧入一度讓直播平台陷入癱瘓。

看完網課之後,輔導員們也給聽課的同學們留下了作業,寫一篇觀後感以加深大家的印象。

你的觀後感寫的怎麼樣?我給你推薦你個網站

全國大學生收到同一份作業的情況也是實屬罕見,年輕人打招呼的方式也變成了:「你的觀後感寫完了嗎?」

可能是因為疫情在家,大家太長時間沒有動筆寫過東西,突然要寫觀後感還有點不適應。這時候,一個網站出現在了大家的視野中,網站介面十分簡潔,左上角是標題,「防疫大課堂觀後感生成器」十個大字點明了網站的功能,中間「再給我整一篇」的按鈕的作用也很直接。

一鍵按下,一篇五六百字、像模像樣的觀後感便誕生了!

文章後面還貼心的附上截圖一張,用過的大學生都說,「我自己寫也就這水平」、「愛了愛了」。

5天之內,這個觀後感生成器已經幫助了共有507338位同學,生成了1868839次觀後感,還收到了一千多塊錢的打賞,作者將打賞全部捐給了韓紅愛心慈善基金會

觀後感生成器的前世今生

為了更加深入的了解這個神奇的網站,我們聯繫到了網站的作者,一位江南大學的大四學生

問:你為什麼想做這個網站呢?

答:程式設計師嘛,只是想做一些有用的工具

當採訪進行到這裡,你大概也就知道了,這顯然是一個真正只關注技術的「程式猿」!其思維方式也非常符合一位程式設計師的解決問題方式:出現問題-編寫程式-解決問題-分享。

對於這個網站是如何實現自動生成觀後感的功能,作者也表示,方式很「簡單粗暴」,找了幾十篇文章分解出了開頭正文和結尾,每次隨機組合一下就完事了

$head=rand(1,17);$str = file_get_contents("./head".$head.".txt");

最近也有不少大學生表示在家實在太無聊了,在微博大呼「我要開學!」。

然而抗疫剛剛取得勝利,目前還有境外輸入病例,一著不慎很有可能重蹈覆轍,所以目前還不是開學的合適時機,這場防疫大課堂既是對全國大學生的防疫教育,也是為了讓大學生們能夠進一步認清當前嚴峻的形勢。

從胡編生成器到胡氏評論大賽,胡錫進本人參與

用技術手段進行有風格的文字生成,這位同學並不是第一位。最近,除了觀後感生成器之外,GitHub上還有一個「胡編生成器」項目也大火了起來,這也是繼「趙彈磁鐵」之後,惡搞語言應用的一位新成員。

從名字上大概就能猜出,胡編生成器是以環球時報總編輯胡錫進的微博為語料和原始數據製作的模型,首先我們還是先來看看效果如何:

熟悉胡錫進微博風格的人還是能一眼看出,生成器生成的文章不能再像胡錫進本人,從原始語料到一篇通順的文章,這也要得益於胡錫進在微博堅持不懈的進行內容輸出。

GitHub指路:

https://github.com/menzi11/BullshitGenerator

早在胡編生成器之前,就有網友總結了胡錫進的評論套路格式:以形式遮蔽內容;消解意義;偷換目標;把稻草人批判一番;強搶功勞;模糊主次;打桌子哄孩子。

胡氏評論就是這樣一種遇到新鮮事,第一時間生成評論發布,馬上搶佔輿論高地,贏取偉大勝利的評論形式。

如果還是不能理解胡氏評論的精髓,那就只好拿出網友總結的評論格式模板了:「近期互聯網上出現了__________,老胡也看到__________,知道大家很__________,老胡忍不住啰嗦幾句,雖然__________確實存在部分__________,但是__________,最後老胡呼籲__________」

胡編生成器這兩天算是被網友玩壞了,這也驚動了胡錫進本人,甚至在微博舉辦了一個胡氏評論大賽,玩得不亦樂乎。

看了胡錫進本人的「參賽文」,你給幾分?

去年風靡一時的「狗屁不通文章生成器」

「胡編生成器」的創作者稱,胡編生成器的誕生,是基於去年年底風靡一時的「狗屁不通文章生成器」,只要輸入一句話,系統就會生成一篇萬字長文的神器。

好奇的文摘菌想知道輸入「防疫大課堂觀後感」會出現何種文章,於是…

沒有對比就沒有傷害,真的是「狗屁不通」。

不僅出現了車軲轆話,並且文摘菌也想知道「防疫大課堂觀後感,到底應該如何實現」。

再試一試輸入這首非常洗腦的歌曲,看看有什麼樣的效果:

emmmm,翻來覆去就是那些句型。神器的作者也在GitHub表示,千萬別當真,just for fun!

那麼,這個文章生成器究竟是一個怎樣的演算法?作者在項目里寫道:

鄙人才疏學淺並不會任何自然語言處理相關演算法,而且目前比較偏愛簡單有效的方式達到目的方式,除非撞到了天花板,否則暫時不會引入任何神經網路等演算法。不過歡迎任何人另開分支實現更複雜,效果更好的演算法,不過除非效果拔群,否則鄙人暫時不會融合。

看來作者也的確擁有一個有趣的靈魂。

那麼有沒有作者所說的更好的生成器,能夠避免長篇大論下的「狗屁不通」呢?這就不得不提到OpenAI開發的著名的文本生成模型GPT-2

一年之前,OpenAI的新文本生成模型GPT-2掀起了一場不小的風波,在技術社區和社交網路引起廣泛討論。

這是OpenAI訓練的一個大型無監督語言模型,能夠生產連貫的文本段落,在許多語言建模基準上取得了SOTA表現。而且該模型在沒有任務特定訓練的情況下,能夠做到初步的閱讀理解、機器翻譯、問答和自動摘要

由於這個文本生成器性能太好,OpenAI擔憂其將會導致濫用,因此決定暫不將其發布開源

OpenAI表示,GPT-2經過40千兆位元組互聯網文本樣本的訓練,參數達到15億,可以生成「符合上下文環境文本風格和內容」的文本,讓用戶「為他們選擇的主題生成真實和連貫的語句。」GPT-2在Winograd Schema,LAMBADA和其他語言建模任務上均獲得了領先水平。

OpenAI最終發布了一個精簡版本TalkToTransformer供大家使用,我們通過一個例子來看看這個文本生成模型有多強大。

比如用川普做例子寫一則「洋蔥新聞」。

輸入我們的開頭:「唐納德·川普今天宣布他將永遠關閉美國。川普在twitch上直播了自己的競選勝利,他……」

模型給出的續寫是:「……對媒體的批評進行了猛烈抨擊,這讓美國人感到意外。他列舉了100多萬張非法選票、對選舉結果的操縱,甚至還有一名墨西哥裔美國法官同情他的競選對手的陰謀論。當他走下舞台時,一群人高呼『把他關起來!』和『川普! 』,並目送他離開。」

看來GPT-2的效果還是不錯的,「防疫大課堂觀後感生成器」的作者也表示,生成觀後感「用不上GPT-2」,但相信大家和文摘菌有一樣的好奇,如果用GPT-2來寫一篇「防疫大課堂觀後感」,結果會怎麼樣?

感興趣的同學不妨一試哦!

End