扒了社畜底褲還不夠 有人甚至打算對學生們下手

有個問題想問一下差友們:誰上學的時候沒有在課堂上開過小差?其實對於正常人來說,基本不太可能時刻保持精神和情緒的專註,開小差這種事可太正常了。托尼讀書的時候也常常干點不怎麼和學習有關的事,不過那時候會不會挨罵,主要得看老師稀不稀罕搭理你。。。

扒了社畜底褲還不夠 有人甚至打算對學生們下手

 別以為自己隱藏得好,其實在講台上看大家的小動作基本都一清二楚。不過由於一些眾所周知的原因,現在的學生也慢慢接受了網課形式的上學新體驗。

扒了社畜底褲還不夠 有人甚至打算對學生們下手

甚至個別人可能還覺得是件 「 好事 」:畢竟隔著網線和螢幕,老師對學生的狀態不能一覽無餘,到底聽沒聽課只有自己知道。

 哪知道一山更比一山高,英特爾之前搞出來的一個情感 AI(Emotion AI)就被海外的教育機構拿去做了學生們的 「 監視器 」。

扒了社畜底褲還不夠 有人甚至打算對學生們下手

美國有一個基於 Zoom 開發的名叫 「 Class 」的教育 App 就搭載了英特爾的這項技術,他們認為這能夠解決老師們上網課時的困難,而且能及時向遇到問題的學生提供幫助。

 根據海外媒體的報道,英特爾的情感 AI 可以通過攝影機捕捉學生們的肢體動作、面部表情,然後結合具體情境來分析和判斷他們當時的情緒或行為。

扒了社畜底褲還不夠 有人甚至打算對學生們下手

比如當你面露疑惑的時候,它就會提醒老師這個學生 「 沒聽懂 」 課堂內容;甚至在你趴在桌子上的時候它有可能會認為你覺得今天的課程很無聊等等。。。

 所以這項技術是怎麼做的呢?不外乎還是 AI 訓練的那一套。英特爾先是通過攝影機拍攝了成千上萬張學生們聽課時的表情,然後再讓心理學家們根據那些表情進行情緒分類,這個時候基礎的演算法數據模型就做好了。

扒了社畜底褲還不夠 有人甚至打算對學生們下手

最後拿著這套模型,日復一日進行 AI 智慧訓練。。。然而這項技術在海外並沒有得到太多支援,很多網友甚至將矛頭對準了英特爾表示反對。

扒了社畜底褲還不夠 有人甚至打算對學生們下手

他們對 Emotion AI 的準確性和科學性提出了質疑。。。而且其實從表情變化判斷情緒,這是人的基本能力之一吧?這也要搞一套 AI 智慧的東西出來。。。就挺沒必要的。

扒了社畜底褲還不夠 有人甚至打算對學生們下手

當然,托尼相信英特爾做這項技術的初衷可能並不是為了監測學生,而且 Class 的初心或許也是好的,但它的方式真的很難讓人認同。

 雖然人的情緒或者行為大多有跡可循,可往往在生活中可能會有很多複雜的因素才共同構成了某種情緒。

上個世紀有兩位心理學家( 保羅·埃克曼 & 華萊士·弗里森 )在經過研究和總結後發現,人類的面部表情可以和包括憤怒、快樂、蔑視在內的 7 種情緒 一一 對應並概括。

保羅·埃克曼和華萊士·弗里森的著作 ▼

扒了社畜底褲還不夠 有人甚至打算對學生們下手

這一發現雖然成為了早期情感識別技術的理論依據,但它在當時就引起了很大的爭議。。。因為不同文化背景下的人們表達情緒的方式可能不同。比如前兩年網路爆火的 「 黑人抬棺 」。。。就是迦納特有的喜喪習俗。

 如果讓 Emotion AI 來分析人家的情況,這 7 種情緒真能代表親友們的複雜心理?說不定在人工智慧眼裡,那些人個個都將成為 「 不肖子孫 」。

即使文化背景相同,每個人對於情感的表達也可能存在差異。何況用單一化的標籤來代表人的整體行為本身就是一種不嚴謹的方法。

扒了社畜底褲還不夠 有人甚至打算對學生們下手

用錯誤的方式得出錯誤的答案,怎麼可能指向正確的結論?按照 Emotion AI 的邏輯,如果我因為今天的早餐特別難吃,然後家裡的貓還打碎了花瓶。。。這時候又趕上了網課,那麼 Class 此時能連續捕捉到的可能是托尼緊皺著眉頭、嘴角向下暗自咬牙的表情畫面。

 於是我此時可能處於一種對課堂極度不滿意,甚至還想對著老師吐口水的狀態?在托尼看來,這完全是一種凌駕於他人之上的姿態在做事,堪稱科技圈的 「 我不要你覺得,我要我覺得。」

扒了社畜底褲還不夠 有人甚至打算對學生們下手

 太離譜了。。。真的。另一個爭議是,英特爾的這項技術還可能涉及到對人權和隱私權的侵犯。比如,Class App 必須通過捕捉面部影像來分析判斷情緒,這就意味著你得時刻打開攝影機。

扒了社畜底褲還不夠 有人甚至打算對學生們下手

當然,一個國家正常公民的個人住所是應該被保護不受侵犯的,住宅內的正常活動也不應該受到監視或監聽。只是托尼覺得,僅僅是上網課的話,老師和學校要求大家開啟攝影機也合情合理。

這些年我們一直能聽到有些公司在利用大數據或者軟體在 「 監控 」 大家的生活,就像之前被曝出的 「 深信服 」事件那樣。但 Emotion AI 這種直接能定義人們主觀情緒的東西,好像並不多?其實這玩意兒不僅國外現在開始應用,中國曾經也有過好幾次類似技術。

比如 2017 年貴州的部分學校,就在學生身上測試過一套 「 智慧校服 」。不僅能收集學生的指紋、人臉資訊、行為和身體狀況,還能把數據及時上報給學校和家長。

還有杭州的一所中學曾經也在 2018 年上線過一套 「 智慧課堂行為管理系統 」。通過教室內的攝影機分析學生表情和動作,並對學生行為打分。

扒了社畜底褲還不夠 有人甚至打算對學生們下手

就像大學裡老師會記錄你的課堂表現做平時分一樣。

 如果有學生存在上課打瞌睡或者走神的情況,除了影響學生自己的考評,還會降低整個班級的評分,並公示在走廊的電視機上。

扒了社畜底褲還不夠 有人甚至打算對學生們下手

一人犯錯全班吃虧,這一波直接倒退到公元前 356 年,商君直呼內行。。。還有 2019 年南方都市報報道稱在北京實地走訪,也發現部分高等教育院校或機構採用了所謂的 「 智慧校園 」 系統等。

 這些都和英特爾這次的 Emotion AI 技術類似,當然也伴隨著爭議。要我說人們之所以會反對,除了基於對人權的尊重外,還有一部分原因是因為恐懼 「 技術被濫用 」。就拿這種所謂的情緒 AI 在教育上的應用來說,不僅變相給學生們套上了一層枷鎖,同時也限制了老師的工作。

扒了社畜底褲還不夠 有人甚至打算對學生們下手

比如:用這種技術檢測到的學生們上課狀況,作為老師們的工作指標之一?其實技術本身是為了幫助任課老師更好地了解到課堂學生的狀況,同時也能了解到自己的課堂效果好不好。只是數據永遠不能完全代表現實中的實際情況。或許管理者僅憑學生們回答問題的次數、睡覺的人數就能直接評價老師們的水平。

扒了社畜底褲還不夠 有人甚至打算對學生們下手

 這種簡單而粗暴的邏輯,就和通過考試成績判斷學生是不是 「 壞孩子 」 一樣不講道理。然後層層加壓之後老師們可能迫於無奈,也只好用相同的邏輯來考量自己的學生。

除非他們真的不在乎自己的職業生涯好不好。。。這難道是一個比較正確的教育方式嗎?如果需要 「 監視 」 才能讓老師們好好工作、學生們好好讀書,那麼說明這件事從一開始就走錯了方向。

扒了社畜底褲還不夠 有人甚至打算對學生們下手

為什麼不可以用其他方式來激發孩子們的學習熱情?難道被 「 監視 」 著學生們就能好好學習了?所以英特爾 Emotion AI 的主要開發者,以及一些海外的教育分析師在接受採訪的時候也說了,這項技術的目標並不是為了監視或者懲罰任何人,但這並不意味著教師或者管理者不能用這種方式使用它。

 表達的意思我也聽出來了,就是說技術是無罪的,主要還是得看人們怎麼用。可托尼還是覺得,Emotion AI 根本就不算是一項成熟的技術。

扒了社畜底褲還不夠 有人甚至打算對學生們下手

將這樣一個理論依據都還存在爭議的東西拿出來,就算使用方法沒問題它也仍然是懸在人們頭頂的一把利劍。人之所以為人,有很大一部分就是因為需要自主,對自由選擇和個人控制的渴望是我們的天性,更是人權之一。誰也不會想要處在被人 「 監視 」 的生活環境中,並且不知道自己什麼時候、做了什麼事就被別人打上一個結論性的標籤。也正是因為人人都能自由選擇,才有了這百花齊放、豐富多彩的世界。

圖片、資料來源:

Google

光明日報:《機器能識別情感嗎?》

《學生上課全程監控,人臉識別30秒一次 》

//www.sohu.com/a/232753614_100072655

//www.sohu.com/a/341465044_603975

//www.reuters.com/article/idCNCHINA-3024620100916

//www.protocol.com/enterprise/emotion-ai-school-intel-edutech