開學后, 是時候喚起你的恐怖回憶了。
也許《黑鏡》的編劇怎么也沒想到,這部曾一度被封神,但口碑一路下滑的科幻電視劇,終于迎來了“戲言”一語成讖的時刻。
在2018年播出的第四季第二集中,為了更好監(jiān)護自己的女兒, 一位母親給她的眼睛植入了芯片控制器,自己可以透過一個類似iPad的硬件查看其身體的各項生命體征,也可以轉(zhuǎn)播它的視覺信號。
換句話說,她可以通過iPad看到任何女兒看到的畫面。假如后臺顯示因為女兒看到恐怖畫面而導致皮質(zhì)醇上升,她可以按下屏蔽按鈕,用馬賽克抹除掉女兒看到的特定物體,譬如一只兇猛的大狗。
現(xiàn)在,讓我們偷換一下里面的技術(shù)細節(jié)。
把植入的芯片,換成教室里可以做到十幾個小時連續(xù)監(jiān)控的人臉識別攝像頭。通過人臉識別的實時分析,作為家長和老師,你可以隨時獲得她更加細致的多達十幾條指標結(jié)論:
趴桌子2次,玩手機2次,睡覺1次,聽講0次,閱讀0次,舉手0次,笑了0次,厭惡表情出現(xiàn)了10次……
最后機器可能得出一個綜合結(jié)論:她是個有問題的孩子。
以上,便是曠視科技在前天晚上引發(fā)微博軒然大波的產(chǎn)品圖片以及被截取的視頻內(nèi)容。
而這已經(jīng)不是一部電影,也不是一個停留在宣傳片層面的demo,因為類似項目,已經(jīng)進駐部分小學與大學。
在微博與知乎上的討伐聲此起彼伏時,曠視科技很快便發(fā)布了一則正式聲明,表示網(wǎng)上出現(xiàn)的圖片僅僅是技術(shù)場景概念演示,公司在教育領(lǐng)域的產(chǎn)品專注于保護孩子在校園的安全。
這則聲明中,關(guān)鍵詞是“安全”。而最具爭議的討論點之一,也恰恰是“安全”。
要解決孩子的人身安全, 需要我們?nèi)シ治鏊硕嗌俅斡X,舉了多少次手以及瞟了同桌多少眼的問題嗎?
或者反過來說,這些強加的條條框框,是否能夠有效解決校園霸凌?
再或者說,我們知道這個孩子或許有幾個表現(xiàn)不達標,那么我們有沒有準備好對癥下藥的解決方法?即便作為一名老師可能很了解一個孩子上課有不聽講的毛病,但是對于改變他的毛病卻通常無能為力。
我們的關(guān)注點從談及“安全”的一開始,就已經(jīng)本末倒置了。
這也是《黑鏡》里植入芯片與人臉識別分析上課表現(xiàn)與行為的共同點:
拿捏不好分寸,將所謂的“保護”轉(zhuǎn)變?yōu)椤斑^度保護”,以保護之名行“監(jiān)禁”之實,將會在未成年人的心理上留下怎樣的痕跡?最壞的結(jié)果,還請參見黑鏡這一集的結(jié)局。
技術(shù)本沒有任何錯誤,根本在于我們的命運掌握在有權(quán)使用技術(shù)的人手里。
曠視“冤”嗎?
當輿論炮火被引到曠視身上時,我們其實需要了解更多真相。
2018年在北京舉行的安博會上,除了“人臉識別技術(shù)”成為硬件與方案的標配,幾乎現(xiàn)場可提供場景解決方案的安防廠商中,有一半都表示可以做以校園場景為基礎(chǔ)的人臉識別監(jiān)控。
而在百度與天眼查上搜索“校園智慧解決方案”,聲稱可以提供室內(nèi)人臉識別監(jiān)控方案的企業(yè)不在少數(shù)。
實際上,在國內(nèi)各省的平安校園建設持續(xù)多年,出發(fā)點是預防各類侵害學生權(quán)益的事件發(fā)生,譬如阻止社會人員滋擾在校師生,再有就是讓人痛恨的校園霸凌。
與此同時,2018年教育信息化2.0行動計劃的頒布,也讓提高教學質(zhì)量與效率的目標與更多更復雜的技術(shù)手段建立了聯(lián)系。
然而,在技術(shù)應用愈加成熟與便捷的過程中,有些東西正在發(fā)生變質(zhì)。
學校與家長的關(guān)注點從學生的人身安全,逐漸轉(zhuǎn)向更加符合個人利益的要素上,譬如如何讓學生更加高效地學習,預防早戀等等,這些在他們看來都與更好的成績,孩子們更好的未來以及學校更好的名聲直接掛鉤。
早在2017年,國內(nèi)就有不少中小學安裝了聯(lián)網(wǎng)攝像頭,家長在家里下個app,就可以通過教室黑板上方那個攝像頭,看自己的孩子到底在教室里做些什么。
也曾有學生在微博上控訴類似的事情,但并沒有引起多少關(guān)注。
而在app遠程監(jiān)控的基礎(chǔ)上,加入更加強大的人臉識別及分析,只不過是一種“變本加厲”,而不是一家技術(shù)公司創(chuàng)造的原罪。
有行業(yè)人士表示,校園安防建設與信息化建設的盤子很大,各個階段政府與學校都需要有一定的項目資金投入,這是一個前景很可觀的市場。但至于這樣如此高技術(shù)含量的東西能不能用得上,就另當別論了。
另一方面也有人認為,作為一家將要IPO,但營收并不好看還存在虧損的人臉識別技術(shù)公司之一,業(yè)績壓力也讓他們想尋找各個途徑實現(xiàn)技術(shù)變現(xiàn),對于一些產(chǎn)品設計的思考可能欠妥當。
“只能說用這種方法去吸引采購方,用各種高大上的語言去包裝,也許有些不會買賬,但也可能有人會被產(chǎn)品提升教育質(zhì)量與安全都能兼顧的說法給打動。” 據(jù)一位不具名的安防人士表示,從這個市場來看,一個巴掌是拍不響的。
“但另一方面,企業(yè)的技術(shù)并沒有那么好,很有可能忽悠客戶。實際上,你看到的那些分析維度,其實在實際場景中結(jié)果并不準確?!?/p>
技術(shù)的局限性
技術(shù)創(chuàng)業(yè)公司通常都有一個毛病,就是喜歡把宣傳視頻或廣告圖片“修”得趨于完美。
除了吸引投資,這些視頻也是向客戶推銷產(chǎn)品的一大“伴手禮”,但實際上,很多時候在上手一試后,就會發(fā)現(xiàn)效果大都需要減半。
以情緒檢測為例,在一次試用人臉識別公司的表情檢測軟件的過程中,我們發(fā)現(xiàn)“快樂”和“開心”更容易被算法定義,只要我咧開大嘴,嘴角朝上,那么系統(tǒng)就會判定我目前是開心的。
而悲傷,厭惡,或者是“面無表情”,根本沒有一個可以被標準化的基礎(chǔ)結(jié)構(gòu),因此檢測成功率也較低。工程師也承認,除了“笑”,其他表情其實都無法給出非常精準的結(jié)果。
更何況以上所有情緒,都可以“造假”。譬如強顏歡笑,或者是故意張大嘴表示憤怒,都可能騙過機器。
此外,我們也比較好奇像“睡覺”這個維度是如何做到精準分析的。那學生們困了,可能只需要一個曾在日本很流行的上班族必備神器——假眼貼紙,解一時之急。
最有意思的是,與國內(nèi)對人臉識別大部分的正向宣傳相反,由于人臉識別技術(shù)在有色人種、民族、兒童老人等維度的準確率方面存在巨大差異,人臉識別技術(shù)應用在國外的推廣略顯艱難。
作為國外反人臉識別風潮中最有名的攻擊對象,曾被美國警方使用的亞馬遜計算機視覺平臺 Rekognition被自家股東在今年年初開始持續(xù)施壓,他們強制要求亞馬遜停止向執(zhí)法部門出售人臉識別軟件。
而這股風潮也在今年8月初吹到了英國,有房地產(chǎn)商在倫敦國王十字區(qū)安裝了人臉識別硬件后遭到強烈反對,因為后者對此毫不知情。
在美國,這項技術(shù)正面臨著來自立法者越來越大的阻力。
加利福尼亞州參議院正在考慮立法禁止在警用隨身攝像機中使用人臉識別軟件,而舊金山監(jiān)事會(美國中西部及東部各州)也已經(jīng)開始禁止執(zhí)法部門使用這項技術(shù)。
因此,包括亞馬遜、谷歌以及亞馬遜等技術(shù)公司雖然很不情愿,認為“新技術(shù)不應該因為可能被濫用而遭到禁止和譴責”,但卻達成了一個共識:
制定相關(guān)合乎道德的指導方針,要跑在真正能使用這項技術(shù)之前。
因為一個明確的監(jiān)管框架不僅能確保人臉識別只用于完成合法的任務,也能夠幫助消費者理解這項技術(shù)的好處。
讓人臉識別“走上正路”,一邊是法律的強勢介入,而另一邊則是來自民間個人的智慧。
俄羅斯搜索巨頭 Yandex 的技術(shù)開發(fā)總監(jiān)Grigory Bakunov發(fā)明了一種反面部識別方法。其實這種方法理解起來很簡單,就是在臉上用特殊顏料多添幾筆,干擾系統(tǒng)對人臉特征的提取。
而日本一位名叫 Isao Echizen的教授為了保護隱私,發(fā)明了一種利用紅外發(fā)光二極管來干擾人臉識別的眼鏡。因為這種人類看不見的紅外光可以在攝像頭的“眼”中呈現(xiàn)出明亮的紫色。
當然,還有多種“殺馬特”造型供學生們以及不愿意泄露面部數(shù)據(jù)的成年人們選擇:
隱私保護的漫漫長路
如何保護隱私?這個問題存在很長時間,但似乎無解。
因為所處的環(huán)境不同,以及每個人對隱私的定義也不同,導致我們不能做過多解讀。
譬如,援引美國獨立研究員Stephanie Hare的話來解釋,人臉識別系統(tǒng)的最大問題之一是涉及到生物特征數(shù)據(jù),換句話說,就是人體信息,這無疑與我們的隱私有關(guān)。
但這次曠視引發(fā)的討論中,有小部分人對“這種做法是否真的侵犯了隱私”提出了質(zhì)疑。
譬如“既然家長可以把學生的情況反映給家長,為什么機器不能匯集更豐富的信息給家長?”,再譬如“未成年人到底有沒有獨立于成年人的隱私權(quán)”?
這個時候,只能搬出最“教條”的東西來了:
《教師法》賦予了老師管理學生的權(quán)利,法律賦予了機器什么?
而第二個問題本身就是有問題的?!段闯赡耆吮Wo法》明確表示未成年人具有隱私權(quán),之所以一直被侵犯,跟成長教育環(huán)境有很大關(guān)系。
從本質(zhì)來看,這些質(zhì)疑聲恰恰凸顯出隨著技術(shù)發(fā)展,法律一定要強勢介入的必要性。
但是每次涉及到隱私問題,我們的擔憂都會在一次集中爆發(fā)后,又迅速銷聲匿跡。
2016年Facebook人臉識別被控侵犯隱私如此,2018年亞馬遜智能音箱等企業(yè)被爆偷聽偷錄用戶日常數(shù)據(jù)也是如此。如今,在換臉視頻app Zao的使用熱度過去,對AI教室監(jiān)控產(chǎn)品的討伐聲結(jié)束,大概對隱私被侵犯的控訴仍然會不了了之。
所以我們根本不應該去指責百度CEO李彥宏在去年中國高層發(fā)展論壇上發(fā)表的“中國大多用戶愿用隱私來換取便捷服務”的言論,捫心自問,我們有多少人心里是這么想?yún)s不敢說?
而回到這個問題上,當學生們即便同意自己的身體信息被收集和分析,那么參與方有沒有征求過這些機器直接作用方的意見呢?
是的,這就像我們?nèi)ビ糜嬎銠C視覺去檢測桃子的大小形狀以及腐爛程度,用人臉識別以及多種生物識別方法來監(jiān)測豬的生長情況與肥壯健康程度,最終我們也把這套固化的標準,用在了我們自己身上。
是的,我舉手0次,打瞌睡10次,笑了0次,我就是一個壞學生。
而孩子們會不會在這樣隱形的壓力下有了更加符合人性的“特長”,譬如學會裝模作樣,學會接受把這套機器用在下一代身上。
因此,在釀成大錯之前,我們更應該著手去做的,是讓隱私保護問題引起更多人的重視和推動相關(guān)法律的確立,而不是把口水噴到一家公司的身上。
最后,引用知乎上一位回答“如何看待曠視科技新產(chǎn)品監(jiān)視學生上課?”得到最高贊的匿名人士的一段感概作為結(jié)語:
“這不是產(chǎn)品經(jīng)理或者程序員的問題,不是一家公司的問題,甚至不是一個技術(shù)問題。這是我們社會的價值觀的問題,是我們怎么看待自身權(quán)益的問題。”
文/ 宇多田
請登錄以參與評論
現(xiàn)在登錄