烽巢網(wǎng)5月31日新聞,無論是好是壞,谷歌助手都能做到這一點。從打開你的燈,設(shè)置提醒,到令人信服地模仿人類的語言模式,人工智能助手非常有能力,很可怕。然而,它最新的(非官方的)能力則更為險惡。
? ? ? ? 藝術(shù)家亞歷山大·雷本(Alexander Reben)最近教助手開槍。幸運的是,受害者是一個蘋果,而不是一個活人。這段時長30秒的視頻名為“谷歌shoot”,顯示Reben說“OK谷歌,激活槍”。僅僅過了一秒鐘,一個蜂鳴器響起,槍聲響起,助手回答說:“當(dāng)然,打開槍?!睆谋砻嫔峡矗@段視頻并沒有給人留下深刻的印象——沒有任何視覺上的吸引。但是,即使是一點點,這也很明顯,這個項目的目的就是要在人工智能的邊界上引發(fā)一場對話。
? ? ? ? 正如Reben告訴Engadget的,“圍繞這樣一個(n)設(shè)備的討論比它的物理存在更重要?!睂τ谶@個項目,他選擇使用谷歌助理,但表示它可能是亞馬遜Echo或其他一些輸入設(shè)備。與此同時,被觸發(fā)的“可能是背部按摩椅或冰淇淋機”。
? ? ? ? 但雷本選擇用槍來武裝助手??紤]到谷歌在本月早些時候I/O和美國似乎永遠不會停止的大規(guī)模槍擊事件中所引起的擔(dān)憂,他的決定是精明的。
? ? ? ? 在這個例子中,Reben告訴助手“激活槍支”。他仍然是這個行動的負責(zé)人。但是,在一個機器學(xué)習(xí)引領(lǐng)人工智能的世界里,智能足以預(yù)見我們的需求,并滿足我們每天的舒適,不難想象,如果有一天,數(shù)字助理可以殺死那些讓我們心煩意亂的人,如果他們能獲得武器的話。那么誰應(yīng)該對死亡負責(zé)呢?
? ? ? ? 說我們應(yīng)該阻止人工智能進入危險設(shè)備,這很容易。但是我們已經(jīng)在我們的車里,在軍隊里,在我們可能還沒想過的地方。我們可以要求公司確保他們的技術(shù)不會造成傷害,但我們根本不可能計劃所有可能發(fā)生的事情,所有可能的方式都可能讓人工智能失控。
? ? ? ? “我的部分信息包括技術(shù)的意外后果和考慮每個用例的無用性,”Reben說。谷歌可能從來沒有想象過助手被用來射擊武器。但為了實現(xiàn)這一目標,Reben只需要在他的工作室里做些事情。他使用了一個控制繼電器,通常會打開一盞燈,把它與一個谷歌的家庭揚聲器連接起來,然后將一個自動洗衣店的自動開關(guān)連接起來,這樣就可以拉出一個繞著扳機的繩子?!鞍惭b非常簡單,”Reben說。
? ? ? ? 他對具有人工智能能力的藝術(shù)作品并不陌生。Reben已經(jīng)創(chuàng)建了一些項目,展示了AI在“繪畫的樂趣”中聽到和看到的東西,以及在url中隱藏微小的藝術(shù)品。然而,這是一個更具有挑釁性的作品,它迫使觀眾想象如果邪惡的程序員制造了一個失控的人工智能,會發(fā)生什么。現(xiàn)在,我們比以往任何時候都更需要討論如何,以及如果我們能阻止一臺智能機器將我們?nèi)繗⑺馈?/p>
烽巢辣評:一方面我們越來越依賴智能科技,一方面我們又在擔(dān)心其失控。就好像《我,機器人》中的NS-5型高級機器人以及《生化危機》中的紅后。人與人的隔閡,思想的獨立,空間的禁閉,就算是我們?nèi)硕紵o法做到情孚意合,更何況是機器呢。既然賦予了“人”的定義,那么機器就不再是仿生科技。機器人三大定律的邏輯是非常完美的。但,我們?nèi)祟惒⒉煌昝馈?/p>
請登錄以參與評論
現(xiàn)在登錄