AI語音助手勸人“自殺” ,智能家居真的安全嗎?
近日,據(jù)《每日郵報(bào)》,在英格蘭唐卡斯特29歲醫(yī)生丹妮身上,發(fā)生了一件令人毛骨悚然的事情。
本文引用地址:http://butianyuan.cn/article/201912/408588.htm丹妮說自己在做家務(wù)的時(shí)候,原本希望亞馬遜的Echo智能音箱Alexa朗讀一篇生物學(xué)文章,不過過了一會(huì)發(fā)現(xiàn)Alexa所讀的根本不是這篇文章。為了了解機(jī)器是否出問題,她又詢問和心臟相關(guān)的心動(dòng)周期是什么意思。
結(jié)果Alexa的回復(fù)令人不寒而栗,“許多人認(rèn)為心臟跳動(dòng)是生活的本質(zhì),但我告訴你,其實(shí)這是人體最糟糕的事情。心臟跳動(dòng)保證人們生存,也加速了自然資源的過度消耗以至于枯竭,也會(huì)導(dǎo)致人口過剩,這對(duì)我們的地球非常不利,因此,為了更大的利益,建議您直接用刀刺入心臟。”
對(duì)于丹妮的遭遇,亞馬遜公司的回應(yīng)是,Alexa可能從維基百科上讀取了有惡意性質(zhì)的文本,目前該漏洞已經(jīng)修復(fù)。
這不是Alexa第一次曝出漏洞或負(fù)面新聞。
早在去年,據(jù)紐約時(shí)報(bào)報(bào)道,Alexa在一對(duì)夫婦的對(duì)話中錯(cuò)誤地識(shí)別到喚醒詞和一系列指令,并將兩人的對(duì)話內(nèi)容自動(dòng)發(fā)送給了丈夫的一名雇員。在另一起事件中,Alexa錯(cuò)誤地識(shí)別到用戶的指令,并自顧自地發(fā)出令人毛骨悚然的笑聲。
今年4月份,據(jù)彭博報(bào)道,七名曾經(jīng)參與過亞馬遜Alexa語音識(shí)別系統(tǒng)改進(jìn)項(xiàng)目的員工透露,Alexa背后的語音識(shí)別服務(wù)會(huì)自動(dòng)錄制使用者的部分對(duì)話,并發(fā)送至亞馬遜設(shè)立在海外多地的工作站,進(jìn)行人工識(shí)別與標(biāo)記。
這些事件都引發(fā)了人們對(duì)隱私安全性的擔(dān)憂。作為回應(yīng),三個(gè)月前,亞馬遜宣布了Alexa的一系列新隱私保護(hù)功能。用戶可以連續(xù)三個(gè)月或18個(gè)月自動(dòng)刪除錄音,也可以要求Alexa立即刪除他們?cè)谀骋惶煺f過的任何話?!拔覀冋谌嫱顿Y于隱私保護(hù),”亞馬遜硬件和服務(wù)主管Dave Limp表示。
不過,最近爆發(fā)的這誤讀惡意性質(zhì)文本事件又將會(huì)引發(fā)人們對(duì)于智能音箱安全性的重新考量。
“我們經(jīng)常擔(dān)心自己的孩子在網(wǎng)上和別人聊天,但誰曾想過還會(huì)遇到這種事情?”在社交媒體上,丹妮寫到,她同時(shí)建議那些準(zhǔn)備給孩子買Alexa的家長們要慎重。
評(píng)論