谷歌成立人工智能安全倫理委員會
進入文明時代以來,人類就一直擔心有朝一日會遭遇“滅頂之災”,比如說變異的病毒、小行星撞擊地球,以及核災難等。隨著機器人技術(shù)的不斷演進,人類的“噩夢清單”上恐怕又多了一項:人工智能有可能發(fā)展出自己的思想,進而引發(fā)人類的“身份危機”。
本文引用地址:http://butianyuan.cn/article/201712/372433.htm
近來發(fā)出類似警告的是兩位頂尖科學家。一位是理論物理學家斯蒂芬·霍金,他甚至認為,當人工智能發(fā)展完全,就是人類的末日;另一位是電動汽車品牌特斯拉的掌門人馬斯克,他曾公開表示:“我們要十分小心人工智能,它可能比核武器更危險。”
對人工智能的研究始于上世紀50年代。近幾年,科學界和產(chǎn)業(yè)界對它的興趣超越了以往。最近一年半來,谷歌收購了十幾家機器人公司,并正在開發(fā)人工智能的一個圖騰——無人駕駛汽車;去年,社交媒體臉譜成立了新的人工智能實驗室……數(shù)據(jù)顯示,2009年以來,人工智能吸引了超過170億美元的投資,僅去年就有20多億美元投向擁有類人工智能技術(shù)的322家公司。
在并行計算、數(shù)字化神經(jīng)網(wǎng)絡(luò)、云技術(shù)、大數(shù)據(jù)以及深度學習算法等技術(shù)的推動下,人工智能的形態(tài)正逐漸顯現(xiàn):它既不是擁有與人類相似意識的機器人,也不是奇點論(人工智能與人腦智慧兼容的時刻)者宣稱的超智能,而是應用在狹窄的專業(yè)領(lǐng)域,如醫(yī)學、教育、法律、太空等高度專一的“行家”。隨著人工智能的發(fā)展,人類終有一天將被其取代的恐慌感也應運而生。美國奇點大學人工智能項目負責人尼爾·杰卡布斯坦早就說過:“要應對即將到來的人工智能革命,我們需要在數(shù)學素養(yǎng)、生態(tài)素養(yǎng)尤其是道德素養(yǎng)上不斷自我提升。”
科學的發(fā)展總是出乎我們的預料。在一項技術(shù)推廣前,審慎的評估和良好的風險控制是必要的,克隆技術(shù)、大數(shù)據(jù)、基因測序無不如此。杰卡布斯坦認為,假設(shè)人類成功構(gòu)建了超級計算機,而它想的跟我們不一樣,我們就得加以控制,就像對待孩子一樣。走在前沿的人和公司,已經(jīng)采取了一些行動阻止可能出現(xiàn)的混亂。谷歌在年初收購了以神經(jīng)系統(tǒng)科學為基礎(chǔ)的人工智能公司迪普曼德,隨后即成立了“人工智能安全倫理委員會”,以確保技術(shù)安全發(fā)展。
我們有充分理由樂觀看待人工智能研究。為了遙遠未來可能發(fā)生的危險而遏制技術(shù)的發(fā)展是愚蠢的。但在過去60年中,隨著人工智能每一次成功地“復制”只有人類才有的行為和能力,人類便不得不對人工智能進行重新定義,也不得不重新定義“人類”的含義。人工智能——這個除了人以外最像人的東西,其實是我們心理投射中一個再好不過的客體。在人工智能高度發(fā)展的未來,人類或許將面對一場“身份危機”:人類到底是偉大還是渺小,自我存在的意義是什么……這或許將成為人類的困擾。
評論