霍金:AI可能會(huì)成為人類歷史上最大的災(zāi)難
2016-10-20 09:57:13
來源:鳳凰科技??
作者:袁闖
英國知名物理學(xué)家霍金(Stephen Hawking)最近警告稱,發(fā)明AI(人工智能)可能會(huì)成為人類歷史上最大的災(zāi)難,如果管理不善,會(huì)思考的機(jī)器可能會(huì)為文明劃上句號。
霍金認(rèn)為:“對于人類來說,強(qiáng)大AI的出現(xiàn)可能是最美妙的事,也可能是最糟糕的事,我們真的不知道結(jié)局會(huì)怎樣?!?/span>
昨天,新的劍橋中心投入運(yùn)營,在慶祝典禮上霍金發(fā)表了演講。新的劍橋中心有一項(xiàng)使命:化解AI風(fēng)險(xiǎn),破解AI難題。
霍金對AI的無節(jié)制發(fā)展提出批評,他認(rèn)為,AI技術(shù)的確有希望帶來巨大的福利,比如根除疾病和貧困,但是它同樣也可能帶來危險(xiǎn),比如強(qiáng)大的自主式武器,或者幫助少數(shù)人壓迫多數(shù)人。霍金稱:“AI會(huì)給我們的經(jīng)濟(jì)帶來巨大破壞力,未來,AI會(huì)有自己的意志,它的意志可能會(huì)與我們的意愿產(chǎn)生沖突。”
最近一段時(shí)間,AI取得了許多突破,其發(fā)展速度超過了許多人的預(yù)期。谷歌DeepMind開發(fā)的AI系統(tǒng)已經(jīng)在圍棋上打敗了世界冠軍。本周三,微軟宣稱它所開發(fā)的語音識(shí)別技術(shù)已經(jīng)可以和人類相提并論。
有許多人對AI保持懷疑態(tài)度,霍金是當(dāng)中最著名的一位。去年,1000多名專家和研究人員在公開信上簽名,警告世人可能會(huì)出現(xiàn)AI武器,霍金正是其中一位。
原創(chuàng)文章
最新文章
家庭互聯(lián)網(wǎng)標(biāo)簽庫
商務(wù)合作
- QQ:61149512