產(chǎn)品分類 / Product Categories
聯(lián)系我們 / Contact Us
江西丹巴赫機器人股份有限公司服務(wù)熱線:400-697-1188
聯(lián)系電話:0791-88133135
公司傳真:0791-88221576
手機號碼:18607918385
公司郵箱:sale@danbahe.cn
公司地址:南昌市高新區(qū)創(chuàng)新三路811號
警惕人工智能威脅,須盡快建立有效機制!
DANBACH ROBOT
未來的人工智能將會越來越聰明,甚至能夠無限接近人類,可以獨立思考,擁有情感。面對人工智能帶來的無限未知,我們在享受技術(shù)進步的同時樣要心存危機感。
今年3月8日,物理學(xué)家史蒂芬·霍金向英國《獨立報》提出:人類必需創(chuàng)建有用機制及早辨認(rèn)威脅所在,防備新科技(人工智能)對人類帶來的危機進步加深。他說,人工智能會以多種形式展開對人類的毀滅,比如生化戰(zhàn)爭或核子戰(zhàn)爭,聰慧醒目的人工智能會讓人類滅亡?;艚鸢凳荆簜€超聰慧的人工智能可以很是好地實現(xiàn)它的目的,如果這些目的沒有與咱們?nèi)祟愅?,咱們?nèi)祟惥驮庋炅恕?br />

人工智能
其實除了霍金,很多人都表示出對于未來人工智能會威脅人類的擔(dān)憂。許多關(guān)于人工智能帶來末日的電影場面恢宏而燦爛,人類在科技帶來的毀滅面前顯得又是無比的脆弱,在那刻人們是否會后悔沒有對人工智能危機早作打算?
人工智能在高速發(fā)展的社會上會給人們帶來多大的便利毋庸贅言,我們?nèi)绾蝸韺Υ艚鸬木婺??先,霍金本人也是人工智能技術(shù)的支持者,霍金認(rèn)為,如今人工智能似乎已經(jīng)滲透到各個領(lǐng)域。人工智能甚至可幫助根除長期存在的社會挑戰(zhàn),比如疾病和貧困等。
人工智能技術(shù)是當(dāng)今新技術(shù)革命的領(lǐng)頭羊。事實上,人工智能技術(shù)的發(fā)展已歷經(jīng)三次浪潮。次浪潮以“手工知識”為特征,典型范例如智能手機應(yīng)用程序等。第二次浪潮以“統(tǒng)計學(xué)習(xí)”為特征,典型范例如人工神經(jīng)網(wǎng)絡(luò)系統(tǒng),并在無人駕駛汽車等領(lǐng)域取得進展。雖然這些人工智能技術(shù),對明確的問題有較強的推理和判斷能力,但不具備學(xué)習(xí)能力。第三次浪潮則以“適應(yīng)環(huán)境”為特征,人工智能能夠理解環(huán)境并發(fā)現(xiàn)邏輯規(guī)則,從而進行自我訓(xùn)練并建立自身的決策流程。今年年初,谷歌AlphaGO的升版Master以60∶0的戰(zhàn)績,擊潰當(dāng)世所有圍棋頂高手;就在5月25日,AlphaGO又接連兩局擊敗中國圍棋職業(yè)九段棋手柯潔;我以為,這些都是人工智能第三次浪潮的標(biāo)志。
其次,人工智能技術(shù)也是把雙刃劍。方面,借助人工智能技術(shù)實現(xiàn)自動化,將大提高生產(chǎn)率,節(jié)省勞動成本;通過優(yōu)化行業(yè)現(xiàn)有產(chǎn)品和服務(wù),開拓更廣闊的市場空間。正由于人工智能對社會經(jīng)濟無可替代的重要推動作用,在我國兩會上已將人工智能寫進了政府工作報告。
另方面,人工智能技術(shù)對社會也帶來了近期和遠(yuǎn)期的風(fēng)險。在不遠(yuǎn)的將來,那些重復(fù)、耗時、乏味的工作;在快速變化的復(fù)雜環(huán)境中進行的工作以及超出人類限的工作,都有可能被人工智能系統(tǒng)所代替,從而沖擊勞動力市場??梢灶A(yù)測,由于人工智能的發(fā)展,多數(shù)人的智能將低于或接近人工智能的水平,如果沒有政策的有效控制,財富就會集中到少數(shù)智能超過人工智能的人手中,這將進步擴大社會的貧富差別,引發(fā)社會的撕裂。
至于說到霍金警告的人工智能引發(fā)的人類生存風(fēng)險,即人工智能將來會從整體上超越人類智能,據(jù)外媒報道,較新研究預(yù)測,10年內(nèi),人工智能將在語言翻譯、駕駛卡車甚至高中作文寫作方面勝過人類,在2049年之前,機器可以創(chuàng)作暢銷小說。50年內(nèi),人工智能將會在各種任務(wù)的執(zhí)行中戰(zhàn)勝人類。
研究人員指出,“人工智能的進步將會帶來巨大的社會后果。無人駕駛科技可能會在接下去10年內(nèi)取代數(shù)百萬從事駕駛工作的人。除了可能會發(fā)生的人類失業(yè),這轉(zhuǎn)變將會帶來新挑戰(zhàn),例如重建基礎(chǔ)設(shè)施、保護車輛網(wǎng)絡(luò)安全、修改法律法規(guī)。對人工智能開發(fā)商和決策者來說,在執(zhí)法、軍事技術(shù)和營銷方面的應(yīng)用也將帶來新的挑戰(zhàn)。”
但這并不是個壞消息。在調(diào)查中研究人員同時也確認(rèn)了“壞”結(jié)果產(chǎn)生的可能性,例如人工智能導(dǎo)致人類滅絕,幾率只有5%。
許多自然科學(xué)家認(rèn)為,目前人工智能離上述水平還很遠(yuǎn)很遠(yuǎn),其危險遠(yuǎn)不足慮;而某些社會科學(xué)家卻有擔(dān)憂,認(rèn)為隨著技術(shù)變革的深入,人工智能所引發(fā)的鏈?zhǔn)椒磻?yīng),就會出現(xiàn)無法控制的局面。上述認(rèn)識的差異,正好體現(xiàn)了人類對智能認(rèn)識的多樣性。從這個角度看,科學(xué)家全面認(rèn)識人類智能,并將其復(fù)現(xiàn),只是時間問題。鑒于人工智能有可能超越人類智能,以及由此產(chǎn)生十分嚴(yán)重的后果,再加上科學(xué)技術(shù)發(fā)展的內(nèi)在不確定性,就充分說明了研究人工智能安全問題的必要性。
早在1950年出版的美國科幻小說家艾薩克·阿西莫夫撰寫的《我,機器人》小說中,就提出了的“機器人三大定律”:定律,機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手旁觀;第二定律,機器人必須服從人給予它的命令,當(dāng)該命令與定律沖突時例外;第三定律,機器人在不違反、第二定律的情況下要盡可能保護自己的生存。此后,這“三大定律”不斷激發(fā)出對于人工智能安全性的新思考。由于人工智能較終必將會具備自主意識,到那時人類與人工智能系統(tǒng)之間的關(guān)系,必須服從普適、可靠的準(zhǔn)則。特別是在軍事領(lǐng)域要更加小心,否則有可能出現(xiàn)科幻電影中描述的人機大戰(zhàn)的場景。
因此,我們在發(fā)展人工智能系統(tǒng)的同時,還要確保其在預(yù)先制定的相關(guān)準(zhǔn)則下進行工作,以防止其出現(xiàn)越規(guī)行為。
上一篇:人工智能挑戰(zhàn)高考!揭秘高考機器人“應(yīng)試絕招”
下一篇:這個機器人醫(yī)生有點牛!17秒出咨詢報告