摘要:
隨著大數(shù)據(jù)和信息的爆發(fā)式增長,人工智能進(jìn)入一個快速發(fā)展的時期,同時也帶來了人工智能威脅論的爭議,對于人工智能能否超越人類智慧,以及神秘的圖靈測試的先天不足,在本文中進(jìn)行了詳細(xì)闡述。文章高能燒腦邏輯性強(qiáng),心煩意亂者慎讀。
本世紀(jì)以來,隨著互聯(lián)網(wǎng)大數(shù)據(jù)的興起,信息的爆炸式增長,深度學(xué)習(xí)等機(jī)器學(xué)習(xí)算法在互聯(lián)網(wǎng)領(lǐng)域的廣泛應(yīng)用,人工智能再次進(jìn)入快速發(fā)展的時期。與此同時,不同領(lǐng)域的科學(xué)家,企業(yè)家如物理學(xué)家霍金,微軟創(chuàng)始人比爾蓋茨等人,紛紛對人工智能的未來表達(dá)了擔(dān)心,提出人工智能的快速發(fā)展可能對人類本身產(chǎn)生威脅。
人工智能威脅論的支持者們說
霍金在去年12月接受BBS采訪時說:
“人工智能的全面發(fā)展可能導(dǎo)致人類的滅絕。它自己就動起來了,還能以前所未有的超快速度重新設(shè)計自己。人類呢,就要受到緩慢的生物進(jìn)化的限制,根本沒有競爭力,會被超越的?!?BR>
特斯拉CEO馬斯克對待人工智能的態(tài)度更為極端:
“我們需要超級關(guān)注人工智能。它的潛在危險性超過核武器”。
比爾·蓋茨2015年1月29日在Reddit的“Ask MeAnything”論壇上表示:
“我正在關(guān)注超級智能。首先,在開始的時候機(jī)器會為我們做很多工作,這些機(jī)器并不是超級智能。如果我們處理得很好的話,這應(yīng)該是具有積極意義的。那之后的幾十年,人工智能會強(qiáng)大到足以引起人們的關(guān)注。我同意伊隆·馬斯克和其他一些人的說法,不明白為什么有些人并不關(guān)心。”
由于這些科學(xué)家,企業(yè)家具有很強(qiáng)的影響力,人工智能威脅論因此得到廣泛傳播。而同時,在人工智能威脅論熱度日益高漲的情況下,人工智能領(lǐng)域科學(xué)家對人工智能威脅論也提出了反駁意見。這其中就包括Facebook人工智能實驗室主任,NYU計算機(jī)科學(xué)教授Yann LeCun,百度首席科學(xué)家,斯坦福大學(xué)計算機(jī)科學(xué)系和電子工程系副教授吳恩達(dá),中國科學(xué)院自動化所教授,人工智能領(lǐng)域?qū)<彝躏w躍等。
2025-02-05 11:16
2025-02-04 11:13
2025-02-03 11:11
2025-02-02 13:51
2025-02-02 11:07
2025-01-31 10:37
2025-01-30 10:29
2025-01-29 13:38
2025-01-28 10:06
2025-01-26 13:51