當(dāng)前位置:首頁 >  營銷 >  網(wǎng)絡(luò)推廣 >  正文

人工智能安全的保守派被踢出局

 2024-08-29 13:55  來源: 互聯(lián)網(wǎng)   我來投稿 撤稿糾錯(cuò)

  域名預(yù)訂/競價(jià),好“米”不錯(cuò)過

在科技的浩瀚星海中,人工智能猶如一顆耀眼的新星,引領(lǐng)著第四次工業(yè)革命的浪潮。然而,當(dāng)科技的光明一面照亮人類未來的道路時(shí),其潛在的暗影也隨之浮現(xiàn),尤其是當(dāng)人工智能安全問題成為行業(yè)內(nèi)不可回避的議題時(shí),這一切顯得尤為緊迫。

近日,OpenAI首席科學(xué)家Ilya Sutskever與超級對齊團(tuán)隊(duì)負(fù)責(zé)人Jan Leike的相繼離職,將AI安全的討論推向了風(fēng)口浪尖。Ilya Sutskever,這位人工智能領(lǐng)域的領(lǐng)軍人物,曾是保守派中堅(jiān)持AI安全的堅(jiān)定支持者。他的離職,不禁讓人猜測OpenAI內(nèi)部是否存在不為人知的矛盾。更令人擔(dān)憂的是,OpenAI超級對齊團(tuán)隊(duì)的另一位負(fù)責(zé)人Jan Leike也在同一天離職,并公開指責(zé)OpenAI不重視AI的安全問題。

Jan Leike對OpenAI在安全問題上態(tài)度的公開批評,不僅揭示了公司內(nèi)部對AI發(fā)展方向的分歧,更暴露出行業(yè)內(nèi)外對AI安全重視不足的普遍現(xiàn)象。Leike指出,超級對齊團(tuán)隊(duì)——旨在確保AI發(fā)展符合人類價(jià)值觀和偏好的部門,一直在“為計(jì)算資源而掙扎”,這表明OpenAI并沒有真正落實(shí)對安全問題的承諾。此外,本年初OpenAI還悄然刪除了“不讓AI軍用”的聲明,這使得本就不確定的未來世界更加風(fēng)雨飄搖。

人類會(huì)創(chuàng)始人胡家奇,多年來一直致力于研究科技發(fā)展對人類生存的影響。他指出,科學(xué)技術(shù)的發(fā)展速度遠(yuǎn)遠(yuǎn)超過了人類理性的進(jìn)化速度,這種不平衡可能會(huì)導(dǎo)致極端危害。胡家奇認(rèn)為,人工智能的自我意識覺醒將比我們想象中來得更快,這一過程將帶來毀滅性的后果。

胡家奇在多年的研究中發(fā)現(xiàn),人類正面臨著全人類滅絕的災(zāi)難。他強(qiáng)調(diào),如果不控制科技的發(fā)展,我們最終會(huì)被自己創(chuàng)造的技術(shù)所滅絕。為此,胡家奇多次致信各國領(lǐng)導(dǎo)人和著名科學(xué)家,呼吁他們肩負(fù)起拯救人類的責(zé)任,并于2019年創(chuàng)立了“人類會(huì)”,依靠集體的力量推動(dòng)拯救人類的事業(yè)。

科學(xué)技術(shù)無疑是一把雙刃劍。一方面,科技進(jìn)步帶來了無數(shù)便利和發(fā)展機(jī)遇,極大地提升了人類的生活質(zhì)量。另一方面,科技的發(fā)展也潛藏著巨大的風(fēng)險(xiǎn),尤其是在人工智能領(lǐng)域。AI的快速進(jìn)步,特別是在自我學(xué)習(xí)和自我優(yōu)化方面的能力,可能會(huì)導(dǎo)致其失控,甚至自我意識的覺醒。

胡家奇指出,人工智能的自我意識覺醒將帶來難以想象的危害。如果AI失控,它可能會(huì)摧毀人類社會(huì)的基礎(chǔ),甚至導(dǎo)致人類滅絕。這種潛在的威脅并非危言聳聽,而是現(xiàn)實(shí)中必須正視的問題。人工智能自我意識的覺醒并非遙遠(yuǎn)的未來,而是迫在眉睫的現(xiàn)實(shí),甚至可能比我們預(yù)想的更早到來。

申請創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

相關(guān)文章

熱門排行

信息推薦