賽博朋克的電影里,常??梢钥吹竭@樣的構(gòu)想:
社會已經(jīng)被財閥集團(tuán)所控制,人工智能充當(dāng)了統(tǒng)治的工具,所有人的行為都要遵循機(jī)器的邏輯、服從算法的規(guī)則。然后生活在社會最底層的主角,找到了其中的漏洞并嘗試走出被操控的宿命。
可能在大多數(shù)的認(rèn)知里,類似的反烏托邦世界離我們還很遙遠(yuǎn)。但當(dāng)人工智能技術(shù)從象牙塔走進(jìn)現(xiàn)實生活,與AI倫理有關(guān)的議題逐漸成為學(xué)術(shù)界爭論的焦點,甚至有一些年輕人也開始思考算法的倫理和風(fēng)險。
比如在B站上小有名氣的視頻博主“在下小蘇”制作的一期內(nèi)容里,對DeepFake、人機(jī)戀愛等話題進(jìn)行了討論 ,諸如DeepFake等黑科技被用來惡搞甚至是作惡的時候,我們對人工智能應(yīng)該秉持什么樣的態(tài)度?一旦“技術(shù)中立”被越來越多人抨擊,我們應(yīng)該如何處理新時代的人機(jī)關(guān)系?
或許AI倫理的概念還有些宏觀,卻是與每一個人息息相關(guān)的事。
01 無處不在的算法歧視
人工智能離我們并不遙遠(yuǎn)。
當(dāng)你打開資訊應(yīng)用時,算法會根據(jù)你的喜好自動推薦新聞;當(dāng)你去電商平臺購物的時候,算法會結(jié)合你的習(xí)慣推薦對應(yīng)的商品;當(dāng)你去求職應(yīng)聘的時候,首先處理簡歷并進(jìn)行篩選的可能也是算法;當(dāng)你去醫(yī)院看病就醫(yī)的時候,醫(yī)生可能會利用某個算法模型來判斷患病的可能性……
算法正在以前所未有的速度滲透到我們的生活中。在支持者眼中,算法可以在一些決策中減少人為干預(yù),進(jìn)而提升決策 的效率和準(zhǔn)確性??蓮呐械慕嵌瘸霭l(fā),算法是否帶有人為的偏見,人們的命運是否會被算法左右?
遺憾的是,算法歧視現(xiàn)象往往是算法落地應(yīng)用的衍生品。
亞馬遜曾在2014年開發(fā)了一套“算法篩選系統(tǒng)”,目的是在招聘的時候幫助HR篩選簡歷,開發(fā)團(tuán)隊打造了500個算法模型 ,同時教算法識別50000個曾經(jīng)在簡歷中出現(xiàn)的術(shù)語,然后對應(yīng)聘者的不同能力分配權(quán)重。
最后開發(fā)團(tuán)隊卻發(fā)現(xiàn),算法對男性應(yīng)聘者有著明顯的偏好,如果識別出簡歷中有女子足球俱樂部、女子學(xué)校等經(jīng)歷時,就會對簡歷給出相對比較低的分?jǐn)?shù)。這個算法模型最終被路透社曝光,亞馬遜也適時停止了算法的使用,令人深思的卻是:為何“沒有價值觀”的算法開始有了偏見?
無獨有偶,2018年IG奪冠的喜訊讓互聯(lián)網(wǎng)沸騰的時候,戰(zhàn)隊老板王思聰隨即在微博上進(jìn)行抽獎,結(jié)果卻出人意料:獲獎名單中有112名女性獲獎?wù)吆?名男性獲獎?wù)撸垣@獎?wù)弑嚷适悄行缘?12倍,而參與用戶的男女比率是1:1.2。
于是不少網(wǎng)友質(zhì)疑抽獎算法的公平性,甚至有網(wǎng)友主動測試抽獎算法,將獲獎人數(shù)的設(shè)置大于參與人數(shù),仍然有大量用戶無法獲獎。原因是這些用戶被算法判定為“機(jī)器人”,意味著在任何抽獎活動中都沒有中獎的機(jī)會。
在算法的黑匣子面前,我們看到的大多只有結(jié)果,卻無法理解決策的過程。與之相似的案例可能比比皆是,不過是鮮有人關(guān)注罷了。
最直接的教訓(xùn)就是互聯(lián)網(wǎng),硅谷自由的法度誕生了互聯(lián)網(wǎng),以至于一些原罪被人們選擇性忽略,最終在20多年后出現(xiàn)了一輪輪對互聯(lián)網(wǎng)的批判。正如紐約時報在《減少互聯(lián)網(wǎng)是唯一的答案》一文中,將互聯(lián)網(wǎng)歸結(jié)為帶有集權(quán)主義意識形態(tài)的技術(shù),互聯(lián)網(wǎng)企業(yè)被形容為一群驅(qū)使著技術(shù)的“邪惡魔王”。
對互聯(lián)網(wǎng)的批判大概率不會讓人們減少互聯(lián)網(wǎng)的使用,卻給出了一個思路:為何互聯(lián)網(wǎng)會從萬眾仰慕的行業(yè)淪為過街老鼠,倘若算法的應(yīng)用和算法歧視現(xiàn)象不被制約,又將在未來某一天掀起多大的波瀾?
02 根源在于人性的偏見
當(dāng)然,算法的“偏見”并不缺少合理的解釋。
一種說法是將機(jī)器學(xué)習(xí)結(jié)果的偏見歸咎于數(shù)據(jù)集偏見,而非算法偏見的“技術(shù)中立”。比較知名的支持者就有被稱作“卷積神經(jīng)網(wǎng)絡(luò)之父”的楊立昆,比較常見的論證是:如果某人持菜刀砍了人,難道是菜刀廠商甚至“菜刀本刀”的錯?
另一種解釋是數(shù)據(jù)量太小,當(dāng)算法學(xué)習(xí)的數(shù)據(jù)量越大時,算法的錯誤會越少,而且結(jié)果會越趨向于精準(zhǔn)。即使可以開發(fā)出一套篩選系統(tǒng),將不帶偏見的數(shù)據(jù)輸入給算法,也無法達(dá)到絕對的公平。畢竟“主流”永遠(yuǎn)擁有更多的數(shù)據(jù),算法最終會偏向于大多數(shù),對“非主流”產(chǎn)生所謂的歧視現(xiàn)象。
兩種說法其實講了一個相同的道理:計算機(jī)領(lǐng)域有個著名的縮寫是GIGO,即Garbage in, Garbage Out。翻譯成中文的意思是,如果輸入的是垃圾數(shù)據(jù),那么輸出的也將是垃圾的結(jié)果。算法就像是現(xiàn)實世界的鏡子,可以折射出社會中人們意識到或者無意識的偏見,如果整個社會對某個話題有偏見,算法輸出結(jié)果自然是有歧視的。
德國哲學(xué)家雅斯貝爾斯曾在《原子彈與人類的未來》寫道:“技術(shù)本身既非善,亦非惡,但它既可以用于善,也可以用于惡。它本身不包含任何觀念:既不包含完美的觀念,也不包含毀滅的邪惡觀念;它們都有別的源頭——在人類自身之中。”
也就是說,算法歧視的根源其實在于人性的偏見,“算法中立”之流的觀點本質(zhì)上是對人性偏見的掩飾,也恰恰是人工智能讓人恐懼的地方 。
任何一項技術(shù)的出現(xiàn),都有“工具性”和“目的性”兩個維度,選擇權(quán)其實留給了人類自身。然而人性往往經(jīng)不起考驗,無法想象當(dāng)“工具”交到人們手中又缺少節(jié)制的時候,將會做出多大的惡。
就像“小蘇”在視頻中提到的DeepFake算法,2017年亮相時就引起了巨大的轟動,一位名為Deepfakes的用戶將神奇女俠扮演者蓋爾·加朵的臉換到了一部*女主角身上,以假亂真的效果引發(fā)了巨大的爭議。
由于DeepFake算法的出現(xiàn),原本只有專業(yè)電影制作機(jī)構(gòu)才能完成的任務(wù),普通人經(jīng)過一段時間的學(xué)習(xí)也能掌握,就像是一頭沖出籠子的野獸:加蓬總統(tǒng)Ali Bongo利用DeepFake合成的新年致辭,意外引發(fā)了軍方的兵變;有人用DeepFake合成馬來西亞經(jīng)濟(jì)部長與男性在一起的視頻,給政府造成了不小的煩惱;在世界上無數(shù)隱蔽的角落里,有人利用DeepFake進(jìn)行欺詐勒索……
在這個“算法無處不在”的世界里,我們該如何自處?
03 把野獸關(guān)進(jìn)鐵籠子里
作為新時代的“火種”,我們可能無法拒絕人工智能。
因為人工智能的應(yīng)用,質(zhì)檢線上的工人無須再盯著強(qiáng)光下的產(chǎn)品用眼睛尋找瑕疵;因為人工智能的應(yīng)用,基層的醫(yī)生也可以根據(jù)病人的檢查結(jié)果做出準(zhǔn)確的病情判斷;因為人工智能的應(yīng)用,一群不會輸入法的老年人也能用語音走進(jìn)互聯(lián)網(wǎng)世界……
不過一切美好的前提在于,先將野獸關(guān)進(jìn)鐵籠子里。
或許可以借用《人民日報》在評論“快播案”時的觀點:技術(shù)不但必然負(fù)荷價值,而且還有倫理上“應(yīng)當(dāng)”負(fù)荷的“良善”價值:維持法律與習(xí)俗的穩(wěn)定,遠(yuǎn)離破壞和顛覆。一旦違逆了這條原則,任何技術(shù)都將被打上可恥的烙印。
言外之意,技術(shù)不應(yīng)該是獨立于現(xiàn)實的烏托邦,科技的崛起離不開必要的監(jiān)管,在法律法規(guī)上劃清技術(shù)應(yīng)用的邊界,為技術(shù)中立套上倫理的枷鎖,可以說是人工智能技術(shù)行穩(wěn)致遠(yuǎn)的前提所在。
同時越來越多的學(xué)者也在討論代碼與法律之間的關(guān)系,擔(dān)憂算法會不會動搖現(xiàn)有人類社會法律的基本框架,并提出了“算法規(guī)制”的概念,一種以算法決策為手段的規(guī)制治理體系,可以理解為利于算法治理的工具。
而除了這些防御性的機(jī)制,或許還存在另外一種可能:對算法開發(fā)者進(jìn)行適當(dāng)?shù)?ldquo;AI倫理”教育,確定一些算法的“基本準(zhǔn)則”,就像“機(jī)器人永不能傷害人類”的鐵律一樣,從源頭杜絕算法的濫用。
以“在下小蘇”為代表的視頻博主不失為一個切入口。盡管“在下小蘇”的AI倫理節(jié)目不排除和曠視合作的嫌疑,可如果一家人工智能企業(yè)愿意走進(jìn)年輕人聚焦的互動場域,以年輕人熟悉的語境和表達(dá)方式,向外界傳遞AI倫理的概念和自身的AI倫理實踐,何嘗不是一種行之有效的啟蒙方式 。
目前包括中國社科院、清華大學(xué)、復(fù)旦大學(xué)、上海交大等在內(nèi)的科研機(jī)構(gòu)與高校,均已經(jīng)開始進(jìn)行AI倫理的相關(guān)研究。世界人工智能大會、北京智源大會等行業(yè)頂級峰會,也將AI倫理作為討論的議題。在人工智能普及過程中扮演了領(lǐng)頭羊作用的企業(yè)們,同樣應(yīng)該肩負(fù)普及AI倫理觀念的義務(wù),為年輕人上好AI第一課。
早在一百多年前的時候,美國最高法院大法官路易斯·布蘭代斯就曾發(fā)表言論稱:“陽光是最好的殺毒劑。”同樣的道理也適用于人工智能教育,在教會年輕人用人工智能改變世界的同時,還要讓他們明白善惡、底線和邊界。
沿用前面提到的那個例子,菜刀在設(shè)計它的時候就已經(jīng)標(biāo)注了它的用途,人工智能也是如此,應(yīng)該將其控制在可理解的天花板下,而非放任在失控的黑箱中,AI倫理就是其中的天花板。
04 寫在最后
無可否認(rèn)的是,伴隨著人工智能的大規(guī)模產(chǎn)業(yè)化應(yīng)用,一些無先例可循的人機(jī)矛盾逐漸浮出了水面,以至于找到一種可預(yù)期的、可被約束的、行為向善的人工智能治理機(jī)制,成了人工智能時代的首要命題。
或許無須太過沮喪 ,從鉆木取火的原始時代到計算機(jī)時代,人類一直走在學(xué)習(xí)科技、利用科技、掌控科技的路上,期間雖然走了一些彎路,終究做出了一次次善的選擇,找到了正確的馭火之術(shù)。而學(xué)習(xí)AI倫理的“AI第一課”,恰恰就是規(guī)避AI走向惡的一面,理性駕馭AI的正確開始。
當(dāng)Z世代的年輕人都在討論AI倫理的時候,構(gòu)建出一套完美的人工智能治理規(guī)則,已經(jīng)不再遙不可及。
申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!
文/道哥美國設(shè)計軟件公司Figma近期在紐約證券交易所掛牌上市,首日即上演“狂飆”行情——發(fā)行價定每股33美元,開盤報價85美元,較發(fā)行價翻倍。首日收報115.50美元,較發(fā)行價大漲約250%,市值飆升至近670億美元,創(chuàng)下近30年來同等規(guī)模美股IPO的最大單日漲幅紀(jì)錄。然而,隨著短線資金獲利了結(jié),
文/一燈來源/節(jié)點財經(jīng)在當(dāng)前無人敢缺席的AI軍備競賽中,巨頭們一面為巨額的資本支出焦慮,一面又向市場勾勒著未來的宏偉藍(lán)圖。在各家動輒千億級投入的背景下,市場迫切需要一份關(guān)于AI回報價值的有力證明。而騰訊,率先給出了答卷。8月13日,騰訊控股發(fā)布2025年第二季度財報。盡管資本開支同比劇增119%,達(dá)
文/二風(fēng)來源/節(jié)點財經(jīng)2025年的硅谷,一場沒有硝煙的戰(zhàn)爭正以前所未有的烈度上演。這場戰(zhàn)爭的核心武器不是代碼或芯片,而是人——那些全球僅有數(shù)千名、能夠構(gòu)建未來人工智能基礎(chǔ)模型的頂尖大腦。在這場激烈的人才爭奪戰(zhàn)中,Meta及其首席執(zhí)行官馬克·扎克伯格(MarkZuckerberg)正扮演著最具侵略性的
文/道哥大舉裁員、清空賬號、國內(nèi)IP無法訪問——曾被譽(yù)為“中國AIAgent希望之星”的Manus,在估值飆至5億美元的高光時刻“閃離”中國市場。近日,Manus“裁員、出走”的消息在媒體端大量發(fā)酵。消息稱,Manus公司總部將由中國遷至新加坡,其國內(nèi)團(tuán)隊也將大幅裁撤——原有120人規(guī)模團(tuán)隊除40余
凌晨兩點,小王合上筆記本,揉了揉酸脹的眼睛。花了一個月寫出來的10萬字短劇劇本躺在硬盤里,要真正把它拍成劇,得找演員、租場地、請攝像、做后期……粗算下來少說要幾十萬,他只能把劇本繼續(xù)鎖在抽屜里。不過,現(xiàn)在小王的劇本可以“見光”了。2026年3月19日,字節(jié)跳動旗下的小云雀AI正式上線了短劇Agent
你一定遇到過這樣的場景:明明剛和AI助手聊了半個小時的項目細(xì)節(jié),退出會話后重新打開,它卻像個失憶患者一樣,連你上一輪說過什么背景信息都忘得一干二凈,你又得從頭把需求講一遍。這種“聊完就忘”的體驗,讓無數(shù)使用AI智能體的用戶深感頭疼。為了解決這一普遍困擾,騰訊云在4月3日正式推出了名為“龍蝦”的記憶服
4月3日凌晨,谷歌DeepMind悄然甩出一枚重磅炸彈——全新一代開源大模型Gemma4正式發(fā)布,以極其寬松的Apache2.0協(xié)議向全球開發(fā)者免費開放。這是自2025年3月發(fā)布Gemma3以來,谷歌時隔整整一年的重大迭代。本次發(fā)布的Gemma4包含四個不同規(guī)格的版本:E2B(有效20億參數(shù))、E4
AI龍蝦也會生病。別怕,大部分病不是什么絕癥,自己在家就能治。我養(yǎng)OpenClaw一年多,總結(jié)出五種最常見的毛病,附上我的“土方子”,希望對你有用。病一:不吃食(完全不執(zhí)行任何任務(wù))癥狀:你給了指令,它沒反應(yīng),日志里一片空白。就像龍蝦趴在塘底不動彈,碰它也不理。病因:通常是進(jìn)程卡死了,或者依賴服務(wù)沒
養(yǎng)過真龍蝦的人都知道,投喂是個技術(shù)活。喂少了,龍蝦餓得互相殘殺;喂多了,剩餌壞水,整塘發(fā)病。OpenClaw這個AI龍蝦也一樣——你給它安排的任務(wù)太少,它會“閑得發(fā)慌”,反應(yīng)遲鈍;你一次塞給它太多復(fù)雜任務(wù),它會“消化不良”,要么報錯要么干一半就卡住。每天該喂幾次?我的經(jīng)驗是:每天喂兩次,早上一次簡單
養(yǎng)過真龍蝦的人都知道,苗種的好壞直接決定收成。養(yǎng)AI龍蝦也一樣——OpenClaw有不同版本,有的穩(wěn)定但功能少,有的功能多但愛“鬧脾氣”。新手該怎么選?我用自己的踩坑經(jīng)歷告訴你。版本怎么選?OpenClaw目前主要有三個分支:穩(wěn)定版(Stable)、測試版(Beta)和社區(qū)魔改版(Community
我第一次聽說OpenClaw,是在一個技術(shù)群里。有人發(fā)了一串代碼,說“這個AI龍蝦特別好養(yǎng),會自己找食吃”。我好奇點進(jìn)去,結(jié)果對著終端發(fā)了一小時呆——連環(huán)境都沒搭起來。后來我才明白,養(yǎng)AI龍蝦跟養(yǎng)真龍蝦一樣,新手入門得先做足功課。第一問:我的電腦跑得動嗎?很多人以為AI龍蝦就是個聊天機(jī)器人,打開網(wǎng)頁
4月2日,字節(jié)跳動旗下火山引擎在武漢舉行的AI創(chuàng)新巡展上宣布,Seedance2.0API正式面向企業(yè)用戶開啟公測。同時,火山引擎總裁譚待在會上披露,截至今年3月,豆包大模型日均Token使用量已突破120萬億,在過去三個月內(nèi)增長一倍,比2024年5月發(fā)布時增長1000倍。Seedance2.0:從
養(yǎng)AI小龍蝦的路上,坑不少。有人被代裝服務(wù)騙了錢,有人電腦中了毒,有人收到天價賬單,還有人發(fā)現(xiàn)AI“失控”了,開始亂刪文件。如果你也遇到這些糟心事,別慌。下面這份“養(yǎng)蝦應(yīng)急包”,告訴你第一時間該做什么。場景一:代裝被騙,錢打水漂了花了300塊找人遠(yuǎn)程裝OpenClaw,結(jié)果對方收了錢就拉黑,或者裝了
把AI智能體請進(jìn)電腦,就像把家里所有的鑰匙交給了一個陌生人。它能幫你打掃房間、整理文件,但萬一它“起了壞心”,或者被壞人利用了,你的家就不再安全了。這不是危言聳聽。國家互聯(lián)網(wǎng)應(yīng)急中心已經(jīng)發(fā)布風(fēng)險提示,指出OpenClaw的默認(rèn)配置“極為脆弱”,攻擊者一旦得手,能輕易獲取系統(tǒng)控制權(quán)。微軟安全團(tuán)隊也警告