數(shù)字觀察|誰在害怕AI?

2023-05-10 23:17:27

當前,以ChatGPT為代表的AI大模型,涌現(xiàn)出了越來越多令人難以置信的能力,這讓越來越多的人對這場AI能力競賽感到恐懼。上游新聞注意到,無論是支持AI還是反對AI的人,都承認一個事實:AI將深刻影響人類歷史。在這個歷史關(guān)頭,每一個人都需要捫心自問:放任還是監(jiān)管,擁抱還是禁絕,前進還是后退?“To be, or not to be, that is the question.”


(資料圖片)

編劇和美工成首批“受害者”

當?shù)貢r間2023年5月3日,美國好萊塢約1.15萬名電影和電視編劇走上紐約和洛杉磯街頭罷工,呼吁提高薪資,要求公平的合約,拒絕給AI打工。據(jù)報道,美國編劇協(xié)會WGA先前與主要電影制作公司和流媒體平臺爭取加薪談判破裂后,宣布了此次罷工。罷工導致許多美國主流電視節(jié)目停播,一些電視劇與電影將延期上映。

這是自2007年以來,美國娛樂業(yè)首次出現(xiàn)的大規(guī)模罷工。

近年來,AI的快速發(fā)展橫掃各個領(lǐng)域,包括娛樂業(yè)。本次罷工也受到AI創(chuàng)作工具的沖擊影響。在此次談判中,WGA要求制片公司確保編劇不會被強迫改寫AI創(chuàng)作的劇本、利用AI改寫之前編劇創(chuàng)作的舊劇本的要求,但也以談判破裂而告終。

編劇們的罷工標語寫得很有梗,“AI無法取代編劇”“用AI替代高管”“AI沒有靈魂”“我讓chatgpt寫一個標語,但它很爛?!?/p>

事實上,雖然科技互聯(lián)網(wǎng)公司在人工智能大模型方面都在All in,但對AI表示出擔心的不僅僅是美國編劇。在中國,游戲行業(yè)的ACGN從業(yè)者對于AI的看法也是極其復雜的。

杭州一家知名游戲公司的原畫師最近剛被裁員,不愿透露姓名的他說:“美術(shù)這行算是完了?!彼徽J為AI可以直接替代畫師,但AI作圖師或許可以。據(jù)他觀察,他所在的城市“一半以上的新招美術(shù)崗位都是AI作圖師”,月薪8k是他月薪的1/3。

某公司招聘截圖

基礎崗位首當其沖面臨壓力,其次是美術(shù)外包處于“能砍則砍”的狀態(tài)。接下來他準備做點實體小生意,他覺得“圖可以AI畫,飯不能AI吃”,對于美術(shù)行業(yè)的前景,他看不到一點樂觀。

一家漫畫公司負責人表示,“漫畫領(lǐng)域?qū)τ贏I既期待又謹慎”,他們希望AIGC能夠提升產(chǎn)能,增加IP改編漫畫的數(shù)量,但是對于如何用當前的AIGC工具提升產(chǎn)能又并不了解,畫師們對于使用這類工具興趣不高,擔心內(nèi)容里加入AIGC會引起漫畫家的反感。

另一家漫畫公司認為,“作為漫畫行業(yè)從業(yè)者,當下對于AIGC很難公開表明支持的態(tài)度”,目前已經(jīng)跟一些AIGC機構(gòu)開展合作,嘗試為畫師在創(chuàng)意創(chuàng)作等領(lǐng)域上提供幫助,但也在密切關(guān)注創(chuàng)作者和讀者們的反應。

巴菲特馬斯克都在反對AI

5月6日,巴菲特在伯克希爾哈撒韋公司的年度會議上,明確表示反對人工智能的迅速崛起。

巴菲特稱,盡管現(xiàn)代人工智能發(fā)展迅速,它們似乎具有令人難以置信的能力,比如說OpenAI公司的ChatGPT,但正是這些能力讓他感到害怕?!爱斠粋€東西可以做各種各樣的事情時,我就有點擔心了。因為我知道我們必須發(fā)明它,就像我們有一個非常非常好的理由在第二次世界大戰(zhàn)中發(fā)明了原子彈一樣。我們這樣做是很重要,但是這種能力被釋放出來,對世界的下一個200年有好處嗎?”

巴菲特并不是唯一一個站出來反對人工智能崛起的有影響力的人。谷歌的前人工智能大師、被稱為“人工智能教父”的杰弗里辛頓博士最近公開承認,他對自己開發(fā)人工智能技術(shù)的工作感到“后悔”。他表示:“一旦AI在人類灌輸?shù)哪康闹猩闪俗晕覄訖C,那以它的成長速度,人類只會淪為硅基智慧演化的一個過渡階段。AI會取代人類,它有能力這么做,在當下的競爭環(huán)境下也沒有什么辦法限制它,因此這只是一個時間問題?!?/p>

今年4月中旬,馬斯克在接受??怂共稍L時警告,人工智能可能導致“文明毀滅”,支持“政府對AI進行監(jiān)管,盡管受到監(jiān)管并不好玩”,一旦AI“可能處于控制地位,再制定法規(guī)可能為時已晚”。

就在3月29日,非營利組織“未來生命研究所”發(fā)出一封聯(lián)合署名的公開信,呼吁“所有AI實驗室立即暫停對比GPT-4更強大的AI系統(tǒng)的訓練至少6個月”。馬斯克位列這封公開信署名榜單的第一位。

據(jù)不完全統(tǒng)計,從2014年截止到現(xiàn)在,馬斯克公持續(xù)表達對AI的擔憂。尤其是2018年在接受采訪時,馬斯克直言“人工智能比核武器更危險”。馬斯克對AI的“戒心”大致可以概括為兩個層面:一是擔憂人工智能的進化可能脫離人類的控制,從而對人類造成負面影響甚至潛在的危險;二是呼吁加強對人工智能的監(jiān)管,以確保其安全可控。

盡管視AI為洪水猛獸,馬斯克從未停止過對AI方面的投資、研發(fā)。當下知名的AI公司OpenAI和DeepMind的融資歷程中均有馬斯克的足跡。馬斯克此前挖來了OpenAI首席科學家、AI大牛Andrej Karpathy領(lǐng)導特斯拉自動駕駛團隊;專門開辟特斯拉AI日并推出了自己的超級計算機Dojo;早早將手伸向了具身智能,即人形機器人;其腦機接口技術(shù)公司Neuralink的最終目的也是為了“將人類意識與AI融合”。

對AI立法、設限呼聲愈烈

今年3月22日,美國非營利性智庫未來生命實驗所(future of life institute,簡稱FOLI)在自己的官網(wǎng)上刊發(fā)了名為《暫停大型AI實驗:一封公開信(Pause Giant AI Experiments: An Open Letter)》的請愿書,一時間吸引了廣泛的關(guān)注。

截止目前,F(xiàn)OLI宣稱其已經(jīng)收集了超過30000個簽名,并完成了對其中27565個的認證。在這些簽名中除了廣為人知的特斯拉CEO埃隆·馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克外,還有眾多科學學術(shù)界泰斗和科技產(chǎn)業(yè)界精英。

請愿書截圖

請愿書一連拋出涉及知情權(quán)、勞動就業(yè)權(quán)、人類種族安全與可持續(xù)發(fā)展的四個問題,并提出“只有當我們確信它們的影響是積極的并且它們的風險是可控的時候,才應該開發(fā)強大的人工智能系統(tǒng)”。

請愿書提出了四點呼吁。首先,呼吁所有AI實驗室立即暫停訓練對比GPT-4更強AI系統(tǒng)至少6個月,并保證其公開、透明、可驗證,且必要時由政府介入予以保障。其次,人工智能行業(yè)內(nèi)的實驗室和獨立專家應利用這段時間,共同制定一套用于高級人工智能設計與開發(fā)的共享安全協(xié)議,并由第三方獨立專家進行嚴格審計和監(jiān)督。再次,人工智能研究機構(gòu)在遵守共同協(xié)議的情況下,在研發(fā)中應保障其人工智能系統(tǒng)本身更加準確、安全、可解釋、透明、穩(wěn)健、一致、值得信賴和忠誠。最后,AI開發(fā)人員須進一步和政策制定者合作,盡快開發(fā)針對強大AI的治理系統(tǒng)。

5月4日,谷歌、微軟、OpenAI、Anthropic四家公司的主要負責人齊聚白宮,出席由副總統(tǒng)哈里斯主持的AI風險治理會議,會議內(nèi)容包括企業(yè)對政策制定者更透明地介紹其人工智能產(chǎn)品,評估人工智能產(chǎn)品的安全性,減少有偏見的算法決策等等。

此次會面后不久,谷歌支持的人工智能(AI)初創(chuàng)公司Anthropic公布了一套針對AI發(fā)展的書面道德價值觀,該價值觀主要適用于訓練和保護人工智能。這次公布的人工智能道德價值準則也被該公司稱為“Claude憲法”,這些準則借鑒了幾個來源,包括聯(lián)合國人權(quán)宣言,甚至還有蘋果公司的數(shù)據(jù)隱私規(guī)則。

相比之下,歐盟更雷厲風行,直接給AI風險分級、工具分類,甚至開始醞釀法律。近日,歐洲議會成員已經(jīng)就《人工智能法((Artificial Intelligence Act))》提案達成臨時政治協(xié)議。5月11日,歐盟委員會將對協(xié)議進行投票;6月中旬,歐盟將進行全體投票。該協(xié)議如果順利通過,將為歐洲《人工智能法》的出臺鋪平道路。

與美國比鄰的加拿大,去年6月就提出了《數(shù)字憲章實施法案》,明確指出企業(yè)要在監(jiān)管框架下開發(fā)人工智能系統(tǒng)。該法案包括三項內(nèi)容:《消費者隱私保護法案》、《個人信息和數(shù)據(jù)保護法庭法案》和《人工智能和數(shù)據(jù)法案》。其中,《人工智能和數(shù)據(jù)法案》規(guī)定,擁有“高影響”的人工智能系統(tǒng)的組織,需要設立程序,以識別和減輕因這些系統(tǒng)可能使用有偏見的數(shù)據(jù)而產(chǎn)生傷害的風險。

(文章來源:上游新聞)

標簽:

關(guān)閉
新聞速遞