自去年底ChatGPT亮相以來,“生成式AI”正式進入公眾視野。隨后,百度、阿里巴巴、騰訊、科大訊飛、京東等國內企業也相繼跨入這一賽道,引發廣泛關注。
(相關資料圖)
然而,在一片火熱之中,也有不少人表達了對生成式AI“無序發展”的擔憂。從AI換臉、AI新型網絡詐騙,到近期的“AI孫燕姿”事件,人工智能的隱患問題被逐步挖掘,人們對人工智能技術本身的恐慌情緒也愈演愈烈。如何才能牢牢握住生成式AI發展的“韁繩”?
科學家聯名表態
“警惕AI發展”
近日,AI領域傳來一封重要的公開信。包括“ChatGPT之父”Sam Altman在內的350位AI領域權威人士在信件中發出警告,稱業界應警惕AI帶來的“滅頂之災”,對待AI應像對待流行病、核戰爭等重大風險一樣,要將AI視為全球優先事項。
這并非全球首次興起“AI威脅論”。早在今年3月,Skype聯合創始人、Pinterest聯合創始人乃至“科技狂人”馬斯克等就共同發起聯署聲明,呼吁所有的AI實驗室立即停止訓練比GPT-4更先進的人工智能技術和模型,時限至少為六個月。然而,將AI對人類的威脅程度與流行病、核戰爭相提并論,這還是首次。可見業內人士對生成式AI發展“失速”的擔憂。
人工智能的發展,會威脅到人類命運嗎?
有專家向南方日報記者表示,現階段生成式AI的綜合能力,還遠達不到威脅人類的地步。相反,如果妥善利用,AI反而會成為人類的最佳輔助,幫助人類大幅提高工作和生活效率。
中國社會科學院哲學研究所研究員、中國社會科學院大學哲學院教授趙汀陽也曾說,GPT盡管強大,但其驚人的知識量仍然離不開人的大量“喂食”。這也意味著,無論計算能力如何超越人類,其設計能力和智能始終只能小于或等于人類,“類似于某種速度無限逼近光速”。
再者,“GPT還沒有創造性,它的藝術或文學作品雖然技術精良,但其藝術品質是平庸的。”在趙汀陽看來,人工智能的本質就是數學和邏輯,而創造性有著邏輯或數學無法表達的品質。
那么,在更長遠的未來呢?目前,業界專家、學者對此眾說紛紜,莫衷一是。
各國加速推進
AI監管條例落地
今年以來,為了避免AI無序發展對人類社會產生危害,意大利、美國、法國、比利時、英國、挪威等多國加速推動人工智能技術的監管條例落地。
比如,今年3月31日,意大利個人數據保護局宣布,即日起暫時禁止使用ChatGPT。隨后,德國數據保護專員透露,可能會對ChatGPT加以限制;西班牙數據保護機構(AEPD)也宣稱,將對ChatGPT可能造成的數據泄露問題展開初步調查。
相較之下,我國在監管與規范發展上已經走在了前列。今年4月,國家網信辦就《生成式人工智能服務管理辦法(征求意見稿)》征求意見,提出生成式人工智能產品或服務,應當遵守法律法規的要求,尊重社會公德、公序良俗。這是對人工智能及時監管的舉措,也回應了人們對AI技術發展的擔憂。
這標志著,“我國已經初步形成了一套全過程、全要素的監管方案,涉及研發、利用、算法、模型、數據、個人信息、用戶、內容、提供者責任等,更加立體全面。”西南政法大學數字法治政府研究院研究員鄭志峰指出。
但正如安在新媒體的創始人張耀疆所說,“任何一個技術、劃時代的變革,從創新到最終變成實用性的、影響社會、可落地的普遍應用,其實都有一個過程。”面對新技術的發展,監管要“跟上”同樣需要一定時間。盡管如此,面對AI潛在的風險,加強人工智能研發的道德、法律和監管框架,防范人工智能技術的濫用和誤用,仍然是必行之路。
南方日報記者許雋
最近更新