9月17日,2025中國仲裁高峰論壇暨中國-拉丁美洲國際仲裁論壇在京成功舉辦。本次論壇由中國國際經濟貿易仲裁委員會(以下簡稱貿仲)與聯(lián)合國國際貿易法委員會(以下簡稱聯(lián)合國貿法會)、環(huán)太平洋律師協(xié)會、中華全國律師協(xié)會共同主辦。
來自近30名仲裁法律界、公司實務界、學術界中外專家圍繞“智聯(lián)全球:共筑國際仲裁數(shù)智協(xié)作新格局”“智賦新章:規(guī)范國際仲裁數(shù)智輔助新邊界”“智序未來:擘畫國際仲裁數(shù)智治理新圖景”三個議題發(fā)表演講。來自52個國家和地區(qū)近500人現(xiàn)場參會,包括51家國際組織及國外主要爭議解決機構共119名負責人和代表,全球103個國家和地區(qū)超過510萬人次在線關注或收看。
在“智序未來:擘畫國際仲裁數(shù)智治理新圖景”第三個議題中,研討嘉賓聚焦金融科技、人工智能、跨境電商、電動汽車、航空航天等重點領域展開深入探討。
以下內容是阿里研究院人工智能治理及數(shù)據經濟研究中心主任傅宏宇在“智序未來:擘畫國際仲裁數(shù)智治理新圖景”議題環(huán)節(jié)發(fā)表演講內容節(jié)選:

(阿里研究院人工智能治理及數(shù)據經濟研究中心主任傅宏宇)
我想給大家分享一下我的想法。目前我們在這樣一個人工智能非常國際化的時代,舉個例子,開源AI(是以開放共享為核心的人工智能技術體系,強調代碼、數(shù)據、算法及模型權重的開放),我們已經處于人工智能世界了,考慮一下人工智能是如何傳播的,它的核心關鍵詞就是比如說人工智能的戰(zhàn)略,就是有關傳播,是一個分布式技術架構,平臺應用等等都是這樣,都是擴散式的方式。幾年之前中國有很多AI的開發(fā)人員,我們有基礎的模型開發(fā),機構像阿里巴巴還有DeepSeek等等,還有很多別的公司,當然我們還有很多的使用人工智能的公司。在中國和美國之間有這樣一個差距,但是我們正在趕上,特別2025年,我們趕得很快,我們看到有一系列的開源的模型,他們將會改變國際人工智能的版圖,他可能也會改變國際仲裁的格局。
所以我們看到有這樣一種開源模型逐漸占據優(yōu)勢,人們越來越多對開源模型熟悉,比如DeepSeek,比如通義。我們在思考全球國際化人工智能格局,即便OpenAI的奧特曼對是否開源改變他的觀點,幸運的是OpenAI最近發(fā)布了一個開源模型,所以我們看到的確有這樣兩組做法的比較,當我們看到封閉模型仍然是最強大的模型,但是越來越多的人模型都是逐漸走向開源,而且他們來自中國,這些開源模型可以說目前在市場上處于非常重要甚至支配的地位,他們改變了市場格局,改變了應用的格局,也改變了手機的格局,改變了電池、應用程序,你們所持續(xù)的這些應用都在被開源模型所改變,這是我想講的一個要點。
也就是說,某種東西正在改變我們的格局,就是開源,而且讓AI變得越來越國際化,而且越來越可用,而且降低人們使用AI的門檻。
另外,讓AI更有用,在很多場景下都有用。我想應用會變得越來越快,AI智能體改變很多的行業(yè),我相信很可能會改變發(fā)展行業(yè)。
毫無疑問我們談了很多,我們要去看開源模型,因為它建立的信任,增加了整個的生態(tài),建立了整個世界,增強了世界的包容性,彌補所謂的AI的鴻溝,我們也看到,它能夠提高能力建設,能力建設就與未來的人工智能應用至關重要。
我們要談一下法律方面的影響,因為我們是法律人士,強調兩點我們可能面臨的法律問題,在使用開源人工智能模型時候,第一個有關許可制度,實際上我們正在面對兩個許可的制度,這個跟我們在軟件時代的許可是不一樣的,因為它也意味著所有的軟件都是對下游用戶免費下載的,但是在開源人工智能的制度下,我們看到許可則是比較隨意的,有一種是開放模型仍然使用打包的許可,也就是市場沒有限制這類許可,這是個好的想法嗎?這樣一種許可逐漸普及,一方面我們看到機器學習的行業(yè),他們正在推動所謂負責任人工智能的許可,也就是實際的許可,也就是說,我們從這種隨意的許可制度往回退一步,不僅僅是豁免模型構建者的責任,這點是大家所討論的。
比如說阿聯(lián)酋,他對于開源模型也采用豁免責任的做法,豁免是關鍵點,我們必須培育一種所謂負責任的使用,意味著我們必須增加一下限制在這個許可當中,也許未來很多仲裁中心可能會影響到什么樣的許可對于人工智能使用是恰當?shù)?,要確保他們對人工智能模型的使用和應用是更加負責任的,這些許可將會成為未來的支配力量。
我們看到許可毫無疑問,他們正在發(fā)生變化,他們相應的責任也會發(fā)生變化,所以這是我要講的第二點。
開源人工智能創(chuàng)建了一個生態(tài)系統(tǒng),有多個參與方,多個利益合作方他們協(xié)作,他們相互競爭,這會帶來很多傳統(tǒng)的法律責任制度的麻煩,我們不能夠這么容易地在利益相關方之間分割責任,主體之間分割責任,因為它并不是一種非常清晰的流程,它實際上把很多東西攪合在一起,人們要密切合作,所以我們當時可以確認某些用戶,他們是開源的貢獻者,他們是開源的開發(fā)人員或者服務提供商等等,但是我們看到在新興的開源平臺下,他們法律責任是什么?在這樣的生態(tài)系統(tǒng)中,如何在他們之間分配責任?我覺得其中有一個是來自美國的例子,美國事實上做了一個標準的設定,也就是要提供一個建議,要將法律責任在人工智能開發(fā)的全生命周期進行分配,也就是把它分成7類主體,他們將責任分配給這些主體,包括對風險的規(guī)劃,以及對風險的評估,如何去化解風險,如何做出調整,當然,讓它盡可能透明,而且能夠進行披露,這樣一種責任不能只分配一種主體,必須公平地分配,并且合理地分配給不同的主體,毫無疑問,就是在整個生命周期的生態(tài)系統(tǒng)。
總結一下我的發(fā)言,人工智能變得越來越國際化了,因為開源AI降低了人們去獲取使用AI的門檻,開源人工智能也創(chuàng)建了一個新的生態(tài)系統(tǒng),這個許可制度也發(fā)生了變化,它也影響到了責任在不同主體之間的責任分配問題,他們都處在這個生態(tài)系統(tǒng)當中,所以我們持續(xù)這個對話和討論,未來有這個機會我也非常期待跟大家進一步溝通。
編輯:劉海濱