美國人工智能研究實驗室OpenAI推出的大型預(yù)訓練人工智能語言模型ChatGPT,正成為很多年輕人關(guān)注和熱議的焦點。近日,中青報·中青網(wǎng)記者街采多名年輕人,了解他們對ChatGPT的看法。不少人驚嘆ChatGPT回答問題的高效,也有人直言ChatGPT回復(fù)的內(nèi)容“僅是機械組合,充滿套路”。還有一些年輕人表示擔憂,ChatGPT使用不當會造成法律風險,存在泄露數(shù)據(jù)隱私、侵犯知識產(chǎn)權(quán)等問題。 ChatGPT的熱度在“狂飆”,年輕人使用需注意避開哪些“坑”? “ChatGPT這類人工智能產(chǎn)物能推動科技進步,有利于輔助人類的生產(chǎn)生活,但它不能替代人類的智力活動,因為它沒有人類所獨有的情感和思想?!敝袊淖种鳈?quán)協(xié)會總干事張洪波認為,ChatGPT涉及龐大數(shù)據(jù)的算法加工,可能會侵犯到一些用戶隱私,人工智能大數(shù)據(jù)的開發(fā)者,應(yīng)遵守相關(guān)的法律規(guī)定和社會倫理道德,保證所收錄的數(shù)據(jù)不侵犯他人的權(quán)益。 華中科技大學法學院副教授滕銳在接受中青報·中青網(wǎng)記者采訪時表示,ChatGPT是大量不同的數(shù)據(jù)集群訓練出來的語言模型,目前其背后仍是“黑盒”結(jié)構(gòu),即無法確切對其內(nèi)在的算法邏輯進行分解,所以不能確保使用ChatGPT過程中,其所輸出的內(nèi)容不會產(chǎn)生攻擊傷害用戶的表述。 “如果ChatGPT的回復(fù)是錯誤或虛假信息,會具有極大的誤導(dǎo)性,有潛在法律風險。”在他看來,ChatGPT難免存在一些侵犯用戶隱私的內(nèi)容。此外,若回復(fù)中存在過度借鑒他人作品的情況,使用不當就有可能侵犯他人的著作權(quán)。 北京京師(上海)律師事務(wù)所高級合伙人李陽律師分析,ChatGPT這類的AI軟件沒有獨立人格,不具備我國著作權(quán)法規(guī)范中“作者”的主體資格。AI軟件有可能使用未經(jīng)授權(quán)的作品作為素材,只要是網(wǎng)絡(luò)上公開的數(shù)據(jù)和信息,就有可能成為被AI學習的數(shù)據(jù),除了主動詢問軟件開發(fā)者,基本沒有其他有效方式可以阻止。 李陽認為,作者很難查清楚自己的作品是否被AI用來“學習”了,“權(quán)利人如果要進行維權(quán),在當前法律體系下難度很大”。 “目前大部分國家的知識產(chǎn)權(quán)法規(guī)定,人工智能程序自身不能成為作者?!彪J指出,ChatGPT的內(nèi)容本質(zhì),是基于它所擁有的數(shù)據(jù)進行表達意志的創(chuàng)作,是作為被人類所利用的客體和工具,不具備法律人格,不能承擔相應(yīng)的法律責任,如果ChatGPT侵害了他人的著作權(quán)或泄露他人隱私,由它的權(quán)利人或使用者來承擔相應(yīng)的法律責任。 李陽認為,在我國,作品創(chuàng)作完成之日即產(chǎn)生了受法律保護的著作權(quán),建議作者有意識地保護自己的智力成果,當發(fā)現(xiàn)作品被剽竊時,建議被侵權(quán)作者積極采取應(yīng)對措施,運用法律武器維護合法權(quán)益,如可自行向有關(guān)行政主管部門提出投訴,委托專業(yè)的知識產(chǎn)權(quán)律師,向侵權(quán)方發(fā)出律師函或協(xié)助作者發(fā)出書面警告等。 “推動構(gòu)建人工智能治理體系,政府加強監(jiān)管和研發(fā)者保持自律尤為重要?!彪J說,要避免ChatGPT引發(fā)數(shù)據(jù)安全問題,如泄露商業(yè)秘密及違背保密義務(wù),需從法律層面明確ChatGPT產(chǎn)品的應(yīng)用范圍,推進數(shù)據(jù)的分類分級,規(guī)定不同種類數(shù)據(jù)的保護級別和措施。他建議,在內(nèi)容保護上,原創(chuàng)性數(shù)據(jù)要受到知識產(chǎn)權(quán)法的保護;在技術(shù)監(jiān)管中,要定期將算法合規(guī)納入大數(shù)據(jù)安全體系,對其使用情況進行安全審計、評估驗證等。 “行業(yè)自律也非常重要,ChatGPT的所有人要注意數(shù)據(jù)安全合格,也要確保獲取個人信息具有合法性?!彪J認為,將倫理道德融入人工智能的全生命周期,才能促進大規(guī)模的人工智能應(yīng)用“向善發(fā)展”。 在武漢大學法學院教授孫晉看來,在人工智能大數(shù)據(jù)的時代背景下,數(shù)據(jù)隱私泄露問題愈演愈烈,ChatGPT作為數(shù)字技術(shù)的應(yīng)用,開發(fā)者和使用者都是第一責任人。他提醒,由于ChatGPT的算法和算力均很強大,如果開發(fā)者或使用者實施壟斷與限制競爭行為,濫用市場支配地位,會具有便利性和隱蔽性,會對反壟斷法帶來新挑戰(zhàn)。 孫晉強調(diào),人工智能開發(fā)者要堅持“技術(shù)中立”和“科技向善”的原則,開發(fā)者的道德水準和法律邊界意識,決定其設(shè)計軟件的發(fā)展方向。同時,使用者也要秉持這兩項原則,杜絕利用新技術(shù)實施違法犯罪的行為,如侵犯公民個人隱私、侵犯商業(yè)秘密、商業(yè)詆毀、虛假宣傳、網(wǎng)絡(luò)詐騙、洗錢等。 在張洪波看來,利用人工智能技術(shù)實施違法犯罪,具有偵查難度,也需科技去甄別和偵破。滕銳認為,機器人走上更高智能階段的同時,人類利用機器人違法犯罪的現(xiàn)象也會出現(xiàn),從刑法的角度來看,人工智能不具有刑法意義上的辨認和控制自己行為的能力,但可對機器人背后的自然人進行處罰。 2006年年底我國互聯(lián)網(wǎng)大規(guī)模爆發(fā)“熊貓燒香”病毒及其變種,該病毒通過多種方式進行傳播,造成很大危害。這個案例令滕銳至今印象深刻。他說,“熊貓燒香”病毒主要是由當時年僅20多歲的小伙子李俊制作,李俊沒有法律意識,利用新技術(shù)違法,以破壞計算機信息系統(tǒng)罪被判處有期徒刑四年?!澳贻p人在勇于嘗試類似ChatGPT的新鮮事物過程中,不能利用新技術(shù)去做違法之事?!?br> 目前,為了避免學生過于依賴人工智能類工具,防止作弊,多國學校已經(jīng)發(fā)出禁令,禁止學生在學校內(nèi)使用類似于ChatGPT的人工智能工具完成學習任務(wù)和考試?!斑@是警示年輕人,要明白人工智能技術(shù)是人類的輔助工具,并不能替代人類進行智力創(chuàng)作,如果年輕人完全依賴,會影響創(chuàng)新創(chuàng)作能力?!睆埡椴ㄕf。 在張洪波看來,人工智能工具可以幫助人類快速處理字數(shù)多、容量大的文本內(nèi)容,最終的智力創(chuàng)作成果,還是要人類自己來完成。開發(fā)者開發(fā)設(shè)計人工智能工具的目的,應(yīng)該是讓人類學習生產(chǎn)生活更方便、快捷、準確,而不是懶惰和消極。 “任何一項新數(shù)字技術(shù)出現(xiàn)時,年輕人的反應(yīng)最敏銳,對新事物的接受能力也很強。他們不僅僅是消費者,也有可能是未來新技術(shù)的創(chuàng)造者。”孫晉提醒,年輕人也要注意,網(wǎng)絡(luò)不是法外之地,利用新技術(shù)時,不要觸碰道德和法律底線。(先藕潔 劉胤衡) 來源: 中國青年報 |