每經編輯:李澤東
昨天,網絡瘋傳一條關于杭州市政府3月1号取消限行的“新聞稿”。
據浙江之聲,記者調查發現,這是一條不實新聞。據了解,昨天下午杭州某小區業主群裡讨論ChatGPT,一位業主就開玩笑說嘗試用它寫篇杭州不限行的新聞稿看看。随後該業主在群裡直播了ChatGPT寫作過程,還把文章發群裡。其他業主不明所以截圖轉發了,最後導緻錯誤信息被傳播。
據了解,警方已介入調查。涉事業主也在群裡公開道歉。截至目前,杭州相關政府部門均沒有發布此類政策。
圖片來源:杭州網
據中國郵電報報道,ChatGPT的強大功能也隐含不少法律風險。北京盈科(上海)律師事務所互聯網法律事務部主任謝連傑接受采訪時表示,ChatGPT對信息、數據來源無法進行事實核查,可能存在個人數據與商業秘密洩露和提供虛假信息兩大隐患。
ChatGPT依托海量數據庫信息存在,其中包括大量的互聯網用戶自行輸入的信息,因此當用戶輸入個人數據或商業秘密等信息時,ChatGPT可能将其納入自身的語料庫而産生洩露的風險。雖然ChatGPT承諾删除所有個人身份信息,但未說明删除方式,在其不能對信息與數據來源進行事實核查的情況下,這類信息仍然有洩露風險。他表示,人工智能生成的信息并不總是準确的。“ChatGPT常常出現‘一本正經地胡說八道’的情況,需要一定的專業知識才能辨别真僞;也可能有不法分子惡意‘訓練’人工智能,使其提供詐騙信息、釣魚網站等内容,損害公民人身和财産安全。”
圖片來源:視覺中國 VCG41N1188747468
泰和泰(重慶)律師事務所高級合夥人朱傑認為,ChatGPT在建立語料庫、生成文本時,如果使用并非公開的開源代碼、使用開源代碼商用未辦理許可證或者未按照許可證的要求實施,可能會導緻侵權。朱傑解釋說,這類人工智能主要是通過挖掘人類日常交流以及文本來進行統計分析,因此,對于一些受著作權保護的文本、視頻、代碼等,如果沒有經過權利主體的授權,直接複制到自己的數據庫中,并在此基礎上修改、拼湊,極有可能侵害他人的著作權。
此外,據中青報報道,華中科技大學法學院副教授滕銳在接受中青報·中青網記者采訪時表示,ChatGPT是大量不同的數據集群訓練出來的語言模型,目前其背後仍是“黑盒”結構,即無法确切對其内在的算法邏輯進行分解,所以不能确保使用ChatGPT過程中,其所輸出的内容不會産生攻擊傷害用戶的表述。
“如果ChatGPT的回複是錯誤或虛假信息,會具有極大的誤導性,有潛在法律風險。”在他看來,ChatGPT難免存在一些侵犯用戶隐私的内容。
北京京師(上海)律師事務所高級合夥人李陽律師分析,ChatGPT這類的AI軟件沒有獨立人格,不具備我國著作權法規範中“作者”的主體資格。AI軟件有可能使用未經授權的作品作為素材,隻要是網絡上公開的數據和信息,就有可能成為被AI學習的數據,除了主動詢問軟件開發者,基本沒有其他有效方式可以阻止。
李陽認為,作者很難查清楚自己的作品是否被AI用來“學習”了,“權利人如果要進行維權,在當前法律體系下難度很大”。
“任何一項新數字技術出現時,年輕人的反應最敏銳,對新事物的接受能力也很強。他們不僅僅是消費者,也有可能是未來新技術的創造者。”武漢大學法學院教授孫晉提醒,年輕人也要注意,網絡不是法外之地,利用新技術時,不要觸碰道德和法律底線。
每日經濟新聞綜合浙江之聲、杭州網、中國郵電報、央廣網、中青報
每日經濟新聞
,更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!