意大利率先在本國禁止ChatGPT的使用后,多國安全機構表示將會考慮對ChatGPT采取措施。
對于外界的普遍關注,OpenAI在4月6日凌晨發(fā)表博客回應稱:“我們認為,強大的人工智能系統(tǒng)應該接受嚴格的安全評估。需要有監(jiān)管來確保這種做法被采納,我們積極與政府接觸,探討這種監(jiān)管可能采取的最佳形式。”
另外,OpenAI在與意大利監(jiān)管機構的會議中,承諾提高個人數(shù)據(jù)使用的透明度,并表示愿意與該機構進行合作。OpenAI還將增強數(shù)據(jù)主體權利行使機制以及對兒童的保護措施。
(資料圖片)
正如ChatGPT引發(fā)的爭議,在新一輪人工智能浪潮中,海內外科技企業(yè)均面臨著技術發(fā)展與數(shù)據(jù)安全、隱私保護之間的平衡難題。
面臨大面積被禁風險
當?shù)貢r間3月31日,負責意大利信息監(jiān)管的意大利數(shù)據(jù)保護局宣布暫時禁止ChatGPT的使用,同時對ChatGPT背后的OpenAI公司展開調查,限制其處理意大利用戶的信息。
意大利數(shù)據(jù)保護局稱,ChatGPT沒有任何法律依據(jù)證明大規(guī)模收集和存儲個人信息是為了“訓練”這種聊天機器人,OpenAI有20天時間采取補救措施,否則可能面臨高達2000萬歐元(約合1.49億元人民幣)的罰款。作為回應,OpenAI已在該國下線了ChatGPT的相關服務。
促成意大利數(shù)據(jù)保護局禁用ChatGPT的是發(fā)生在3月20日的聊天記錄“泄露門”事件。
北京時間當日16至18時,由于數(shù)以百萬計的用戶蜂擁登錄ChatGPT,龐大的訪問數(shù)量使得服務器一度崩潰,監(jiān)控網(wǎng)站DownDetector收到的事故報告顯示,五個小時之后ChatGPT服務器恢復正常工作,不過在修復之后,用戶僅能進行正常訪問而無法查看歷史聊天記錄。
與此同時,有登錄者發(fā)現(xiàn),系統(tǒng)中的漏洞開始把一些用戶的個人詳細信息隨機發(fā)送給了其他用戶,包括他們的名字、與ChatGPT的聊天記錄,甚至還有信用卡賬號等敏感信息。幾個小時過后,這些私密信息便開始在社交平臺上傳播。
次日,OpenAI回應稱,已暫時下線聊天歷史功能,并強調發(fā)生泄露的只涉及聊天歷史的標題,用戶無法看到他人的詳細聊天內容。3月23日,OpenAI首席執(zhí)行官阿爾特曼(SamAltman)表示,此次嚴重問題是由開源代碼庫的一個程序錯誤導致的,會有小部分用戶可以看到其他用戶的聊天記錄標題。目前開發(fā)團隊已發(fā)布修復程序,并完成驗證。
在頒布禁令時,意大利數(shù)據(jù)保護局還稱,平臺沒有就處理用戶信息情況進行告知,并指責OpenAI未能核查ChatGPT用戶的年齡是否在13歲以上。
事件的影響遠沒有因此結束,意大利的禁令在全球范圍內引發(fā)討論,不少國家開始追隨意大利,考慮對ChatGPT采取行動。
歐盟國家已有動向。當?shù)貢r間4月3日,德國聯(lián)邦數(shù)據(jù)保護專員UlrichKelber表示,出于對數(shù)據(jù)安全問題的考量,該國存在暫時禁止使用ChatGPT的可能性。德國聯(lián)邦數(shù)據(jù)保護機構已要求意大利監(jiān)管機構提供其禁止ChatGPT的進一步信息。
據(jù)外媒報道,愛爾蘭和法國的個人數(shù)據(jù)監(jiān)管機構已經(jīng)和意大利同行取得聯(lián)系,以了解更多有關該禁令的依據(jù)。西班牙的數(shù)據(jù)監(jiān)管機構也表示,雖然暫未收到任何有關ChatGPT的投訴,但不排除未來對該軟件展開調查的可能性。
英國信息專員辦公室已向科技公司發(fā)出警告,不要使用個人信息來開發(fā)聊天機器人。包括英國信息監(jiān)管局局長在內的其他監(jiān)管者都表示,正在密切關注這一情況。
此外,當?shù)貢r間4月4日,加拿大聯(lián)邦隱私監(jiān)管機構宣布,已經(jīng)對OpenAI展開調查,因為該公司涉嫌“未經(jīng)同意收集、使用和披露個人信息”。
不過,布洛瑟姆資本公司合伙人伊姆蘭·戈里認為,上述禁令是草率的。他表示,“不愿承擔風險并且只看缺點是容易的,但我們需要權衡利弊”。
深度科技研究院院長張孝榮表示,在缺乏有效的法律規(guī)制之前,ChatGPT或將涉及大量隱私問題和網(wǎng)絡安全問題,對世界各國來說都是一種挑戰(zhàn)。
潛在安全問題重重
早在今年2月,業(yè)界就開始關注ChatGPT可能帶來的數(shù)據(jù)安全問題。在2023世界人工智能開發(fā)者先鋒大會開幕式上,開放元宇宙基金會董事羅尤·奧布萊恩談及ChatGPT時,特別提到了安全問題,“我們一定要有保障的規(guī)則,要有護欄,確保做壞事的人帶來的影響有限。”
除上述“泄露門”事件外,ChatGPT還疑似有“前科”。2月23日,有外媒報道,亞馬遜公司律師稱,在ChatGPT生成的內容中發(fā)現(xiàn)了與公司機密“非常相似”的文本,可能是由于一些亞馬遜員工在使用ChatGPT生成代碼和文本時輸入了公司內部數(shù)據(jù)信息,該律師擔心輸入的信息可能被用作ChatGPT迭代的訓練數(shù)據(jù)。
距離用戶更近的風險是,用戶在使用ChatGPT等AI工具時,可能會不經(jīng)意間將私密數(shù)據(jù)輸入到云端模型,這些數(shù)據(jù)可能成為訓練數(shù)據(jù),也可能成為提供給他人答案的一部分,從而導致數(shù)據(jù)泄露和合規(guī)風險。
安全企業(yè)方面也開始對可能的問題進行審查。Fortinet北亞區(qū)首席技術顧問譚杰對第一財經(jīng)表示,盡管ChatGPT本身尚不具備直接攻擊網(wǎng)絡安全和數(shù)據(jù)安全的能力,但由于它具有自然語言生成和理解的能力,可以被用于偽造虛假信息、攻擊社交工程等方面。
ChatGPT等AI技術還極大降低了網(wǎng)絡攻擊的門檻。“攻擊者可以使用自然語言來讓ChatGPT生成相應的攻擊代碼、惡意軟件代碼、垃圾郵件等。因此,可以讓那些原本沒有能力發(fā)起攻擊的人基于AI生成攻擊,并大大提高攻擊成功率。”譚杰對記者說。
他介紹稱,在自動化、AI、“攻擊即服務”等技術和模式加持下,網(wǎng)絡安全攻擊呈現(xiàn)暴漲趨勢。ChatGPT火爆之前,業(yè)界就已發(fā)生多次黑客使用AI技術進行的網(wǎng)絡攻擊,這種攻擊呈現(xiàn)24小時、不間斷的特點。
OpenAI在最新發(fā)布的安全舉措中表示,將構建越來越安全的人工智能系統(tǒng);從實際使用中學習,以改進保障措施;加強保護兒童措施,要求用戶必須年滿18歲(或經(jīng)父母批準年滿13歲)才能使用OpenAI工具,并正在研究驗證選項;尊重隱私,努力在可行的情況下從訓練數(shù)據(jù)集中刪除個人信息。OpenAI稱,解決人工智能安全問題的一個切實可行的方法是投入更多時間和資源來研究有效的緩解和校準技術,并在現(xiàn)實世界的濫用情況下測試它們。
就此張孝榮表示,OpenAI的聲明表達了一種比較謹慎的態(tài)度。該公司會采取力所能及的方法來降低AI帶來的風險,但難以解決兩個固有問題,一是用戶濫用問題,各國用戶濫用技術的方法層出不盡,OpenAI無法全面預防,只能采用事后糾正的做法。二是訓練數(shù)據(jù)的缺陷問題,ChatGPT基于公開數(shù)據(jù)訓練,但公開數(shù)據(jù)質量參差不齊,盡管OpenAI努力做好對齊,但可能永遠無法實現(xiàn)。
AI浪潮下的兩難
安信證券研報分析,隨著深度合成和生成式AI技術的開放開源、產(chǎn)品和服務的增多,此類內容制作的技術門檻越來越低,實現(xiàn)了技術的“平民化”。但一旦技術被濫用,將會造成安全風險與實質性危害,給個人、企業(yè)造成肖像、名譽等人格和財產(chǎn)權益損害。因此,反生成式AI的技術需求有望迎來爆發(fā)。
人工智能浪潮下的數(shù)據(jù)隱私安全引發(fā)關注,但如何平衡技術發(fā)展與數(shù)據(jù)隱私之間的關系更需考量。一位人工智能行業(yè)人士對記者表示,所有AI都是有“偏見”的,這更多是訓練數(shù)據(jù)的問題,也可以通過負例反饋去修正。但要做到完全的數(shù)據(jù)脫敏和安全沒那么容易。畢竟通過原始數(shù)據(jù)的訓練效果和效率是最好的,加入噪聲或脫敏會對數(shù)據(jù)的保真度造成降低。而在監(jiān)管方面,歐洲GDPR(《通用數(shù)據(jù)保護條例》)是很好的數(shù)據(jù)安全保護條例,但反觀歐洲的人工智能技術發(fā)展如何?
張孝榮也表示,數(shù)據(jù)隱私安全和技術發(fā)展之間是個動態(tài)博弈過程,兩者難以做到真正的平衡,而是在互相拉扯中實現(xiàn)螺旋式逐漸進步。
科大訊飛高級副總裁杜蘭此前在談及馬斯克等近千名科技人員呼吁未來6個月暫停對巨型GPT模型訓練時表示,AI的快速發(fā)展的確會帶來失業(yè)、隱私侵犯、信息不對稱等問題,但它更多是在提升效率、提升醫(yī)療能力、改善環(huán)境等發(fā)揮了重要作用。
杜蘭稱,人工智能訓練也很難停止,因為不同國家、公司、實驗室等都會去爭奪領先位置,所以全球范圍內的協(xié)調和執(zhí)行可能會面臨挑戰(zhàn)。
杜蘭還表示,對人工智能企業(yè)整理和標注后的數(shù)據(jù)保護是當前最大的問題。目前行業(yè)確實存在通過版權、商業(yè)秘密路徑都無法周密保護數(shù)據(jù)的問題,所以對于數(shù)據(jù)應該有明確的權利歸屬和保護措施。同時,通過AI可以輸出一幅模仿梵高或吳冠中的畫作,但如果非常刻板地要求每一篇文章、每一幅畫、每本書都需要作者同意才能夠進入數(shù)據(jù)庫,以今天這么大的數(shù)據(jù)量來說,執(zhí)行的成本就太高了。“所以這確實是一個需要去解決的問題。”杜蘭稱。
清華大學交叉信息研究院助理教授、人工智能國際治理研究院國際交流項目主任于洋表示,ChatGPT改變了人工智能和經(jīng)濟之間的關系,AI已成為一種“有自主意識形態(tài)和價值觀的界面基礎設施”。當人們去理解AI產(chǎn)品時,不能只看表現(xiàn)好不好、速度快不快,還要看它是否能夠很好地符合一個地區(qū)的法律法規(guī)、公序良俗、共識性價值觀,不該簡單套用對人的監(jiān)管方式去監(jiān)管AI。
商湯科技智能產(chǎn)業(yè)研究院院長田豐也表示,新生產(chǎn)力工具必須符合人類普適道德倫理,即以人為本、可持續(xù)發(fā)展、技術可控,這三點普遍適用于數(shù)字技術的創(chuàng)新浪潮。
關于我們| 聯(lián)系方式| 版權聲明| 供稿服務| 友情鏈接
咕嚕網(wǎng) www.jzyjjz.com 版權所有,未經(jīng)書面授權禁止使用
Copyright©2008-2020 By All Rights Reserved 皖ICP備2022009963號-10
聯(lián)系我們: 39 60 29 14 2@qq.com