在自動駕駛場景中,通過修改錐桶的形狀,就能讓汽車感知模塊失效,徑直撞上去;通過在T恤上打印含特殊的花紋,就能讓目標檢測系統捕捉不到穿這件衣服的人,實現“隱身”;制作帶有特制花紋的眼鏡,就能刷開數十部商用手機的人臉解鎖等。
上述案例已經被研究團隊用來證明人工智能面臨“信任危機”,人們需要更加“可信”的人工智能。
在9月1日舉辦的2022年世界人工智能大會(WAIC)的一場可信AI論壇上,中國信通院聯合京東探索研究院等近30家政產學研單位共同發布《可信人工智能產業生態發展報告》,對人工智能產業融合可信要素的發展態勢進行總體分析,研判發展趨勢并提出措施建議,為社會各界提供借鑒和參考,推動可信人工智能產業生態發展。
(資料圖片僅供參考)
自2021年以來,歐盟和美國先后發布了《人工智能法案》和《2022算法問責法案》。在中國,深圳、上海等地也相繼推動人工智能立法條例。各國針對人工智能算法的監測、人工智能應用的審查的相關監管法規不斷增加,人工智能治理已進入建章立制階段。
《可信人工智能產業生態發展報告》指出,技術研究上,提升人工智能系統穩定性、隱私保護技術占據可信人工智能技術研究主流,可解釋性、公平性等技術研究緊隨其后。
學界普遍認為,從應用的角度來看,以數據驅動的深度學習技術潛力接近“天花板”的原因是,深度學習的本質是利用沒有加工處理過的數據用概率學習的“黑箱”處理方法尋找規律。這一方法本質上不可解釋,非常脆弱,帶來了新的風險和問題。如“對抗樣本攻擊”, 通過在輸入數據中添加擾動,即可使系統做出錯誤判斷。
當前以對抗訓練、梯度屏蔽為代表的人工智能系統穩定性技術穩步發展;以同態加密、多方安全計算、差分隱私等為代表的隱私安全技術發展迅速;可解釋性增強技術研究當前仍處于初期階段,科技巨頭推出多個AI可解釋性工具及服務;提升人工智能公平性主流方法為通過構建完整異構數據集及引入公平決策量化指標算法,以減輕決策偏差。
清華大學人工智能研究院名譽院長、瑞萊智慧首席科學家張鈸院士提出“第三代人工智能”,要求綜合運用知識、數據、算法、算力四個要素,在實現高水平安全的前提下,為人工智能高水平發展提供動力和支撐。
螞蟻集團大安全機器智能部總監、螞蟻集團技術委員會可信AI聯合工作組組長王維強表示,可信AI的主要屬性有四個,分別是魯棒性、可解釋性、隱私保護和公平性。
可信AI正在走向工業級應用時代,意味著真正的大規模應用,需要從數據可信,到模型可信,到平臺可信,到運營可信的工業化生產環境全鏈路的可信,讓可信成為AI技術發展中的一個內在屬性,帶領AI走向更健康、更加可持續的未來,這需要產業界、學術界一起合作。
產業生態上,倫理、法律研究也在進一步深入。瑞萊智慧合伙人、高級副總裁朱萌對第一財經記者表示,應該加強安全領域的三方面能力建設。“首先是,發掘現有AI安全風險、預判AI潛在風險;二是針對風險建設治理體系,包括建立AI治理理論、構建治理運轉機制、探索技術實踐路徑等;三是在治理體系框架下,重點探尋倫理法規的技術落地方案。”朱萌說道。
關于我們| 聯系方式| 版權聲明| 供稿服務| 友情鏈接
咕嚕網 www.jzyjjz.com 版權所有,未經書面授權禁止使用
Copyright©2008-2020 By All Rights Reserved 皖ICP備2022009963號-10
聯系我們: 39 60 29 14 2@qq.com