<strike id="l7tx9"></strike><strike id="l7tx9"></strike>
<strike id="l7tx9"></strike>
<strike id="l7tx9"><dl id="l7tx9"></dl></strike>
<strike id="l7tx9"></strike>
<strike id="l7tx9"><dl id="l7tx9"><del id="l7tx9"></del></dl></strike><strike id="l7tx9"><i id="l7tx9"></i></strike><strike id="l7tx9"></strike>
<span id="l7tx9"><address id="l7tx9"><span id="l7tx9"></span></address></span><span id="l7tx9"></span>
<strike id="l7tx9"></strike>
<span id="l7tx9"><dl id="l7tx9"><ruby id="l7tx9"></ruby></dl></span>
<strike id="l7tx9"></strike>
<strike id="l7tx9"></strike>
<strike id="l7tx9"></strike><strike id="l7tx9"><dl id="l7tx9"><del id="l7tx9"></del></dl></strike>
<strike id="l7tx9"></strike>
<span id="l7tx9"><video id="l7tx9"></video></span>
<strike id="l7tx9"><dl id="l7tx9"><del id="l7tx9"></del></dl></strike>
<ruby id="l7tx9"><i id="l7tx9"><cite id="l7tx9"></cite></i></ruby>
<strike id="l7tx9"></strike>
雙創空間 > 正文

安全能力有多強,人工智能就能走多遠!用AI解決AI安全問題,是否可行?

來源:上觀2019.7.3

摘要:目前中國人工智能發展存在技術濫用、資源浪費、方向不明等問題,安全與治理需要頂層的戰略性思考和系統性規劃。

利用人工智能換臉技術,將視頻中的臉換成另一張臉,每個人都可以和影視劇中的偶像明星同框,真假難辨……但如果視頻場景不那么“友好”,原本酷炫好玩的AI技術或許就成為讓人頭疼的存在。AI技術背后隱藏著的安全問題可見一斑。

中國科學院院士何積豐看來,目前中國人工智能發展存在技術濫用、資源浪費、方向不明等問題,安全與治理需要頂層的戰略性思考和系統性規劃,要重視人工智能技術發展的經濟成本和轉化效益,避免產生技術濫用、結構性失業等問題,將人工智能發展納入更廣泛的治理議題范疇。

7月2日舉行的上海市人工智能產業安全專家咨詢委員會成立儀式暨第一次會議上,上海市經濟信息化主任委吳金城在發言時便明確指出,“安全能力有多強,人工智能就能走多遠。”這一觀點,也得到安全專委會專家們的贊同。

保障人工智能安全方面,亟待解決的首先是AI法律和倫理道德問題。上海市法學會專職副會長施偉東建議:“能否嘗試定期發布人工智能與安全的法則,同步開展立法研究,通過修法方式,進入國家和地方法規。”他進一步說明,上海需要在人工智能治理與安全領域中,加強地方法治機制和制度建設方面的探索,加強人工智能發展與法治的前瞻性研究,積極構建人工智能未來法治體系,用法治保障人工智能健康持續發展。具體體現在四個方面:一是抓好數據治理。開發公共數據是人工智能發展必不可少的一環,公共數據應依法申請開放,有選擇地開放給相關企業,企業依照相關法律法規,承擔保密和保管責任。二是開發者為算法公正透明創造條件,實現可監管。三是建立跨平臺監管體系。隨著5G、物聯網的介入,所有的平臺都應該打通。四是監管需要強大的技術支持,加緊部署用以監管的人工智能系統。

大數據時代,幾乎任何領域都在不斷產生數據信息,這些龐雜卻擁有巨大信息量的數據,恰恰為人工智能提供了“燃料”,但是用戶都是有隱私的,這就需要利用更多法律和技術手段去保護數據,保護用戶隱私權。用AI自身的大數據處理技術來解決AI的安全問題,是否切實可行,仍然是一個疑問。而這自然成為了大家關注的焦點,引發專家們熱烈討論。

除了AI涉及的用戶隱私、法律和倫理道德問題,阿里集團安全副總裁杜躍進認為,從廣義上看,AI自身的安全問題還包括算法的公正性和壟斷性。

早在兩年前,數據科學家Cathy O’Neil便提出,不能指望市場來解決算法的公正性問題,“自由市場無法解決任何問題,因為人們對利益的追逐驅使算法變得不公正。”她的建議是,分析用于構建算法的數據是否含有偏見,從而檢測算法數據的公正性,包括界定對于結果成功的定義,確保算法支持的是不帶偏見的目標,以及檢查整體的準確度、控制算法長期影響,避免數據的反饋回路。而目前,算法的公正性問題仍未解決,也已經不是AI自身能夠解決的安全難題了。

上海觀安信息首席專家張照龍在發言時指出,“AI+醫療”在不久后將實現5G設備+醫院檢查設備,患者在手機端便能實時獲得檢查報告和初步診斷數據,但問題在于,如何保證5G設備接入和傳輸過程中不被人通過惡意程序盜取并泄露數據,即算法和數據本身存在安全隱患。“特別要警惕算法的‘逆向攻擊’,加強對算法本身的檢驗檢測,”此外,張照龍的另一個建議是,建立一個安全的檢驗檢測標準,可以不是那么細致全面,但可以有針對性地對AI技術按照應用場景和方式等進行分類,檢測標準的方向和框架要比較完整。

對于大家普遍擔憂的AI內部防控問題,華東師范大學計算機科學與軟件工程學院密碼與網絡安全系教授曹珍富認為,可通過加強AI基礎研究,遵循架構和模型的研究思路,嘗試解決當前熱門的隱私計算和訪問控制方面密碼算法的可用性問題,“做到一次密碼算法保障所有的安全,才是真正的提高效率。”

更多資訊

欧美一区二区三区在线观看