加賀電子遊藝場-iphone12
構建安全可信的人工智能 日前,在寧召開的第二屆江蘇省人工智能大會上,中國科學院院士何積豐帶來主旨報告《可信人工智能》。他表示,隨著人類生活被人工智能廣泛滲透,公眾接受人工智能的程度也越來越高,隨之而來的就是人工智能的可信問題。 去年3月,美國優步的一輛自動駕駛車在路試時撞倒一名行人,當時行人正推著自行車在人行道之外橫穿馬路,關于責任認定,車輛使用者和自動駕駛系統設計者開始扯皮。 這些人工智能案例,是因為這些突發的場景並不在訓練範圍,機器也就無法從容應對。 何積豐說,可信是計算機領域的一個概念,主要強調的是計算機系統和其處理過程的可預測性、可驗證性。近年來,可信的概念也被引入到人工智能領域。 可信人工智能由我國提出,並在G20會議上被各國所認可,這也是關注人工智能發展的核心所在。人、機、物融合是當前社會面臨的一個很重要的系統狀態。如果把人、機、物中間的物理運動以及眾多事件進行組合,如何進行系統性的訓練和測試尤為重要。 在何積豐看來,人工智能的安全發展面臨著內憂外患,對內要處理數據偏差、系統失誤等情況,對外則要應對黑客攻擊、場景受限等問題。他解釋,人工智能系統與傳統的軟件系統有很大區別,這使得其安全發展面臨一系列新挑戰。例如,讓程序學習檢測皮膚癌,程序卻發現惡性皮膚病變的照片裡往往放著一把尺子,便以尺子來作為判斷標準。 如何保證人工智能安全可控?何積豐表示,人工智能能夠與行業、社會治理結合,具備新的賦能功能。因此,對于其安全問題,應該從兩個層面來討論,一層是人工智能技術本身的安全問題,