7月26日訊,近期微軟遭遇的大規(guī)模藍屏事件,不僅震撼了科技界,也促使社會各界對技術穩(wěn)定性與安全性進行了深刻反思。這一事件警示我們,在即將到來的AI時代,若類似的技術故障重演,其潛在影響與損失或?qū)⒏鼮閲谰?/p>
在此背景下,中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟(AIIA)安全治理委員會于近日舉辦的成果發(fā)布會上,AIIA秘書長、中國信通院院長余曉暉強調(diào),面對人工智能安全治理的緊迫任務,需集行業(yè)之力,共同構建和完善人工智能安全風險識別體系,確保風險識別的敏捷性與精準度,以便及時發(fā)現(xiàn)并應對潛在威脅。同時,他呼吁加強人工智能安全評測技術的研究與應用,以技術手段解決技術難題。
AIIA安全治理委員會已深入探索人工智能治理框架、風險管理、內(nèi)生安全及安全應用等多個維度,力求在理論和技術層面為AI安全保駕護航。會上,正式啟動了“人工智能安全守護計劃”,旨在通過AI Guard品牌,建立AI系統(tǒng)情報共享及AIGC真實性與可信賴性互認機制,并推動人工智能相關保險產(chǎn)品的開發(fā),全方位提升AI技術服務提供方與使用方的安全防護能力。
此外,中國信通院人工智能所黑一鳴博士展示了自主研發(fā)的大模型安全加固解決方案。該方案創(chuàng)新性地采用模型微調(diào)與外掛安全知識庫等策略,在保持大模型原有性能與效率的同時,顯著增強了其對抗各類誘導攻擊的能力,為AI安全加固提供了新思路。
值得注意的是,人工智能的跨界融合特性日益顯著,這既是其發(fā)展的動力,也對法律與規(guī)范提出了更高要求。中國法學會網(wǎng)絡與信息法學研究會副秘書長劉金瑞指出,法學界在應對AI挑戰(zhàn)時,需深入了解技術特性,以確保所制定的規(guī)范和規(guī)制措施既符合邏輯又具實操性。
北京市金杜律師事務所合伙人寧宣鳳律師則透露,國家層面正逐步推進針對人工智能的小切口立法,涵蓋深度合成、算法、AIGC等多個領域,并探索科技倫理審查等制度建設。她進一步透露,專門的“人工智能法”也正在緊鑼密鼓的制定之中,預示著我國在AI治理領域的法制化進程正加速推進。
-
AI
+關注
關注
88文章
35109瀏覽量
279573 -
人工智能
+關注
關注
1806文章
49011瀏覽量
249341
發(fā)布評論請先 登錄
迅為RK3588開發(fā)板Linux安卓麒麟瑞芯微國產(chǎn)工業(yè)AI人工智能
開售RK3576 高性能人工智能主板
AI人工智能隱私保護怎么樣

評論