• 澳科研團隊用新算法幫助“機器學習”抗干擾
    來源: 作者: 發布時間: 2019-07-04

    “機器學習”可以在大數據訓練中“學習”正確的工作方法,但它也容易受到惡意干擾。攻擊者一般通過輸入惡意數據來欺騙“機器學習”模型,導致其出現故障。開發新算法的Data61機器學習小組負責人理查德·諾克博士舉例說,在進行圖像識別時,攻擊者通過在圖像上添加一層“干擾波”,可以欺騙“機器學習”模型進行錯誤的圖像分類。

    “我們的新算法通過一種類似疫苗接種的思路來抗干擾。”諾克博士說,他們的新算法可對“機器學習”模型進行防干擾訓練,比如在圖片識別領域,對圖片集合進行小的修改或使其失真,可激發出“機器學習”模型越來越強的抗干擾能力,并形成相關的自我抗干擾訓練模型。當經過小規模的失真訓練后,最終的抗干擾訓練模型將更加強大,在干擾真的到來時,“機器學習”模型將具備“免疫”功能。吃

    地方動態

    首屆數字全民國防教育高峰論壇在京舉行

    第四屆信息技術及應用創新人才發展交流大會暨中國信息協會第三屆信息技術服務業應用技能大賽頒獎典禮在京隆重召開

    2023(第五屆)中國電子政務安全大會在京成功召開

    中國信息協會首次職業技能等級認定考試在黑龍江省舉行

    • 協會要聞
    • 通知公告
    初爱视频教程完整版免费观看高清