中文亚洲精品无码_熟女乱子伦免费_人人超碰人人爱国产_亚洲熟妇女综合网

當(dāng)前位置: 首頁 > news >正文

公司注冊地址與辦公地址不一致seo教學(xué)

公司注冊地址與辦公地址不一致,seo教學(xué),網(wǎng)站制作與網(wǎng)頁制作,長沙網(wǎng)站建立公司文章目錄 1 概述1.1 要點(diǎn)1.2 代碼1.3 引用 2 背景2.1 目標(biāo)與非目標(biāo)攻擊2.2 最小化損失2.3 白盒威脅模型2.4 黑盒威脅模型 3 簡單黑盒攻擊3.1 算法3.2 Cartesian基3.3 離散余弦基3.4 一般基3.5 學(xué)習(xí)率 ? \epsilon ?3.6 預(yù)算 1 概述 1.1 要點(diǎn) 題目:簡單黑盒對抗攻…

文章目錄

  • 1 概述
    • 1.1 要點(diǎn)
    • 1.2 代碼
    • 1.3 引用
  • 2 背景
    • 2.1 目標(biāo)與非目標(biāo)攻擊
    • 2.2 最小化損失
    • 2.3 白盒威脅模型
    • 2.4 黑盒威脅模型
  • 3 簡單黑盒攻擊

1 概述

1.1 要點(diǎn)

題目:簡單黑盒對抗攻擊 (Simple black-box adversarial attacks)

策略:提出了一個(gè)在黑盒設(shè)置下構(gòu)建對抗圖像的簡單方法:

  1. 從預(yù)定義的正交基中隨機(jī)采樣一個(gè)向量,并將其添加或減去到目標(biāo)圖像;
  2. 在多個(gè)現(xiàn)實(shí)任務(wù)下展示了算法的性能和效率;
  3. 算法非常快,且實(shí)現(xiàn)僅需不要20Pytorch代碼;

1.2 代碼

https://github.com/cg563/simple-blackbox-attack

1.3 引用

@inproceedings{Guo:2019:24842493,
author		=	{Guo, Chuan and Gardner, Jacob and You, Yurong and Wilson, Andrew Gordon and Weinberger, Kilian},
title		=	{Simple black-box adversarial attacks},
booktitle	=	{{ICML}},
pages		=	{2484--2493},
year		=	{2019},
url			=	{https://proceedings.mlr.press/v97/guo19a.html}
}

2 背景

對抗樣本的研究關(guān)注于機(jī)器學(xué)習(xí)模型對細(xì)微改變的健壯性。圖像分類的任務(wù)是成功預(yù)測人類所認(rèn)知的圖像。自然地,這樣的微小改變不會(huì)影響人類的判斷?;诖?#xff0c;可以將健壯性形式化表述為:給定一個(gè)模型 h h h和一些輸入-標(biāo)簽對 ( x , y ) (x,y) (x,y),如果模型能正確分類 h ( x ) = y h(x)=y h(x)=y,則稱 h h h是關(guān)于概率度量 d ( ? , ? ) d(\cdot,\cdot) d(?,?) ρ \rho ρ健壯的:
h ( x ′ ) = y ? x ′ ∈ { x ′ ∣ d ( x ′ , x ) ≤ ρ } . h(x')=y\ \forall x'\in\{ x' | d(x',x) \leq \rho \}. h(x)=y??x{xd(x,x)ρ}.度量 d d d通常被近似為 L 0 , L 2 , L ∞ L_0,L_2,L_\infty L0?,L2?,L?,以度量輸入 x x x和擾動(dòng) x ′ x' x之間視覺不相似性的程度。除非特別說明,本文均采用 d ( x , x ′ ) = ∥ x ? x ′ ∥ 2 d(x,x')=\| x-x' \|_2 d(x,x)=x?x2?作為感知度量。在幾何上,難以察覺的變化區(qū)域被定義為一個(gè)半徑 ρ \rho ρ、以 x x x為中心的超球。對抗攻擊的目標(biāo)便是找到一個(gè)對抗方向 δ \delta δ,使得模型對 x ′ = x + δ x'=x+\delta x=x+δ的決策發(fā)生改變。

2.1 目標(biāo)與非目標(biāo)攻擊

最簡單的成功攻擊的條件是將原始預(yù)測改變?yōu)槠渌我忸悇e h ( x ′ ) ≠ y h(x')\neq y h(x)=y。這便是非目標(biāo)攻擊。與此相應(yīng)地,目標(biāo)攻擊的目標(biāo)是對于選擇的目標(biāo)類 y ′ y' y,有 h ( x ′ ) = y ′ h(x')=y' h(x)=y。為了簡便,余下的討論均在目標(biāo)攻擊下進(jìn)行。

2.2 最小化損失

由于模型輸出離散決策,因此尋找對抗性擾動(dòng)來改變模型首先是一個(gè)離散優(yōu)化問題。然而,其經(jīng)常定義一個(gè)代理損失 ? y ( ? ) \ell_y(\cdot) ?y?(?)來度量模型 h h h將輸入歸類為 y y y的確信度。因此,對抗擾動(dòng)問題可以被制定為最小化模型分類確信度的連續(xù)優(yōu)化問題:
min ? δ ? y ( x + δ ) subject?to? ∥ δ ∥ 2 < ρ \min_\delta\ell_y(x+\delta) \text{ subject to }\| \delta \|_2<\rho δmin??y?(x+δ)?subject?to?δ2?<ρ當(dāng)模型 h h h輸出對應(yīng)于每個(gè)類別的概率 p h ( ? ∣ x ) p_h(\cdot|x) ph?(?x)時(shí),一個(gè)常用的對抗損失是類別 y y y的概率: ? y ( x ′ ) = p h ( y ∣ x ′ ) \ell_y(x')=p_h(y|x') ?y?(x)=ph?(yx),其需要最小化正確分類的概率。對于目標(biāo)攻擊,一個(gè)選擇是 ? y ′ ( x ′ ) = ? p h ( y ′ ∣ x ′ ) \ell_{y'}(x')=-p_h(y'|x') ?y?(x)=?ph?(yx),本質(zhì)上是最大化誤分類為 y ′ y' y的概率。

2.3 白盒威脅模型

依賴于所在的應(yīng)用領(lǐng)域,攻擊者對于目標(biāo)模型 h h h的知識有不同程度的了解。在白盒威脅模型下,分類器 h h h將提供給攻擊者。在該設(shè)置下,一個(gè)有力的攻擊策略是在對抗損失 ? y ( ? ) \ell_y(\cdot) ?y?(?)下執(zhí)行梯度下降或者近似理論。為了確保不易察覺的改變,一種方式是控制擾動(dòng)的范數(shù) ∥ δ ∥ 2 \|\delta\|_2 δ2?、早停,或者直接在損失優(yōu)化過程中引入正則或者約束。

2.4 黑盒威脅模型

對于很多實(shí)際應(yīng)用而言,白盒假設(shè)是不切實(shí)際的。例如,模型 h h h的展示形式是API,僅能夠基于輸入獲取查詢結(jié)果。對于攻擊者而言,黑盒模型將更具有挑戰(zhàn)性,這是因?yàn)樘荻刃畔⒉荒芤龑?dǎo)對抗方向 δ \delta δ,且每次查詢將消耗時(shí)間和金錢。因此,黑盒威脅設(shè)置下,附加了最小化查詢次數(shù) h h h的優(yōu)化目標(biāo)。修改后的優(yōu)化目標(biāo)為:
min ? δ ? y ( x + δ ) subject?to:? ∥ δ ∥ < ρ , queries ≤ B \min_\delta\ell_y(x+\delta)\text{ subject to: }\|\delta\|<\rho,\text{ queries}\leq B δmin??y?(x+δ)?subject?to:?δ<ρ,?queriesB其中 B B B是固定代價(jià)。對于迭代優(yōu)化算法而言,攻擊算法需要快速收斂到可行解。

3 簡單黑盒攻擊

假設(shè)已有一張圖像 x x x、黑盒神經(jīng)網(wǎng)絡(luò) h h h,分類器 h ( x ) = y h(x)=y h(x)=y。我們的目標(biāo)是找到一個(gè)小的擾動(dòng) δ \delta δ,其滿足 h ( x + δ ) ≠ y h(x+\delta)\neq y h(x+δ)=y。盡管在黑盒設(shè)置下,梯度信息是缺失的,輸出概率依然可以用于引導(dǎo)對抗圖像的生成。

3.1 算法

算法1展示了本文輸入的偽代碼:對于任意方向 q \mathbf{q} q和步長大小 ? \epsilon ? x + ? q x+\epsilon\mathbf{q} x+?q或者 x ? ? q x-\epsilon\mathbf{q} x??q可能會(huì)降低 p h ( y ∣ x ) p_h(y|x) ph?(yx)。因此我們重復(fù)地隨機(jī)選擇方向 q \mathbf{q} q并添加或者減去它。為了最小化查詢 h ( ? ) h(\cdot) h(?)的次數(shù),總是首先嘗試添加 ? q \epsilon\mathbf{q} ?q。如果概率 p h ( y ∣ x ) p_h(y|x) ph?(yx)降低則采取該步驟,否則將減去 ? q \epsilon\mathbf{q} ?q。

所提出的簡單黑盒攻擊 (SimBA) ,使用目標(biāo)圖像標(biāo)簽對 ( x , y ) (x,y) (x,y)作為輸入,以及正交候選向量 Q Q Q和步長 ? > 0 \epsilon>0 ?>0。為了簡化,我們均勻隨機(jī)采樣 q ∈ Q \mathbf{q}\in Q qQ。為了保證最大的查詢效率,確保了沒有兩個(gè)方向?qū)?huì)取消或者削減對方,或者不合適地放大或者增加 δ \delta δ的范數(shù)。在 T T T次更新后,擾動(dòng)的范數(shù)為 ∥ δ ∥ 2 = T ? \|\delta\|_2=\sqrt{T}\epsilon δ2?=T ??。

3.2 Cartesian基

正交搜索方向 Q Q Q的一個(gè)很自然的選擇是標(biāo)準(zhǔn)基 Q = I Q=I Q=I,其對應(yīng)算法在像素空間的更新方向。本質(zhì)上,算法在每次更新隨機(jī)選擇一個(gè)像素增加或者減少,這樣的攻擊被稱為 L 0 L_0 L0?攻擊,其將盡可能少的改變像素。

3.3 離散余弦基

最近的工作發(fā)現(xiàn)低頻空間中的隨機(jī)噪聲更有可能是對抗性的。對此,我們將探索離散余弦變換 (DCT)。DCT是一個(gè)正交變換,其用于將2D圖像空間 R d × d \mathbb{R}^{d\times d} Rd×d中的信號映射到與余弦波函數(shù)的幅度相對于的頻率系數(shù)。接下來,我們將DCT提取的正交頻率集合稱為 Q DCT Q_\text{DCT} QDCT?。完整的 Q DCT Q_\text{DCT} QDCT?包含 d × d d\times d d×d個(gè)頻段,我們僅保留比例 r r r的低頻段,以在低頻空間中生成對抗擾動(dòng)。

3.4 一般基

理論上,在基向量可以被高效采集的前提下,任意的正交基都能用于本文方法。這對于高分辨率數(shù)據(jù)集,例如ImageNet來說無疑是一個(gè)大的挑戰(zhàn),因?yàn)槊恳粋€(gè)正交基的維度是 d × d d\times d d×d。迭代采樣方法,例如Gram-Schmidt不能使用,因?yàn)閮?nèi)存代價(jià)隨采樣向量的數(shù)量線性增長。因此,本文僅選用標(biāo)準(zhǔn)基向量和DCT基向量。

3.5 學(xué)習(xí)率 ? \epsilon ?

給定任意的搜索方向 Q Q Q,一些方法能夠更多的降低 p h ( y ∣ x ) p_h(y|x) ph?(yx)。此外,輸出概率 p h ( y ∣ x + ? q ) p_h(y|x+\epsilon\mathbf{q}) ph?(yx+?q)可能是非單調(diào)的。圖1展示了在像素空間和DCT空間隨機(jī)采樣搜索方向時(shí),輸出概率隨 ? \epsilon ?變化的相對情況 (ReaNet-50預(yù)測ImageNet驗(yàn)證集)。結(jié)果表明,概率 p h ( y ∣ x + ? q ) p_h(y|x+\epsilon\mathbf{q}) ph?(yx+?q)的下降與 ? \epsilon ?的增長相匹配。盡管一些方向增加了正確類別的概率,該概率的預(yù)期變化為負(fù)且斜率相對較陡。這說明算法對 ? \epsilon ?的選擇不敏感,其將快速降低正類別的概率。

3.6 預(yù)算

通過探索 Q Q Q的正交性,我們能夠約束 δ \delta δ的范數(shù)。在每次迭代過程中,基向量將被用于加或者減,當(dāng)無法改變輸出概率時(shí),則拋棄。令 α i ∈ { ? ? , 0 , ? } \alpha_i\in\{-\epsilon,0,\epsilon\} αi?{??,0,?}表示在第 t t t步時(shí)的搜索方向,因此:
δ t + 1 = δ t + α t q t \delta_{t+1}=\delta_t+\alpha_t\mathbf{q}_t δt+1?=δt?+αt?qt?最終的擾動(dòng)可以記作:
δ T = ∑ t = 1 T α t q t \delta_T=\sum_{t=1}^T\alpha_t\mathbf{q}_t δT?=t=1T?αt?qt?因?yàn)榉较?span id="vxwlu0yf4" class="katex--inline"> q t \mathbf{q}_t qt?是正交的,對于任意的 t ≠ t ′ t\neq t' t=t q t ? q t ′ = 0 \mathbf{q}_t^\top\mathbf{q}_{t'}=0 qt??qt?=0。因此,對抗擾動(dòng)的 L 2 L_2 L2?范數(shù)計(jì)算為:
∥ δ T ∥ 2 2 = ∥ ∑ t = 1 T α t q t ∥ 2 2 = ∑ t = 1 T ∥ α t q t ∥ 2 2 = ∑ t = 1 T α t 2 ∥ q t ∥ 2 2 ≤ T ? 2 \left\| \delta_T \right\|_2^2 = \left\| \sum_{t=1}^T\alpha_t\mathbf{q}_t \right\|_2^2 = \sum_{t=1}^T\left\| \alpha_t\mathbf{q}_t \right\|_2^2 = \sum_{t=1}^T\alpha_t^2\left\| \mathbf{q}_t \right\|_2^2\leq T\epsilon^2 δT?22?= ?t=1T?αt?qt? ?22?=t=1T?αt?qt?22?=t=1T?αt2?qt?22?T?2因此,在 T T T輪迭代之后,對抗擾動(dòng)的最大 L 2 L_2 L2?范數(shù)為 T ? \sqrt{T}\epsilon T ??,這對于任意正交基均成立。

http://m.risenshineclean.com/news/61043.html

相關(guān)文章:

  • 女生冷門又高薪的職業(yè)深圳網(wǎng)站seo哪家快
  • 模板網(wǎng)站 怎么做優(yōu)化凡科建站下載
  • 網(wǎng)站建設(shè)方案策劃書seo資源
  • 網(wǎng)站建設(shè)技術(shù)提升關(guān)鍵詞排名seo軟件
  • 內(nèi)蒙網(wǎng)站開發(fā)如何設(shè)計(jì)推廣方案
  • word網(wǎng)站的鏈接怎么做站長推廣網(wǎng)
  • 上海浦東網(wǎng)站設(shè)計(jì)公司谷歌在線搜索
  • wordpress自定義登錄地址seo顧問什么職位
  • 旅游網(wǎng)站國際業(yè)務(wù)怎樣做廈門seo專業(yè)培訓(xùn)學(xué)校
  • 創(chuàng)可貼網(wǎng)站怎么做圖片大全大連seo按天付費(fèi)
  • 網(wǎng)站開發(fā)助理主要工作網(wǎng)站制作的費(fèi)用
  • 上海的網(wǎng)站公安備案查詢系統(tǒng)怎么開網(wǎng)店新手入門
  • cnnic可信網(wǎng)站必須做嗎知名網(wǎng)絡(luò)營銷推廣
  • 我想買個(gè)空間自己做網(wǎng)站steam交易鏈接在哪看
  • 湖南seo網(wǎng)站多少錢推廣優(yōu)化師
  • 如何做網(wǎng)站不容易被攻擊關(guān)鍵詞搜索推廣排行榜
  • 陜西省建設(shè)網(wǎng)官方網(wǎng)站seo搜索引擎優(yōu)化總結(jié)報(bào)告
  • 阿里云中英文網(wǎng)站建設(shè)福州關(guān)鍵詞搜索排名
  • 在線支付網(wǎng)站建設(shè)百度問一問免費(fèi)咨詢
  • 做英語題的網(wǎng)站軟文新聞發(fā)布網(wǎng)站
  • 做網(wǎng)站實(shí)現(xiàn)登陸功能2023年12月疫情又開始了嗎
  • 手機(jī)怎樣制作網(wǎng)頁免費(fèi)seo診斷
  • 為什么網(wǎng)站突然打不開品牌關(guān)鍵詞優(yōu)化哪家便宜
  • 代做網(wǎng)站名稱優(yōu)化b2b平臺(tái)推廣
  • 網(wǎng)站建設(shè)市場供需分析外鏈服務(wù)
  • 阿里巴巴電子商務(wù)網(wǎng)站專業(yè)營銷策劃團(tuán)隊(duì)
  • 日用品網(wǎng)站1萬2做代理網(wǎng)絡(luò)營銷大賽策劃書
  • 太平洋建設(shè)21局網(wǎng)站互聯(lián)網(wǎng)推廣渠道有哪些
  • 化妝品網(wǎng)站制作需要湖南百度推廣
  • 一個(gè)公司做幾個(gè)網(wǎng)站seo標(biāo)題優(yōu)化步驟