中文亚洲精品无码_熟女乱子伦免费_人人超碰人人爱国产_亚洲熟妇女综合网

當(dāng)前位置: 首頁(yè) > news >正文

徐州建站服務(wù)av手機(jī)在線精品

徐州建站服務(wù),av手機(jī)在線精品,seo搜索引擎優(yōu)化價(jià)格,wordpress加載緩慢本文介紹對(duì)加載的網(wǎng)絡(luò)的層進(jìn)行增刪改, 以alexnet網(wǎng)絡(luò)為例進(jìn)行介紹。 1. 加載網(wǎng)絡(luò) import torchvision.models as models alexnet models.alexnet(weightsmodels.AlexNet_Weights.DEFAULT) print(alexnet)2. 刪除網(wǎng)絡(luò) 在做遷移學(xué)習(xí)的時(shí)候,我們通常是在分類網(wǎng)絡(luò)的…

本文介紹對(duì)加載的網(wǎng)絡(luò)的層進(jìn)行增刪改, 以alexnet網(wǎng)絡(luò)為例進(jìn)行介紹。

1. 加載網(wǎng)絡(luò)

import torchvision.models as models  alexnet =models.alexnet(weights=models.AlexNet_Weights.DEFAULT)
print(alexnet)

在這里插入圖片描述

2. 刪除網(wǎng)絡(luò)

在做遷移學(xué)習(xí)的時(shí)候,我們通常是在分類網(wǎng)絡(luò)的基礎(chǔ)上進(jìn)行修改的。一般會(huì)把網(wǎng)絡(luò)最后的幾層刪除掉,主要是全局平均池化層、全連接層。只留前面的網(wǎng)絡(luò)部分作為特征提取器,再次基礎(chǔ)上進(jìn)行其他的任務(wù)。

2.1 刪除網(wǎng)絡(luò)任意層

  • 將alexnet的classifier這一部分全刪除掉

在這里插入圖片描述

del  alexnet.classifer
print(alexnet)

刪除classifer模塊后,打印結(jié)果如下:
在這里插入圖片描述
可以看到只剩下featuresavgpool這兩個(gè)模塊了。剛才的classifier就已經(jīng)被我們刪除掉了。

  • 刪除classifier模塊中的某一層

如果不想把classifier這一模塊整體刪除,只想刪除classifier中比如第6個(gè)層

# del alexnet.classifier 
del alexnet.classifier[6]
print(alexnet)

在這里插入圖片描述
可以看到classifier中第6層就已經(jīng)被刪除掉了。

2.2 刪除網(wǎng)絡(luò)的最后多層

如果想把網(wǎng)絡(luò)的連續(xù)幾層給刪除掉,比如classifier中最后的幾層刪除掉

#------------------刪除網(wǎng)絡(luò)的最后多層--------------------------#
alexnet.classifier = alexnet.classifier[:-2]
print(alexnet)
#-------------------------------------------------------------#

打印信息如下:
在這里插入圖片描述

  • 可以看出classifier看出最后2層(5,6)被刪除掉了

可以使用切片的方式,保留不需要被刪除的層重新賦給classifier模塊,沒(méi)有保留的就被刪除了。

3. 修改網(wǎng)絡(luò)的某一層

  • 沒(méi)有修改之前alexnet.classifier的第6層是個(gè)全連接層,輸入通道為4096, 輸出通道為1000
    在這里插入圖片描述
  • 假設(shè)此時(shí),我們想最后一層全連接層的輸出,改為1024。此時(shí),你只需要重新定義這層全連接層。
#-----------------修改網(wǎng)絡(luò)的某一層-----------------------------#
alexnet.classifier[6] = nn.Linear(in_features=4096,out_features=1024)
print(alexnet)
#-------------------------------------------------------------#

打印后,可以看到最后一層的輸出由原來(lái)的4096改為了1024
在這里插入圖片描述

4. 在網(wǎng)絡(luò)中添加某一層

4.1 每次添加一層

假設(shè)我們想在網(wǎng)絡(luò)最后輸出中,再添加兩層,分別為ReLUnn.Linear

#-----------------修改網(wǎng)絡(luò)的某一層-----------------------------#
alexnet.classifier[6] = nn.Linear(in_features=4096,out_features=1024)
# print(alexnet)
#-------------------------------------------------------------##-------------網(wǎng)絡(luò)添加層,每次添加一層--------------------------#
alexnet.classifier.add_module('7',nn.ReLU(inplace=True))
alexnet.classifier.add_module('8',nn.Linear(in_features=1024,out_features=20))
print(alexnet)
#-------------------------------------------------------------#
  • 利用add_module來(lái)添加層,第一個(gè)參數(shù)為層名稱,第二個(gè)參數(shù)為定義layer的內(nèi)容
  • 我們?cè)赼lexnet.classifier這個(gè)block中進(jìn)行添加的,添加后打印網(wǎng)絡(luò)結(jié)構(gòu)如下:
    在這里插入圖片描述
  • 可以看到成功的添加了最后2層。

4.2 一次添加多層

如果覺得一層層的添加層比較麻煩,比如我們可以一次性添加一個(gè)大的模塊new_block。

block = nn.Sequential(nn.ReLU(inplace=True),nn.Linear(in_features=1024,out_features=20)
)alexnet.add_module('new_block',block)
print(alexnet)

在這里插入圖片描述

  • 可以看到在alexnet網(wǎng)絡(luò)中新增了new_block,該block中包括2層,分別是ReLU層以及Linear層。

以上就是對(duì)Pytorch網(wǎng)絡(luò)增刪改的方法,完整的代碼如下:

import torchvision.models as models  
import torch.nn   as nn alexnet =models.alexnet(weights=models.AlexNet_Weights.DEFAULT)
# print(alexnet)#1.-----------------刪除網(wǎng)絡(luò)的最后一層-------------------------#
# del alexnet.classifier 
# del alexnet.classifier[6]
# print(alexnet)
#-------------------------------------------------------------##------------------刪除網(wǎng)絡(luò)的最后多層--------------------------#
# alexnet.classifier = alexnet.classifier[:-2]
# print(alexnet)
#-------------------------------------------------------------##-----------------修改網(wǎng)絡(luò)的某一層-----------------------------#
alexnet.classifier[6] = nn.Linear(in_features=4096,out_features=1024)
# print(alexnet)
#-------------------------------------------------------------##-------------網(wǎng)絡(luò)添加層,每次添加一層--------------------------#
# alexnet.classifier.add_module('7',nn.ReLU(inplace=True))
# alexnet.classifier.add_module('8',nn.Linear(in_features=1024,out_features=20))
# print(alexnet)
#-------------------------------------------------------------##-----------------------網(wǎng)絡(luò)添加層,一次性添加多層--------------#
block = nn.Sequential(nn.ReLU(inplace=True),nn.Linear(in_features=1024,out_features=20)
)alexnet.add_module('new_block',block)
print(alexnet)
#-------------------------------------------------------------#
http://m.risenshineclean.com/news/41288.html

相關(guān)文章:

  • 上海專業(yè)網(wǎng)站建設(shè) 公司中國(guó)站免費(fèi)推廣入口
  • 教育部教育考試院網(wǎng)站網(wǎng)頁(yè)的優(yōu)化方法
  • 建設(shè)部繼續(xù)教育網(wǎng)站網(wǎng)站制作方案
  • 攜程旅行網(wǎng)站內(nèi)容的建設(shè)軟文發(fā)布軟件
  • 抖音app下載seo外包方法
  • 如何請(qǐng)人創(chuàng)建一個(gè)網(wǎng)站信息流廣告素材網(wǎng)站
  • 做淘寶需要的網(wǎng)站數(shù)字化營(yíng)銷
  • 直播app開發(fā)一個(gè)需要多少錢整站優(yōu)化報(bào)價(jià)
  • 網(wǎng)頁(yè)制作要多少錢長(zhǎng)沙seo工作室
  • 網(wǎng)站外包合作網(wǎng)絡(luò)優(yōu)化報(bào)告
  • 鄭州做網(wǎng)站齒輪廣州網(wǎng)絡(luò)營(yíng)銷選擇
  • 餐飲公司網(wǎng)站建設(shè)策劃書網(wǎng)絡(luò)營(yíng)銷管理
  • 科汛kesioncms網(wǎng)站系統(tǒng)長(zhǎng)春百度網(wǎng)站優(yōu)化
  • 商融建設(shè)集團(tuán)有限公司網(wǎng)站廣州網(wǎng)站seo推廣
  • wordpress模版怎么上傳寧波關(guān)鍵詞優(yōu)化企業(yè)網(wǎng)站建設(shè)
  • 西安做網(wǎng)站公無(wú)憂seo博客
  • 做網(wǎng)站需要學(xué)習(xí)多久域名被墻查詢
  • 公司網(wǎng)站制作多少錢好用的磁力搜索引擎
  • 電影網(wǎng)頁(yè)制作素材刷關(guān)鍵詞排名seo軟件
  • 網(wǎng)費(fèi)一年多少錢優(yōu)化設(shè)計(jì)電子版在哪找
  • 南京做網(wǎng)站建設(shè)有哪些內(nèi)容做百度推廣多少錢
  • 東莞網(wǎng)站推廣公司建站abc官方網(wǎng)站
  • 上海網(wǎng)站設(shè)計(jì)銷售營(yíng)銷方案100例
  • 項(xiàng)目宣傳網(wǎng)站模板百度最新版本2022
  • 做wap網(wǎng)站能火嗎合肥網(wǎng)站
  • 網(wǎng)站維護(hù)一年多少費(fèi)收錄排名好的發(fā)帖網(wǎng)站
  • 網(wǎng)站地址欄圖標(biāo)制作企業(yè)高管培訓(xùn)課程有哪些
  • 做酒店管理網(wǎng)站的作用成都網(wǎng)絡(luò)推廣外包
  • wordpress 眾籌模板seo效果最好的是
  • 做百度推廣需要網(wǎng)站嗎單頁(yè)站好做seo嗎