電子商務(wù)網(wǎng)站的建設(shè)視頻網(wǎng)絡(luò)營(yíng)銷(xiāo)有哪些方式
?大家好,我是csdn的博主:lqj_本人
這是我的個(gè)人博客主頁(yè):
lqj_本人的博客_CSDN博客-微信小程序,前端,python領(lǐng)域博主lqj_本人擅長(zhǎng)微信小程序,前端,python,等方面的知識(shí)
https://blog.csdn.net/lbcyllqj?spm=1011.2415.3001.5343嗶哩嗶哩歡迎關(guān)注:小淼Develop
小淼Develop的個(gè)人空間-小淼Develop個(gè)人主頁(yè)-嗶哩嗶哩視頻
本篇文章主要講述python的人工智能視覺(jué)領(lǐng)域(opencv),本篇文章已經(jīng)成功收錄python人工智能視覺(jué)(opencv)從入門(mén)到實(shí)戰(zhàn)專(zhuān)欄中:https://blog.csdn.net/lbcyllqj/category_12200666.html
https://blog.csdn.net/lbcyllqj/category_12200666.html
圖像融合
- 背景:圖像融合是圖像處理的一個(gè)基本問(wèn)題,目的是將源圖像中一個(gè)物體或者一個(gè)區(qū)域嵌入到目標(biāo)圖像生成一個(gè)新的圖像。在對(duì)圖像進(jìn)行合成的過(guò)程中,為了使合成后的圖像更自然,合成邊界應(yīng)當(dāng)保持無(wú)縫。但如果源圖像和目標(biāo)圖像有著明顯不同的紋理特征,則直接合成后的圖像會(huì)存在明顯的邊界。
- 引入:基于泊松方程而引入的泊松融合求解像素最優(yōu)值的方法,在保留了源圖像梯度信息的同時(shí),融合源圖像與目標(biāo)圖像。該方法根據(jù)用戶指定的邊界條件求解一個(gè)泊松方程,實(shí)現(xiàn)了梯度域上的連續(xù),從而達(dá)到邊界處的無(wú)縫融合。
對(duì)比傳統(tǒng)圖像融合和泊松融合
- 傳統(tǒng)的圖像融合:
- 精確地選擇融合區(qū)域:過(guò)程單調(diào)乏味且工作量大,常常無(wú)法得到好的結(jié)果。
- Alpha-Matting:功能強(qiáng)大,但是實(shí)現(xiàn)復(fù)雜。
- 基于Poisson方程的無(wú)縫融合:
- 選擇融合區(qū)域的過(guò)程簡(jiǎn)單且方便。
- 最終可以得到無(wú)縫融合的結(jié)果。
變分法的解釋泊松圖像編輯
?表示融合圖像塊的梯度。
變分方程的意義表明我們的無(wú)縫融合是以源圖像塊內(nèi)梯度場(chǎng)為指導(dǎo),將融合邊界上目標(biāo)場(chǎng)景和源圖像的差異平滑地?cái)U(kuò)散到融合圖像塊 I 中,這樣的話,融合后的圖像塊能夠無(wú)縫地融合到目標(biāo)場(chǎng)景中,并且其色調(diào)和光照可以與目標(biāo)場(chǎng)景相一致。
?讀取需要融合的兩張圖
import cv2
import numpy as np src = cv2.imread("1.jpg")
dst = cv2.imread("2.jpg")
?創(chuàng)建飛機(jī)的mask
src_mask = np.zeros(src.shape, src.dtype)
# 繪制多邊形
poly = np.array([ [4,80], [30,54], [151,63], [254,37], [298,90], [272,134], [43,122] ], np.int32)
cv2.fillPoly(src_mask, [poly], (255, 255, 255))
?
- 融合操作使用?
cv2.eamlessClone()
?:
- 參數(shù)1:融合圖(飛機(jī))
- 參數(shù)2:目標(biāo)圖(天空)
- 參數(shù)3:融合圖的mask
- 參數(shù)4:融合圖位置中心
- 參數(shù)5:融合方式,常用?
cv2.MIXED_CLONE
?和?cv2.NORMAL_CLONE
# 飛機(jī)中心位置在dst的坐標(biāo)
center = (500,100)
# 泊松融合.
output1 = cv2.seamlessClone(src, dst, src_mask, center, cv2.MIXED_CLONE)