Questo post illustra come e' stato risolto il problema della GIF sottostante
Le immagini ottiche sono riprese da una camera PTZ che nel corso del giorno si sposta su diverse inquadrature...cio' comporta che non ritorna mai nelle impostazione perfette del giorno precedente rendendo impossibile l'analisi al computer ma anche la semplice interpretazione umana di eventuali modifiche
Per risolvere il problema sono state applicate tecniche che riguardano sia la correzione geometrica che dello spazio colore
Per prima cosa i vari fotogrammi sono stati coregistrati in modo software con il seguente script Python
///////////////////////////////////////////////////////
import cv2
import numpy as np
import sys, getopt
file2 = sys.argv[1:][0]
#print(file2)
#print("luca")
#print("/home/luca/ptz/150.217.73.10/share/transi"+file2)
# Read the images to be aligned
im1 = cv2.imread("/home/luca/ptz/150/share/transi/1.jpg");
im2 = cv2.imread("/home/luca/ptz/150/share/transi/"+file2);
# Convert images to grayscale
im1_gray = cv2.cvtColor(im1,cv2.COLOR_BGR2GRAY)
im2_gray = cv2.cvtColor(im2,cv2.COLOR_BGR2GRAY)
# Find size of image1
sz = im1.shape
# Define the motion model
warp_mode = cv2.MOTION_TRANSLATION
# Define 2x3 or 3x3 matrices and initialize the matrix to identity
if warp_mode == cv2.MOTION_HOMOGRAPHY :
warp_matrix = np.eye(3, 3, dtype=np.float32)
else :
warp_matrix = np.eye(2, 3, dtype=np.float32)
# Specify the number of iterations.
number_of_iterations = 5000;
# Specify the threshold of the increment
# in the correlation coefficient between two iterations
termination_eps = 1e-10;
# Define termination criteria
criteria = (cv2.TERM_CRITERIA_EPS | cv2.TERM_CRITERIA_COUNT, number_of_iterations, termination_eps)
# Run the ECC algorithm. The results are stored in warp_matrix.
(cc, warp_matrix) = cv2.findTransformECC (im1_gray,im2_gray,warp_matrix, warp_mode, criteria)
if warp_mode == cv2.MOTION_HOMOGRAPHY :
# Use warpPerspective for Homography
im2_aligned = cv2.warpPerspective (im2, warp_matrix, (sz[1],sz[0]), flags=cv2.INTER_LINEAR + cv2.WARP_INVERSE_MAP)
else :
# Use warpAffine for Translation, Euclidean and Affine
im2_aligned = cv2.warpAffine(im2, warp_matrix, (sz[1],sz[0]), flags=cv2.INTER_LINEAR + cv2.WARP_INVERSE_MAP);
# Show final results
#cv2.imshow("Image 1", im1)
#cv2.imshow("Image 2", im2)
#cv2.imshow("Aligned Image 2", im2_aligned)
cv2.imwrite("/home/luca/ptz/150/share/transi/all_"+file2,im2_aligned)
print("allinea")
print(file2)
///////////////////////////////////////////////////////
per la registrazione dell'istogramma dei colori e' stato usato
///////////////////////////////////////////////////////
from skimage import exposure
import matplotlib.pyplot as plt
import argparse
import cv2
# construct the argument parser and parse the arguments
ap = argparse.ArgumentParser()
ap.add_argument("-s", "--source", required=True,help="numero")
args = vars(ap.parse_args())
src = cv2.imread("/home/luca/ptz/150/share/transi/all_"+str(args["source"])+".jpg")
ref = cv2.imread("/home/luca/ptz/150/share/transi/all_1.jpg")
# determine if we are performing multichannel histogram matching
# and then perform histogram matching itself
print("[INFO] performing histogram matching...")
multi = True if src.shape[-1] > 1 else False
matched = exposure.match_histograms(src, ref, multichannel=multi)
cv2.imwrite("/home/luca/ptz/150/share/transi/orfeo"+str(args["source"])+".jpg",matched)
///////////////////////////////////////////////////////
per finire le immagini sono passate all'algoritmo di Change Detection di
Orfeo ToolBox
otbcli_MultivariateAlterationDetector -in1 ~/ptz/150/share/transi/orfeo$j.jpg -in2 /home/luca/ptz/150.217.73.10/share/transi/orfeo$prec.jpg -out /home/luca/ptz/150/share/transi/change$j.jpg
ed il risultato viene elaborato da uno script in Python per esaltare il contrasto della mappa di CD
import cv2
import numpy as np
import sys, getopt
file2 = sys.argv[1:][0]
img = cv2.imread("/home/luca/ptz/150/transi/change"+file2+".jpg", cv2.IMREAD_COLOR)
# normalize float versions
#norm_img1 = cv2.normalize(img, None, alpha=0, beta=1, norm_type=cv2.NORM_MINMAX, dtype=cv2.CV_32F)
norm_img2 = cv2.normalize(img, None, alpha=0, beta=1.2, norm_type=cv2.NORM_MINMAX, dtype=cv2.CV_32F)
# scale to uint8
#norm_img1 = (255*norm_img1).astype(np.uint8)
norm_img2 = np.clip(norm_img2, 0, 1)
norm_img2 = (255*norm_img2).astype(np.uint8)
# write normalized output images
cv2.imwrite("/home/luca/ptz/150/transi/change_stretch"+file2+".jpg",norm_img2)
#cv2.imwrite("zelda1_bm20_cm20_normalize2.jpg",norm_img2)
Nessun commento:
Posta un commento