ML之SIFT_FLANN:对图片提取SIFT特征并利用FLANN方法判别图像的相似度并可视化
ML之SIFT_FLANN:对图片提取SIFT特征并利用FLANN方法判别图像的相似度并可视化
FLANN算法
FLANN库全称是Fast Library for Approximate Nearest Neighbors,它是目前最完整的(近似)最近邻开源库。不但实现了一系列查找算法,还包含了一种自动选取最快算法的机制。
使用flann的搜索,整体来说分为两步,一是建立索引,二是搜索。
- 使用SIFT特征提取关键点;
- 计算SIFT特征描述子;
- 使用FLANN匹配器进行描述子向量匹配。
1、建立索引
其实就是要两部分参数,一是数据也就是mat矩阵,二是一些具体参数,这个参数要根据建立的索引类型来设置。而有哪些索引类型呢? 共有:线性索引、KD-Tree索引、K均值索引、复合索引、LSH方法索引、自动索引 六种。
2、进行搜索
有两种搜索方式 :knnSearch //搜索k邻近 、radiusSearch //搜索半径最近
从返回结果考虑两者的不同之处在于:
knnSearch返回最近邻的点(具体点的个数由用户设定,设n个就一定返回n个);
radiusSearch返回搜索半径内所有点(即可能不存在符合条件的点,则返回空的)。
输出结果
实现代码
ML之SIFT:对图片提取SIFT特征并利用FLANN方法判别图像的相似度并可视化
sift = cv2.xfeatures2d.SIFT_create()
# 查找监测点和匹配符
kp1, des1 = sift.detectAndCompute(img1, None)
kp2, des2 = sift.detectAndCompute(img2, None)
print(len(kp1), len(des1) ) # 1402, 1402
FLANN_INDEX_KDTREE = 0
indexParams = dict(algorithm=FLANN_INDEX_KDTREE, trees=5)
searchParams = dict(checks=50)
flann = cv2.FlannBasedMatcher(indexParams, searchParams)
# 进行匹配
matches = flann.knnMatch(des1, des2, k=2)
# 准备空的掩膜 画好的匹配项
matchesMask = [[0, 0] for i in range(len(matches))]
for i, (m, n) in enumerate(matches):
if m.distance < 0.7*n.distance:
matchesMask[i] = [1, 0]
drawPrams = dict(matchColor=(0, 255, 0),
singlePointColor=(255, 0, 0),
matchesMask=matchesMask,
flags=0)
img3 = cv2.drawMatchesKnn(img1, kp1, img2, kp2, matches, None, **drawPrams)
img_PutText = cv2.putText(img3, "SIFT+kNNMatch: Image Similarity Comparisonn", (40, 40),cv2.FONT_HERSHEY_COMPLEX, 1.5, (0, 0, 255), 3,)
img4 = cv2.resize(img_PutText, (0, 0), fx=0.5, fy=0.5, interpolation=cv2.INTER_NEAREST) #缩小1/2
cv2.imshow("matches", img4)
cv2.waitKey(7000)
cv2.destroyAllWindows()
赞 (0)