2016-12-06 6 views
-1

Я пытаюсь сделать пиксельное изображение и сделать его более похожим на рисунок/планшет.OpenCV snap corner to grid

Вот источник изображение:

Example Image
Я использую питон и OpenCV 2. До сих пор я могу найти некоторые углы с помощью обнаружения углового Харриса, но я удар предел моего OpenCV знаний ,

Вот пример того, что выход будет выглядеть так:

enter image description here


Основные цели:

  1. 90 ° углы
  2. линии только вертикальные или горизонтальные (источник изображение слегка перекошено)

До сих пор здесь обзор того, что, кажется, работают ISH (Python):

points = cv2.cornerHarris(grey, blockSize = 2, ksize = 13, k = 0.1) 
i = 0 
while i < len(points): 
    a = points[i].src.copy() 
    weld_targets = [] 

    # Compair i to points > i: 
    for j in range(i + 1, len(points)): 
    b = points[j].src 
    if a.distance(b) < weld_distance: 
     weld_targets.append(j) 

    if len(weld_targets) > 0: 
    for index in reversed(weld_targets): 
     a.add(points[index].src.copy()) 
     del points[index] 
    a.divide(len(weld_targets) + 1) 
    grid_size = 5 
    grid_offset = 5 
    points[i] = TranslationPoint(a.x, a.y, grid_size, grid_offset) 
    else: 
    i += 1 
# Then snapping all the points to a grid: 

Дайте мне что-то вроде: (розовая = сетки щелкнула точку, синий = Харрис точку после сварки/подгона) So far Отсюда я могу подключить розовые точки, увидев, что между исходными (синими) точками был преимущественно черный.

Идеи для улучшения/функции openCV, которые могли бы помочь?

UPDATE: Это работает в основном и любые лидара сканирования:

SM_KERNEL_SIZE = 5 
SM_KERNEL = np.ones((SM_KERNEL_SIZE, SM_KERNEL_SIZE), np.uint8) 
SOFT_KERNEL = np.asarray([ 
    [0.2, 0.4, 0.6, 0.4, 0.2], 
    [0.4, 0.6, 1.0, 0.6, 0.4], 
    [0.6, 1.0, 1.0, 1.0, 0.6], 
    [0.4, 0.6, 1.0, 0.6, 0.4], 
    [0.2, 0.4, 0.6, 0.4, 0.2], 
]) 
img = cv.erode(img, SMALL_KERNEL, iterations = 2) 
img = cv.dilate(img, SMALL_KERNEL, iterations = 2) 
for x in range(width - 1): 
    for y in range(height - 1): 
    if self.__img[y, x, 0] == 0 and self.__img[y, x, 1] == 0 and self.__img[y, x, 2] == 0: 
     snap_x = round(x/GRID_SIZE) * GRID_SIZE 
     snap_y = round(y/GRID_SIZE) * GRID_SIZE 
     dot_img[snap_y, snap_x] = WALL_FLAG 

# Look a points that form a GRID_SIZE x GRID_Size square removing 
# the point on the smallest line 
dot_img = self.__four_corners(dot_img, show_preview = show_preview) 

# Remove points that have no neighbors (neighbor = distance(other_point) < GRID_SIZE 
# Remove points that have 1 neighbor that is a corner 
# Keep neighbors on a significant line (significant line size >= 4 * GRID_SIZE) 
dot_img = self.__erode(dot_img, show_preview = show_preview) 

# Connect distance(other_point) <= GRID_SIZE 
wall_img = self.__wall_builder(dot_img, show_preview = False) 

return wall_img 

Я собираюсь посмотреть, можем ли мы с открытым исходным кодом проекта и добавить его в GitHub, чтобы другие могут добавить к этому прохлады проект!

ответ

1

Вот мои предложения,

Я бы просеять на этом.

import matplotlib.cm as cm 
import matplotlib.pyplot as plt 
import cv2 
import numpy as np 

dirName = "data" 
imgName = "cad_draw.jpg" 
imgFilepath = os.path.join(dirName, imgName) 
img = cv2.imread(imgFilepath) 
print(imgName, img.shape) 
numpyImg = np.asarray(img) 
grayscaleImg = cv2.cvtColor(numpyImg, cv2.COLOR_BGR2GRAY) 
sift = cv2.xfeatures2d.SIFT_create() 
kp = sift.detect(grayscaleImg,None) 
img_sift=np.zeros_like(img) 
img_sift=cv2.drawKeypoints(img_sift, kp, img_sift) 
plt.imshow(img_sift, cmap=cm.gray) 

, который дал бы мне следующее изображение enter image description here

параллельно, я бы также использовать обнаружение сегмента линии на входном изображении

lsd_params = dict(_refine=cv2.LSD_REFINE_ADV, _scale=0.45,  _sigma_scale=0.5, _quant=2.0, _ang_th=22.5, _log_eps=0, _density_th=0.7, _n_bins=1024) 
print(lsd_params) 
LineSegmentDetector = cv2.createLineSegmentDetector(**lsd_params) 
lines,widths,prec,nfa=LineSegmentDetector.detect(grayscaleImg) 
img_lines = np.zeros_like(img) 
assert(len(lines) == len(widths)) 
print(len(lines)) 
for l,w in zip(lines, widths): 
    cv2.line(img_lines, (l[0][0], l[0][1]),(l[0][2],l[0][3]), (255,255,255),1) 

plt.imshow(img_lines, cmap=cm.gray) 

Это дало бы мне следующее изображение enter image description here

Теперь я бы рассудил с ключевыми точками и обнаруженным сегментом линии s, чтобы сделать более длинные сегменты линии, которые, я думаю, вы сможете сделать в соответствии с вашими конкретными потребностями приложения. Я бы также привел такие понятия, как RANSAC, кластеризацию близко расположенных линий в одну строку и т. Д., Также в этом.

+0

Суперчувствительный ответ! Я собираюсь прочитать обнаружение сегмента и просеять, чтобы увидеть, могу ли я приблизиться к желаемому результату. –