大牛帮忙看看// FindRotation-angle.cpp : 定义控制台应用程序的入口点。
//// findContours.cpp : 定义控制台应用程序的入口点。
//#include "stdafx.h"#include <iostream>
#include <vector>
#include <opencv2/opencv.hpp> 
#include <opencv2/core/core.hpp>
#include <opencv2/imgproc/imgproc.hpp>
#include <opencv2/highgui/highgui.hpp>
#pragma comment(lib,"opencv_core2410d.lib")      
#pragma comment(lib,"opencv_highgui2410d.lib")      
#pragma comment(lib,"opencv_imgproc2410d.lib") #define PI 3.1415926using namespace std;
using namespace cv;int hough_line(Mat src)
{
//【1】载入原始图和Mat变量定义   
Mat srcImage = src;//imread("1.jpg");  //工程目录下应该有一张名为1.jpg的素材图
Mat midImage,dstImage;//临时变量和目标图的定义 //【2】进行边缘检测和转化为灰度图
Canny(srcImage, midImage, 50, 200, 3);//进行一此canny边缘检测
cvtColor(midImage,dstImage, CV_GRAY2BGR);//转化边缘检测后的图为灰度图 //【3】进行霍夫线变换
vector<Vec4i> lines;//定义一个矢量结构lines用于存放得到的线段矢量集合
HoughLinesP(midImage, lines, 1, CV_PI/180, 80, 50, 10 ); //【4】依次在图中绘制出每条线段
for( size_t i = 0; i < lines.size(); i++ )
{
Vec4i l = lines[i];
line( dstImage, Point(l[0], l[1]), Point(l[2], l[3]), Scalar(186,88,255), 1, CV_AA);
} //【5】显示原始图  
imshow("【原始图】", srcImage);   //【6】边缘检测后的图 
imshow("【边缘检测后的图】", midImage);   //【7】显示效果图  
imshow("【效果图】", dstImage);   waitKey(0);   return 0;  
}int main()
{
// Read input binary image char *image_name = "test2.jpg";
cv::Mat image = cv::imread(image_name,0);
if (!image.data)
return 0;  cv::namedWindow("Binary Image");
cv::imshow("Binary Image",image);

// 从文件中加载原图  
   IplImage *pSrcImage = cvLoadImage(image_name, CV_LOAD_IMAGE_UNCHANGED);  
  
   // 转为2值图

 cvThreshold(pSrcImage,pSrcImage,200,255,cv::THRESH_BINARY_INV);
   

   image = cv::Mat(pSrcImage,true);    cv::imwrite("binary.jpg",image); // Get the contours of the connected components
std::vector<std::vector<cv::Point>> contours;
cv::findContours(image, 
contours, // a vector of contours 
CV_RETR_EXTERNAL, // retrieve the external contours
CV_CHAIN_APPROX_NONE); // retrieve all pixels of each contours // Print contours' length
std::cout << "Contours: " << contours.size() << std::endl;
std::vector<std::vector<cv::Point>>::const_iterator itContours= contours.begin();
for ( ; itContours!=contours.end(); ++itContours) 
{ std::cout << "Size: " << itContours->size() << std::endl;
} // draw black contours on white image
cv::Mat result(image.size(),CV_8U,cv::Scalar(255));
cv::drawContours(result,contours,
-1, // draw all contours
cv::Scalar(0), // in black
2); // with a thickness of 2 cv::namedWindow("Contours");
cv::imshow("Contours",result);
// Eliminate too short or too long contours
int cmin= 100;  // minimum contour length
int cmax= 1000; // maximum contour length
std::vector<std::vector<cv::Point>>::const_iterator itc= contours.begin();
while (itc!=contours.end()) { if (itc->size() < cmin || itc->size() > cmax)
itc= contours.erase(itc);
else 
++itc;
} // draw contours on the original image
cv::Mat original= cv::imread(image_name);
cv::drawContours(original,contours,
-1, // draw all contours
cv::Scalar(255,255,0), // in white
2); // with a thickness of 2 cv::namedWindow("Contours on original");
cv::imshow("Contours on original",original); // Let's now draw black contours on white image
result.setTo(cv::Scalar(255));
cv::drawContours(result,contours,
-1, // draw all contours
cv::Scalar(0), // in black
1); // with a thickness of 1
image= cv::imread("binary.jpg",0); //imshow("lll",result);
//waitKey(0); // testing the bounding box 
//////////////////////////////////////////////////////////////////////////////
//霍夫变换进行直线检测,此处使用的是probabilistic Hough transform(cv::HoughLinesP)而不是standard Hough transform(cv::HoughLines) cv::Mat result_line(image.size(),CV_8U,cv::Scalar(255));
result_line = result.clone(); hough_line(result_line); //Mat tempimage; //【2】进行边缘检测和转化为灰度图
//Canny(result_line, tempimage, 50, 200, 3);//进行一此canny边缘检测
//imshow("canny",tempimage);
//waitKey(0); //cvtColor(tempimage,result_line, CV_GRAY2BGR);//转化边缘检测后的图为灰度图
vector<Vec4i> lines; cv::HoughLinesP(result_line,lines,1,CV_PI/180,80,50,10); for(int i = 0; i < lines.size(); i++)
{
line(result_line,cv::Point(lines[i][0],lines[i][1]),cv::Point(lines[i][2],lines[i][3]),Scalar(0,0,0),2,8,0);
}
cv::namedWindow("line");
cv::imshow("line",result_line);
waitKey(0); /////////////////////////////////////////////////////////////////////////////////////////////
std::vector<std::vector<cv::Point>>::const_iterator itc_rec= contours.begin();
while (itc_rec!=contours.end())
{
cv::Rect r0= cv::boundingRect(cv::Mat(*(itc_rec)));
cv::rectangle(result,r0,cv::Scalar(0),2);
++itc_rec;
} cv::namedWindow("Some Shape descriptors");
cv::imshow("Some Shape descriptors",result);
CvBox2D     End_Rage2D; CvMemStorage *storage = cvCreateMemStorage(0);  //开辟内存空间
CvSeq*      contour = NULL;     //CvSeq类型 存放检测到的图像轮廓边缘所有的像素值,坐标值特征的结构体以链表形式 cvFindContours( pSrcImage, storage, &contour, sizeof(CvContour),CV_RETR_CCOMP, CV_CHAIN_APPROX_NONE);//这函数可选参数还有不少 for(; contour; contour = contour->h_next)   //如果contour不为空,表示找到一个以上轮廓,这样写法只显示一个轮廓
//如改为for(; contour; contour = contour->h_next) 就可以同时显示多个轮廓
{   End_Rage2D = cvMinAreaRect2(contour);  
//代入cvMinAreaRect2这个函数得到最小包围矩形  这里已得出被测物体的角度,宽度,高度,和中点坐标点存放在CvBox2D类型的结构体中,
//主要工作基本结束。

std::cout <<" angle:\n"<<(float)End_Rage2D.angle << std::endl;      //被测物体旋转角度 

}
cv::waitKey();
return 0;
}

解决方案 »

  1.   

    以前用OpenCV做过类似的,没有仔细的去看你的代码,OpenCv后来改得比较多。说说思路吧。
    通过OpenCV应该可以识别出你图中矩形所在的点序列(对应每一个手绘的不规则的矩形)。通过这个序列不是直接就可以确定矩形的。这里要用到算法几何的相关知识,以及模糊数学上的部分知识了。
    基本思路是这样的:
    用OpenCV计算凸包、凹包、最大内接三角形、最大内接四边形、最小内接矩形、最小内接圆等的面积和周长
    通过对这些面积和周长的模糊运算(也可是定范围值)确定其形状(三角形、圆形、椭圆、矩形、平行四边形等等),你这里只需要确定矩形反而简单了。
    如果是矩形的话一般采用最小外接矩形来做矩形的拟合(当然你也可以采用进一步的算法,再结合上最大内接矩形),这样就可以得到手绘矩形的“规整矩形”了。
    再去查查OpenCV中类似老函数中的以下几个函数:cvCreateSeq,cvFitLine,cvMinAreaRect2,cvFitEllipse,cvApproxPoly,cvConvexHull2。
      

  2.   

    重新写了一下,但是感觉有的角度检测的有问题啊,http://blog.csdn.net/wangyaninglm/article/details/43959947
    求指导
      

  3.   

    1.最小外接矩形找到了,进步了。
    2.你要找的东西的角度到底是指什么角度?应该是包装封面正视下矩形的角度??如果是,那你的照片就应该是绝对正视角度下拍摄的,而不应该看到边缘的其他部分,例如包装边缘的褶皱部分。这个和你拍摄的角度有关。
    3.如果拍摄角度不能调整,就是你现在照片情况。那么就需要进行扭斜校正(算法几何中有相关内容),OpenCV中有相应的函数。扭斜校正以后,实际上还是不能得到绝对矩形的封面图像,甚至还不如不扭斜校正,但是扭斜校正后,至少它将你的视角“归零”了,也就是有了一个基本的基础的参考了。所以扭斜校正是不可少的,只是校正后,恐怕你就需要采用模板匹配的方法来确定包装封面的具体位置了。确定位置后,再进行最小外接矩形检测,这个时候得到的应该是你要的角度了。扭斜校正在OpenCV中参数输入恐怕是最难的部分,这个只能是根据你照相机的偏差角度来自行计算了,也是这里面最难的部分。
    4.如果你这些东西的摆放连最基本的封面保持在一个二维平面上都不是的话,那就麻烦大了,首先你得通过二维图像确定三维上你这个东西是怎么摆放的,然后才能考虑二维上的问题。我感觉你图中那个177.7度和-80.6那两个摆放就明显是一个三维状态,在这个三维状态下,你非要确定它在二维上的角度,那肯定是不行的。
    建议:首先在照片的来源上进行部分限制,至少拍摄角度要绝对可知;其次,拍摄时物体摆放要至少在一个平面上;最后,合理使用扭斜校正;如果可以的话,除最小外接矩形外,考虑能否用最大内接矩形做一下角度上的弥补。
    参考Photoshop软件中的“镜头校正”,来看扭斜校正的效果。
      

  4.   

    1.最小外接矩形找到了,进步了。
    2.你要找的东西的角度到底是指什么角度?应该是包装封面正视下矩形的角度??如果是,那你的照片就应该是绝对正视角度下拍摄的,而不应该看到边缘的其他部分,例如包装边缘的褶皱部分。这个和你拍摄的角度有关。
    3.如果拍摄角度不能调整,就是你现在照片情况。那么就需要进行扭斜校正(算法几何中有相关内容),OpenCV中有相应的函数。扭斜校正以后,实际上还是不能得到绝对矩形的封面图像,甚至还不如不扭斜校正,但是扭斜校正后,至少它将你的视角“归零”了,也就是有了一个基本的基础的参考了。所以扭斜校正是不可少的,只是校正后,恐怕你就需要采用模板匹配的方法来确定包装封面的具体位置了。确定位置后,再进行最小外接矩形检测,这个时候得到的应该是你要的角度了。扭斜校正在OpenCV中参数输入恐怕是最难的部分,这个只能是根据你照相机的偏差角度来自行计算了,也是这里面最难的部分。
    4.如果你这些东西的摆放连最基本的封面保持在一个二维平面上都不是的话,那就麻烦大了,首先你得通过二维图像确定三维上你这个东西是怎么摆放的,然后才能考虑二维上的问题。我感觉你图中那个177.7度和-80.6那两个摆放就明显是一个三维状态,在这个三维状态下,你非要确定它在二维上的角度,那肯定是不行的。
    建议:首先在照片的来源上进行部分限制,至少拍摄角度要绝对可知;其次,拍摄时物体摆放要至少在一个平面上;最后,合理使用扭斜校正;如果可以的话,除最小外接矩形外,考虑能否用最大内接矩形做一下角度上的弥补。
    参考Photoshop软件中的“镜头校正”,来看扭斜校正的效果。
      

  5.   

    有没有代码例子 AForge.NET里有源码!还有,给个提醒,算法这东西,学到心里才是自己的,用别人的源码,永远是别人的!