Jump to content
Compvision.ru

Leaderboard

  1. Smorodov

    Smorodov

    Главные администраторы


    • Points

      576

    • Content count

      3,873


  2. mrgloom

    mrgloom

    Пользователи


    • Points

      242

    • Content count

      2,302


  3. Nuzhny

    Nuzhny

    Пользователи


    • Points

      241

    • Content count

      1,427


  4. BeS

    BeS

    Пользователи


    • Points

      53

    • Content count

      349



Popular Content

Showing most liked content since 12/03/2010 in all areas

  1. 4 points
    Вышла еще одна книжка (см. №3) и я решил для удобства собрать эти книжки вместе: 1)"Learning OpenCV. Computer Vision in C++ with the OpenCV Library. 2nd Edition" http://shop.oreilly.com/product/0636920022497.do Благородная попытка перевода ее на русский язык первого издания этой книги: http://locv.ru/wiki/%D0%93%D0%BB%D0%B0%D0%B2%D0%BD%D0%B0%D1%8F_%D1%81%D1%82%D1%80%D0%B0%D0%BD%D0%B8%D1%86%D0%B0 2)"OpenCV 2 Computer Vision Application Programming Cookbook" ссылка на исходный код на сайте http://www.laganiere.name/opencvCookbook/ 3)"Mastering OpenCV with Practical Computer Vision Projects" очень интересные проекты с исходниками. http://www.packtpub.com/cool-projects-with-opencv/book исходники здесь: https://github.com/MasteringOpenCV/code Еще одна книжка с opensouce исходниками: Practical OpenCV By Samarth Brahmbhatt Список книг по Opencv от opencv.org: http://opencv.org/books.html Еще бесплатная книжка: "Modern Robotics with OpenCV" здесь: http://www.sciencepublishinggroup.com/book/B-978-1-940366-12-8.aspx
  2. 4 points
    Кому интересно, написал довольно шуструю вычиталку фона(пока только последовательная версия, до распараллеливания пока руки не дошли) основанную на алгоритме VIBE с оберткой для использования в OpenCV. Оригинальная статья: http://orbi.ulg.ac.be/bitstream/2268/145853/1/Barnich2011ViBe.pdf Мои исходные коды: https://github.com/BelBES/VIBE
  3. 4 points
    Привет всем! Вот, попытался сделать пример вывода видео на форму. И, думаю, получилось Для того, что-бы скопировать IplImage в объект .NET типа Image, достаточно всего лишь одной строки: #include <opencv/cv.h> #include <opencv/highgui.h> ... using namespace System; using namespace System::Windows::Forms; using namespace System::Drawing::Imaging; using namespace System::Drawing; ... IplImage *iplImg; ... // Копирование IplImage в объект .NET типа Image Image ^image = gcnew Bitmap(iplImg->width, iplImg->height, iplImg->widthStep, PixelFormat::Format24bppRgb, IntPtr(iplImg->imageData)); ... или, с использованием класса Mat: cv::Mat imgMat; // Копирование cv::Mat в объект .NET типа Image Image ^img = gcnew Bitmap(imgMat.cols, imgMat.rows, imgMat.step, PixelFormat::Format24bppRgb, IntPtr(imgMat.data)); Чтобы вывести изображение на компоненту PictureBox, достаточно следующей строки в одном из методов вашей формы: this->pictureBox1->Image = image; Если вам нужен HBITMAP, то получить его можно следующим образом: Bitmap ^image = gcnew Bitmap(iplImg->width, iplImg->height, iplImg->widthStep, PixelFormat::Format24bppRgb, IntPtr(iplImg->imageData)); HBITMAP hb = (HBITMAP)image->GetHbitmap().ToPointer(); У меня вышеприведенные примеры отлично работают с OpenCV 2.2 в Visual Studio 2008/2010. К сообщению прилагаю проект простого видео плеера, написанного с помощью OpenCV 2.2 в Visual Studio 2008. Он может воспроизводить все типы видео, которые берет OpenCV и видео, захваченное с видеокамеры. Не судите строго за возможные несовершенства в коде Просто, я старался, что бы были основные функции плеера. Пояснения к проекту. Компиляция: Чтобы успешно скомпилировать проект, достаточно в опциях Visual Studio установить пути на OpenCV в следующем виде: %OPENCV_HOME%\include и %OPENCV_HOME%\lib Например, так: C:\OpenCV2.2\include и C:\OpenCV2.2\lib Другое: При создании проекта использовались следующие опции и установки. .NET Framework 3.5. General/Common Language Runtime Support: Common Language Runtime Support (/clr) C/C++/Advanced/Disable Specific Warnings: 4996;4793 Linker/Input/Additional Dependencies: opencv_core220d.lib opencv_highgui220d.lib opencv_imgproc220d.lib opencv_objdetect220d.lib Для версии Release: без "d" после 220. В компоненте PictureBox свойство SizeMode имеет значение Zoom, что позволяет сохранить оригинальное соотношение сторон кадра. Для визуализации кадров используется Tick таймера. При двойном щелчке по области отображения, происходит переход в полноэкранный режим и обратно. Надеюсь, пример кому-нибудь пригодится VideoOnForm.zip
  4. 4 points
    Здравствуйте, решил заняться переводом книги "Learning OpenCV", перевёл уже 37 глав. Присоединяйтесь будем переводить вместе! - http://locv.ru
  5. 3 points
    проект здесь: FaceDetect.rar дополнительные классификаторы (нос, глаза, рот, тело):HaarClassifiers.rar здесь еще куча каскадов: Каскады хаара
  6. 3 points
    Самокодный вариант AdaBoost. (Виолы и Джонса там нет , только AdaBoost ) Надеюсь оформлю статью по нему, но и в листинге старался разместить побольше комментариев. AdaBoost.cpp И ссылка на мою презентацию по детекту лиц там тоже есть немного пояснений по теме: http://www.compvision.ru/forum/index.php?app=core&module=attach&section=attach&attach_id=369
  7. 3 points
    Наконец-то дошли руки Оптимизации не делал, просто проверил идею. Пример кода максимизирует расстояние между средним цветом внутри и снаружи прямоугольной области. Максимизирует он это расстояние при помощи подбора параметров этого прямоугольника (методом градиентного спуска). Вот что я имел ввиду, когда говорил непонятные вещи Результат работы программы (изображение может быть и цветным): #include "opencv2/opencv.hpp" #include <vector> using namespace std; using namespace cv; //---------------------------------------------------------- // Это и есть вычисление расстояния между средними цветами //---------------------------------------------------------- double getLikelihood(Mat& img,cv::RotatedRect& rr) { double likelihood=0; Mat mask=Mat::zeros(img.size(),CV_8UC1); // rotated rectangle Point2f rect_points[4]; rr.points( rect_points ); vector<cv::Point> pts(4); for(int i=0;i<4;++i) { pts[i]=rect_points[i]; } cv::fillConvexPoly(mask,pts,Scalar::all(255)); imshow("mask",255-mask); Scalar cc1,cc2; cc1=cv::mean(img,mask); cc2=cv::mean(img,255-mask); likelihood=norm(cc1,cc2,cv::NORM_L2); return likelihood; } //---------------------------------------------------------- // Градиент, чтобы знать куда менять параметры //---------------------------------------------------------- void getLikelihoodGradient(Mat& img,cv::RotatedRect& rr,cv::RotatedRect& drr) { cv::RotatedRect rrdx=rr; rrdx.center.x+=1; cv::RotatedRect rrdy=rr; rrdy.center.y+=1; cv::RotatedRect rrdw=rr; rrdw.size.width+=1; cv::RotatedRect rrdh=rr; rrdh.size.height+=1; cv::RotatedRect rrdang=rr; rrdang.angle+=1; cv::RotatedRect rrdxn=rr; rrdxn.center.x-=1; cv::RotatedRect rrdyn=rr; rrdyn.center.y-=1; cv::RotatedRect rrdwn=rr; rrdwn.size.width-=1; cv::RotatedRect rrdhn=rr; rrdhn.size.height-=1; cv::RotatedRect rrdangn=rr; rrdangn.angle-=1; float l0=getLikelihood(img,rr); cout << l0 << endl; float dlx=getLikelihood(img,rrdx)-getLikelihood(img,rrdxn); float dly=getLikelihood(img,rrdy)-getLikelihood(img,rrdyn); float dlw=getLikelihood(img,rrdw)-getLikelihood(img,rrdwn); float dlh=getLikelihood(img,rrdh)-getLikelihood(img,rrdhn); float dlang=getLikelihood(img,rrdang)-getLikelihood(img,rrdangn); float scale=sqrt(dlx*dlx+dly*dly+dlw*dlw+dlh*dlh+dlang*dlang); dlx/=scale; dly/=scale; dlw/=scale; dlh/=scale; dlang/=scale; drr.center.x=dlx; drr.center.y=dly; drr.size.width=dlw; drr.size.height=dlh; drr.angle=dlang; } //---------------------------------------------------------- // Генерируем тестовое зашумленное изображение //---------------------------------------------------------- void generateTestImage(Mat& img) { img=Mat(512,512,CV_8UC3); cv::RotatedRect rr(cv::Point2f(200,300),Size(140,180),67); img=Scalar::all(0); // rotated rectangle Point2f rect_points[4]; rr.points( rect_points ); vector<cv::Point> pts(4); for(int i=0;i<4;++i) { pts[i]=rect_points[i]; } cv::fillConvexPoly(img,pts,Scalar(255,255,255)); for(int i=0;i<100000;++i) { int x=rand()%512; int y=rand()%512; img.at<Vec3b>(y,x)=Vec3b(255,255,255); } for(int i=0;i<105000;++i) { int x=rand()%512; int y=rand()%512; img.at<Vec3b>(y,x)=Vec3b(0,0,0); } } //---------------------------------------------------------- // //---------------------------------------------------------- int main(int argc, char* argv[]) { Mat img,img_cpy; generateTestImage(img); imshow("testimg",img); cv::waitKey(0); cv::RotatedRect rr(cv::Point2f((float)img.cols/2.0,(float)img.rows/2.0),Size(img.cols-100,img.rows-100),0); cv::RotatedRect drr; while(1) { img_cpy=img.clone(); getLikelihoodGradient(img,rr,drr); // Меняем параметры в сторону увеличения расстояния между средними цветами rr.center+=drr.center; rr.size+=drr.size; rr.angle+=drr.angle; // rotated rectangle Point2f rect_points[4]; rr.points( rect_points ); for( int j = 0; j < 4; j++ ) { line( img_cpy, rect_points[j], rect_points[(j+1)%4], Scalar(0,255,0), 2, CV_AA ); } imshow("img_cpy",img_cpy); waitKey(10); } cv::destroyAllWindows(); return 0; }
  8. 3 points
    2 Nuzhny Результаты сравнения по скорости собирал 4-2 года назад (потом стало лень) на этой странице (смотреть от где-то от середины и все постскрипты). Сравнивал с пятью чужими программами (вернее, с опубликованными в печати или в интернете временами расчётов - исходник-то был доступен всего для одной из этих 5 программ). Сравнивал ориентировочно - с учётом прикидок о разнице в быстродействии моего и других процессоров. Исходников не открываю, демку где-то в те годы на сайте предложил сделать-дать только тому, кто придёт с тяжёлым проектом и гарантирует отдачу проекта в мои руки после того, как демка всё заявленное (как скорость, так и просто надёжность-работоспособность) продемонстрирует. По потреблению памяти - у меня на копейки больше, т.к. все данные обрабатываемого примера (именно одного текущего примера) и внутренние сигналы/веса сети оптимально раскладываются с учётом выравнивания блоков данных на границу параграфа. Ну и в коде 1.5 ноу-хау - одно чисто моё (на удивление - почему-то нигде и никем ранее не опубликованное) о самом шустром варианте распараллеливания обучения нейросети (вообще без синхронизаций потоков на уровне операционной системы), второе - об аппроксимированном вычислении нелинейности нейрона (которое опубликовано, но почему-то никто об этом не знает и на практике не применяет). И сейчас реализованы пара канонических вариантов свёрточных сеток (ЛеКуновский и Симардовский), а также другие её клоны (от Эндрю Нг, Свена Бенке) - вернее, из разных слоёв-кубиков можно собирать свой/новый вариант. Также у нейронов можно ставить полиномиальные сумматоры - не на всех слоях свёрточной сети это помогает/полезно, но если помогает - то точность растёт. Я так даже самого Хинтона опроверг - он в прошлом году говорил, что на задаче MNIST на обычном персептроне никто никогда не опустился ниже 1.6% ошибок, а я таки постановкой полиномиальных сумматоров только на вых.слой получил точность лучше (см последний абзац тут) (хотя сам Хинтон в 1986г в двухтомнике PDP описывал формулы обратного распространения ошибки в том числе и для полиномиальных сумматоров - но вот почему-то сам не пользуется сейчас сигма-пи нейронами в своих сетях, может быть, зря).
  9. 3 points
    покопавшись в исходниках можно найти для себя несколько заготовок, таких как построение 3d модели лица, его трекинг и даже ( на начальном этапе ) вычисление значения фильтров габора в ключевых точках этой модели. может кому пригодиться... трекинг работает весьма быстро для одного человека, но я по быстрому переделал под свои цели для двоих. в основе детектирования ключевых точек - Flandmark_detector, трекинга - headtracker-master. (лиценция которых GNU GPL, для тех кого это вообще интересует). должно даже собраться и заработать (под ubuntu писалось) Написано на С++, есть куски на С. для работы нужна opencv2.4.4 lndmark.tar.gz
  10. 3 points
    Соорудил быстрый и маленький кусочно-аффинный варпер (перенос фрагмента изображения из одной сетки треугольников в другую): WarpAffine.rar
  11. 3 points
    Слайды одной из моих лекций. Детектор лиц на основе метода Виолы-Джонса.rar
  12. 3 points
    Так случилось, что я активно использую Delphi в своей работе (программирование по работе, собственные открытые и закрытые проекты) и вот мне понадобилось написать программу, использующую открытую библиотеку компьютерного зрения OpenCV. Что же делать, ведь официально OpenCV использовать в Delphi невозможно, а перебираться на C ради одной программы слишком долго. Но нет ничего невозможного… Немного поискав в интернете, я нашел несколько проектов по использованию OpenCV в Delphi. Первый, второй, третий и наиболее свежий и удачный — четвертый, который я и взял за основу. Проект на github мне показался интересным, реализовано много функций OpenCV, есть много примеров на Delphi, но проект заброшен автором и пришлось взяться за свой. Все текущие наработки я выложил на code.google.com/p/opencv-delphi-new/ В настоящий момент сделано: 1. Поддержка RAD Studio XE3. 2. Добавлены новые функции: cvFlip, cvClearMemStorage, cvCreateChildMemStorage, cvRectangle, cvRetrieveFrame, cvIntegral, cvGetPerspectiveTransform, cvWarpPerspective, cvCreateMat, cv2DRotationMatrix, cvWarpAffine, cvFindContours, cvHaarDetectObjects. 3. Добавлено 6 новых примеров: FaceDetect — Пример детектирования лица в видеопотоке с использованием преобразования Хафа. FindContours — Нахождение контуров изображения. Integral — Интегральное изображение. WarpAffine — Трансформация изображения — аффинные преобразования (Поворот изображения на произвольный угол). WrapPrespective — Трансформация изображения — гомография (Перспективная трансформация). MatchShapes — Поиск объекта на изображении по шаблону (Сравнение объектов по моментам их контуров). В добавленных примерах я постарался подробно расписать все манипуляции для достяжения нужного результата. Если кому-то будет интересна тема использования OpenCV в Delphi, то пишите мне на email или оставляйте комментарии. Если тематика использования OpenCV в принципе интересна, то могу написать несколько статей, только напишите, какое направление использования OpenCV Вас интересует.
  13. 3 points
    Полезный сайт по теории: http://courses.graphicon.ru/ Материал по ASM и AAM: http://courses.graphicon.ru/files/courses/smisa/2008/lectures/lecture10.pdf
  14. 3 points
    И еще проект ( активные контуры (ASM) переделанный (на чистый OpenCV 2.X) мной проект одного китайца, который переделал его из STASM ): В архиве конвертер моделей STASM в файл с матрицами OpenCV, и солюшн для студии с двумя проектами: библиотекой и демкой. Надеюсь на дальнейшее развитие проекта. ASMCompvisionEdition.rar
  15. 3 points
    Где-то есть деление на ноль. Смотри свои данные.
  16. 3 points
    Привет. В общем вот выкладываю перевод с БИЛДЕРА на ВИЖУАЛ (кстати недавно совсем переводил), "Создание APIшного битмапа из интеловского RGB изображения" присутствует. Смотри, разбирайся. Если, что не пойдет пиши - разберемся. [Прикрепленный файл был потерян при откате форума]
  17. 3 points
    Здравствуйте, RinOS. Рекомендую все-таки использовать cvStereoRectify() т.к. результат его работы более точен, а cvStereoRectifyUncalibrated() лучше использовать когда существуют значительные непараллельности в оптических осях камер, насколько я понимаю. Критерием правильности калибровки стерео может служить правильное число в векторе T (который означает расстояние между оптическими осями по оси x, y и z) камер. У меня, при расстоянии между камерами 12 см, и 29 калибровочных пар изображений 640х480 в оттенках серого (изображения я сохраняю предварительно в bmp, чтобы каждый раз не мучаться с их показом камерам) величина составляет: цитирую xml содержимое <data>-1.1886876922892217e-001 -7.8263643755714435e-004 -4.6620003758508491e-003</data>, (все величины в метрах - первая величина - это сдвиг по оси X, то есть расстояние между камерами). То есть 1.6 %, что может быть точнее измерянного мною расстояния. Чем шире расстояние между камерами, тем лучше будет восприятие на более дальних расстояниях, и тем хуже будет поле зрения камеры, при обзоре близких предметов. Для того чтобы величина вектора T содержала метрические величины, необходимо, чтобы вы правильно (в метрических единицах) указали размер клеточки при калибровке. В книге learning OpenCV, в примере стерео (стр 445), есть константа squareSize, у меня в коде примерно так (размер клетки 3 см): float chesbSquareSize = 0.030f; // 30 mm is a Square size for (size_t pair_idx = 0; pair_idx < boards_count; pair_idx++) { for (size_t i=pair_idx*board_n,j = 0;j < board_n; ++i,++j) { // Chessboard points CV_MAT_ELEM(*image_pointsL,float,i,0) = vCalibData[IMG_LEFT][pair_idx].vPoints[j].x; CV_MAT_ELEM(*image_pointsL,float,i,1) = vCalibData[IMG_LEFT][pair_idx].vPoints[j].y; CV_MAT_ELEM(*image_pointsR,float,i,0) = vCalibData[IMG_RIGHT][pair_idx].vPoints[j].x; CV_MAT_ELEM(*image_pointsR,float,i,1) = vCalibData[IMG_RIGHT][pair_idx].vPoints[j].y; // Linear space remapping points CV_MAT_ELEM(*object_points,float,i,0) = (float)(j/w) * chesbSquareSize; CV_MAT_ELEM(*object_points,float,i,1) = (float)(j%w) * chesbSquareSize; CV_MAT_ELEM(*object_points,float,i,2) = 0; }; CV_MAT_ELEM(*point_counts,UINT,pair_idx,0) = (UINT)board_n; }; Откалиброванные матрицы удобно сохранять в xml. Для того, чтобы калибровка была корректной, рекомендуют использовать "шахматную доску" с не одинаковым кол-вом клеток по ширине и высоте (я заметил вы такую и использовали). Для улучшения качества BlockMatcher'а, попробуйте BMState->uniquenessRatio = 0; Привожу мои рабочие параметры: BMState->preFilterSize = 17; BMState->preFilterCap = 31; BMState->SADWindowSize = 11; BMState->minDisparity = 13; BMState->numberOfDisparities = 256; BMState->textureThreshold = 35; BMState->uniquenessRatio = 0; Искомую матрицу репроекции Q вы можете заполнить вручную по формуле Q= стр 435 Learn OpenCV, используя ранее вычисленные матрицы: CameraMatrix и T, например.. но мне кажется это сложный путь, и ... некоторые величины (f, n) придется выдумывать. Вот набросал матрицу, которую вы можете использовать, подставив лишь расстояние между объективами камер: Но я не уверен, что она даст для вас точный и качественный результат. f можно уменьшить вовсе до 5 метров. Если вы вызовете cvStereoRectify() то наверняка ничего не потеряете, по книге инных вариантов не приводится. Матрицу Q нельзя извлечь из cvStereoRectifyUncalibrated() поскольку (стр 431): То есть, теоретически, если вы при калибровке, задавали реальные метрические координаты (с помощью размера) ваших клеточек, то на выходе ReprojectTo3D проекции получите реальные размеры и расстояния до объекта в метрах. Насколько я понимаю, disparityImage должен быть Float(существует быстрый вариант с Int). Подавать нужно disparityImage не нормализованный. Репроекцией еще сам не занимался, поэтому грабли раскрыть в этой теме пока не могу (может на этих выходных, тогда я бы отписался здесь). Прикрепляю свою шахматную доску (visio), может пригодится.
  18. 2 points
    7 Изменить размер гораздопроще чем Вы думаете. Чип сенсора как стоял в плоскости физического фокуса так и стоит. Просто отключаются не используются пиксели с края сенсора. Это сделать просто изменив приделы счётчика который перебирает пиксели камеры во время чтения. Когда как масштабирование требует заблюрить соседние пиксели и произвести децимацию оставив к примеру через один каждый второй пиксель. Вот только обычно масштабирование идёт не кратно 2 а через дробные значения к 3/2. Что требует уже усложнения чипов камеры. Так вот при изменении используемой области камеры меняется угол обзора. В математической модели это приводит к изменению математического фокуса. Известно что бочкообразые и подушкообразные искажения определяются параметрами линзы k1, k3 (внутренние параметры камеры) а они в свою очередь зависят от математического фокуса камеры, то они тоже уплывут.
  19. 2 points
    Реализовал измеритель пульса по изображению с камеры (pdf-ка в архиве с исходниками). Работает не очень устойчиво (думаю из-за того что переключаются каналы разделенные при помощи ICA), но при удачном исходе на разложении Фурье виден острый четкий пик. Предлагаю желающим поэксперименировать Там встроен детектор лица, но и так работает Исходники (используются: OpenCV и Eigen): HeartRateMeasure.rar UPD: добавил комментариев и немного подправил исходники. Только что откопал интересный ресурс по теме: http://people.csail.mit.edu/mrub/vidmag/ с исходниками на MATLAB и видеороликами (обязательно посмотрите ). И еще исходники на питоне: https://github.com/thearn/webcam-pulse-detector
  20. 2 points
    Иногда, для Windows я и спользую готовые сборки с сайта ParallelVision http://jamesbowley.co.uk/downloads/
  21. 2 points
    Преамбула В пору своей молодости (2005 год) я поступил в аспирантуру, где параллельно с работой занимался разработкой детектора движения для цифровой системы видеонаблюдения. К науке охладел довольно быстро, диссертация оказалось слабой и, как следствие, я её не защитил. В то же время вышла первая версия CUDA, которая хорошо подходила для задач вычитания фона и вообще обработки видео. Я не упустил это событие и попробовал реализовать детектор кроме С++ ещё и на CUDA. Ну и в те давние времена OpenCV был достаточно сырым и слаборазвитым. Поэтому я его не использовал совсем, а получившийся алгоритм превосходил всё имеющееся в OpenCV на тот момент. Что получилось? Вот что получилось. Получился достаточно быстрый детектор, который в то время показывал достаточное качество и скорость. Я решил выложить наработки тех лет: и исходники, и пару статей, и недописанную диссертацию. Вдруг, кому-то будет интересно. Для запуска требуется CMake, Linux|Windows и OpenCV 3.0 (исключительно для захвата видео и вывода результатов). Документации пока нет совсем, комментарии по вполне понятным причинам написаны на русском. CUDA включается опцией в CMake, работоспособность не проверял (точно работало на CUDA 1.0). Есть опции для всякой разной отладки, вывода дополнительных окошек, пока не документированы. P.S. Если кто-то захочет запустить у себя и не получится - пишите сюда или на bitbucked, помогу. Если нужны будут консультации по коду и/или алгоритмам - аналогично. Общее впечатление по алгоритму можно составить на основании статей. Планов на будущее особо нет, возможно буду отшлифовывать, добавлю реализацию на OpenCL - всё для целей исключительно ознакомительных и для показа потенциальным работодателям.
  22. 2 points
    Хороший алгоритм. Если его правильно приготовить, то быстрый и очень точный. Надо добавить, что Szeliski только описал метод, его придумали ещё до него. А называется он... оптический поток Лукаса-Канаде! Да, именно так. Только применяется он не в привычном для всех виде для набора точек (или для одной точки), а к изображениям целиком. Правильный первоисточник называется Lucas-Kanade 20 Years On: A Unifying Framework. P.S. Кстати, охрененный метод для стабилизации видео, работает даже там, где ключевых точек нет и/или они смазаны motion blur. И быстрее, чем на основе fft, т.к. достаточная точность достигается уже на верхних уровнях пирамиды, не обязательно спускаться на уровень оригинального изображения.
  23. 2 points
    Изначальная задача собрать некий базис 3д моделей по которым потом будут строится промежуточные? Есть non-rigin ICP, т.е. взять некую 1 базовую модель и фитить её потом на облако точек, но думаю явно будут проблемы когда рот открывается и когда сильная мимика. http://www.hao-li.com/teaching/geometricComputingSeminar/IntroductionToNonRigidRegistration.pdf http://resources.mpi-inf.mpg.de/deformableShapeMatching/EG2011_Tutorial/slides/2.3%20Non-Rigid%20Registration.pdf http://lgg.epfl.ch/publications/2008/sgp2008GCO.pdf еще отсюда http://lgg.epfl.ch/publications.php http://lgg.epfl.ch/publications/2014/2d3dRegistration/index.php еще тут можно посмотреть много интересного http://www.pointclouds.org/blog/all.php секция Statistical Face Model как раз связана с вашей первой ссылкой не совсем в тему но есть еще такая штука как http://grail.cs.washington.edu/projects/dynamicfusion/papers/DynamicFusion.pdf
  24. 2 points
    Можно попробовать семантическую сегментацию, DeepLab дает неплохие результаты при сегментации людей... з.ы. 50к изображений человеков? Может быть, если имеется возможность, вы поделитесь такой базой с общественностью?
  25. 2 points
    Я в своё время следил за Дропбоксом, участвовал в их акциях - расширил бесплатное место до 8.5 Гбайт. Со скрипом, но хватает. В любом случае, это не проблема, всегда можно найти подходящий сервис. А на счёт удобной организации книг надо подумать... Docear - что-то похожее на то, что хочется.
  26. 2 points
    Ну чтобы не писать с нуля, вот начальная версия, делал давно, прилеплялку баннера так и не закончил: исходник: TILT.cpp Если что то улучшите, будет здорово. Юзаге: щелкаем левой кнопкой в одном углу начальной рамки затем в другом (ничего не отображается) затем жмем кнопку и ждем.
  27. 2 points
    Обзор методов обнаружения людей в кадре (некоторые исходники тоже присутствуют): http://rodrigob.github.io/
  28. 2 points
    Deep Neural Networks for Visual Pattern Recognition. Wednesday, August 6, 2014 9:00 AM - 10:00 AM PDT и 10 Billion Parameter Neural Networks in Your Basement Wednesday, August 20, 2014 9:00 AM - 10:00 AM PDT
  29. 2 points
    По работе иногда нужно создать классификатор и простые неройсети. Естественн решил сделать программку для автоматизации этого дела. Сейчас сделано: - функция автоматического создания SVM-HOG (берутся файлы позитивные и неготивные, считаются hog-дескрипторы, все это скрамливается svm light и вынимается готовый вектор для detectmultiscale. ну и простенький тест этого вектора) - Оболочка на FANN все используется обычное обучение с указанием параметров и т.п. но чего мне не хватало - возможность взять результат который был в середине обучение и обучение нейросети на частях выборки (что бы посмотреть как растет результат на тестовой выборке в зависимости от размера выборки обучения. В планах давить HAAR. Может кому пригодится. classifieropencv.codeplex.com новая версия был на странички загрузки внизу. исправил ошибку сейчас все положено кнопка download
  30. 2 points
    http://docs.opencv.org/trunk/modules/objdetect/doc/erfilter.html еще появилось недавно для детектирования текста Scene Text Detection
  31. 2 points
    OpenCV - Accelerated Computer Vision using GPUs ( во вторник, 11 июня, с 21 до 22 часов по московскому времени) Регистрация здесь : https://www2.gotomeeting.com/register/686845850 Я зарегался.
  32. 2 points
    Еще один курс лекций по ИИ: Содержание курса: Linear prediction. Maximum likelihood and linear prediction. Ridge, nonlinear regression with basis functions and Cross-validation. Ridge, nonlinear regression with basis functions and Cross-validation (continued). Bayesian learning (part I). Bayesian learning (part II). Gaussian processes for nonlinear regression (part I). Gaussian processes for nonlinear regression (part II). Python demo code for GP regression. Bayesian optimization, Thompson sampling and bandits. Decision trees. Random forests. Random forests applications: Object detection and Kinect. Unconstrained optimization: Gradient descent and Newton's method. Logistic regression, IRLS and importance sampling. Neural networks. Deep learning with autoencoders. Deep learning with autoencoders II. Importance sampling and MCMC. Importance sampling and MCMC. Importance sampling and MCMC. Pdf-ки со слайдами здесь: http://www.cs.ubc.ca/~nando/540-2013/lectures.html Видеолекции здесь: Еще пара лекций по DeepLearning:
  33. 2 points
    А можно побольше рекламы? Тоесть: ссылки на код или проект, сравнение по быстродействию и потреблению памяти, таблицы, графики и т.п. Тема же интересная.
  34. 2 points
    Скоро выложат запись и презентацию здесь: http://www.gputechconf.com/page/gtc-express-webinar.html В целом особенно нового ничего не было. Обзор ускоренных функций, сравнение с CPU и как преобразовать CPU-шную программу а GPU-шно ускоренную. Плюс перспективы распространения, CUDA на мобильные девайсы. Вопросы были в основном по мобильным чипам и "что почитать". Упоминали некую спецификацию OpenVX, я задал вопрос по документации а нее, но так ответа и не дождался нашел сам тут: http://www.khronos.org/openvx и тут: http://itseez.com/openvx
  35. 2 points
    AAM по инверсно-композитному алгоритму (octave и C++ исходники): https://code.google.com/p/octaam/ Интересные работы по AAM: http://www2.isr.uc.pt/~pedromartins/ 3D модель лица и некоторые заготовки: http://aifi.isr.uc.pt/Downloads.html Облачная распознавалка лиц: http://en.faceplusplus.com/
  36. 2 points
    Библиотека методов вычитания фона на базе OpenCV: http://code.google.com/p/bgslibrary/ Реализованы методы:
  37. 2 points
    Мне думается каскады Хаара не будут здесь хорошо работать. Они работают с серыми тонами, а Вы сами по серой фотке всегда легко определите где небо а где земля Детектор Хаара хорошо использовать там, где явно присутствует четкая форма объекта и можно выделить среднее изображение и его вариации. А у неба или земли среднее изображение одинаковые (серый фон). Так что можете попробовать, конечно, но думаю достаточной точности не добьетесь. Лучше уж текстурная сегментация (фильтрами Габора например). Я пробовал, траву в лесу сегментирует вполне сносно. Правая кнопка - помечаем кусочек одного класса, левая кнопка - помечаем кусочек другого класса, r - обучаем и сегментируем. Можно отделить обучение и сегментацию. Обучиьт SVM, сохранить её в файл, а затем когда надо сегментировать считать её и применить к картинке. GaborSegmentation.zip
  38. 2 points
    Думаю что это может быт полезно посмотреть: http://vh.icg.tugraz.at/index.php?content=topics/unsupervisedseg.php На сайте есть исходники на матлабе (не такие-уж и большие), плюс автор по просьбе может выслать сишный вариант.
  39. 2 points
    Smorodov, все необходимые программы и действия также описаны вот по этой ссылке http://szproxy.blogspot.com/2010/12/testtest.html там есть ссылка на какую то обучающую программку svm_light. Единственное пока не знаю какого формата нужны фотографии положительных и негативных образцов. В программе ведь надо указывать размер окна, и как я понимаю на каждой фотографии надо чтоб размер положительного образца был именно такого размера , ну например у Вас Как Вы считаете сколько надо фотографий и какого размера они должны быть?
  40. 2 points
    Лекториум В частности, по компьютерному зрению: 1. Компьютерное зрение и библиотека OpenCV 2. Семантическая классификация изображений 3. Оптимизация энергии в задачах компьютерного зрения и алгоритмы на графах И ещё много чего интересного
  41. 2 points
    Не использовать глобальные переменные, использовать константные указатели для неизменяемых объектов и т.п. полезные рекомендации, которые помогают избегать непонятных глюков. Например: int SmoothTresholdFunc(const IplImage* image1, IplImage* image2) { cvSmooth(image1, image2, CV_MEDIAN, 3, 3, 0, 0); cvThreshold(image2, image2, 0, 255, CV_THRESH_BINARY | CV_THRESH_OTSU); cvSaveImage("test_crop2.jpg", image2, 0); return 1; } int main() { IplImage* src = cvLoadImage(path, CV_LOAD_IMAGE_GRAYSCALE); IplImage* dst = cvCreateImage(cvGetSize(src), src->depth, src->nChannels); SmoothTresholdFunc(src, dst); cvSaveImage("test_crop.jpg", dst, 0); cvReleaseImage(&dst); cvReleaseImage(&src); return 0; }
  42. 2 points
    Уже нашел ... стоило только задать вопрос ... вот так всегда
  43. 2 points
    пожалуй создам отдельную тему по сопоставлению изображений, чтобы объединить документы и темы с этим связанные и буду ее потихоньку наполнять. перед ссылкой идет название статьи и в скобках авторы, чтобы можно было восстановить данные если что, в некоторых случаях еще и комментарии. возможно надо изменить название темы и\или тэги. Keywords: mosaicking,image stitching,point matching,SIFT,SURF,MSER,ASIFT,RANSAC,FAST,Harris corner detector,corner detector,Region descriptors,Region detectors. Russian tags: склейка изображений, панорамные изображения. Литература: 1. Computational Methods for Automatic Image Registration (Marco Zuliani) - целый талмуд(докторская вроде). http://vision.ece.ucsb.edu/publications/zuliani_thesis06.pdf 2. A Mathematical Comparison of Point Detectors(M. Zuliani, C. Kenney and B. S. Manjunath) http://vision.ece.ucsb.edu/publications/04IVRMarco.pdf 3. A Condition Number for Point Matching with Application to Registration and Post-Registration Error Estimation C. S. Kenney, B. S. Manjunath, M. Zuliani, G. Hewer, A. Van Nevel. http://vision.ece.ucsb.edu/publications/03PamiRegistrationMarco.pdf 4. An Axiomatic Approach to Corner Detection C. S. Kenney M. Zuliani B. S. Manjunath http://vision.ece.ucsb.edu/publications/05CVPRZuliani.pdf 5. Automatic Panoramic Image Stitching using Invariant Features(Matthew Brown and David G. Lowe) -один из основных документов от создателя SIFT. http://cvlab.epfl.ch/~brown/papers/ijcv2007.pdf 6. Multi-Image Matching using Invariant Features(Matthew Alun Brown) - часть докторсокй http://cvlab.epfl.ch/~brown/papers/phd.pdf +30-40 еще будет Рассматриваемые подтемы: Region detectors-Region descriptors: (нахождение особых точек, выбор метода, детектора) Методы детекторы: Harris-Laplace,Different-of-Gaussians, Laplace-of-Gaussians, Теория: 1. Scale & Affine Invariant Interest Point Detectors (KRYSTIAN MIKOLAJCZYK AND CORDELIA SCHMID) -рассмотрены несколько детекторов. http://www.robots.ox.ac.uk/~vgg/research/affine/det_eval_files/mikolajczyk_ijcv2004.pdf 2. Ближе к практике, исходникам, реализациям: 1.FAST Corner Detection -- Edward Rosten -FAST c исходниками. http://mi.eng.cam.ac.uk/~er258/work/fast.html 2.бинарники Harris-Laplace,Different-of-Gaussians, Laplace-of-Gaussians ||+ Affine http://lear.inrialpes.fr/people/dorko/downloads.html 3.Некоторое сравнение методов(affine invariant) http://www.robots.ox.ac.uk/~vgg/research/affine/index.html Point matching and filtering:(сопоставление и отсев точек) -- Bundle Adjustment: (выравнивание изображений) -- Image blending: (бесшовная склейка) 1.POISSON LOCAL COLOR CORRECTION FOR IMAGE STITCHING(Mohammad Amin Sadeghi, Seyyed Mohammad Mohsen Hejrati and Niloofar Gheissari) 2.A Multiresolution Spline With Application to Image Mosaics(PETER J. BURT and EDWARD H. ADELSON) 3.Eliminating Ghosting and Exposure Artifacts in Image Mosaics (Matthew Uyttendaele,Ashley Eden,Richard Szeliski) Темы на форуме: почти полный цикл для склейки изображений http://www.compvision.ru/forum/index.php?showtopic=449 обсуждение вопроса выравнивания изображений после склейки http://www.compvision.ru/forum/index.php?showtopic=517 выравнивание яркости, блендинг. http://www.compvision.ru/forum/index.php?showtopic=508 http://www.compvision.ru/forum/index.php?showtopic=428 Обзоры на русском: http://courses.graphicon.ru/files/courses/vision/2010/cv_2010_03.pdf потом дополню и обобщу еще.
  44. 2 points
  45. 2 points
    http://see.stanford.edu/see/courses.aspx Содержание того что там есть: Introduction to Computer Science ---------------------------- Programming Methodology Programming Abstractions Programming Paradigms Artificial Intelligence ---------------------------- Introduction to Robotics Natural Language Processing Machine LearningCS229 Linear Systems and Optimization ---------------------------- The Fourier Transform and its Applications Introduction to Linear Dynamical Systems Convex Optimization Convex Optimization Additional School of Engineering Courses ---------------------------- Programming Massively Parallel Processors iPhone Application Programming Seminars and Webinars
  46. 2 points
    http://www.vision.ee.ethz.ch/~gallju/projects/houghforest/index.html http://graphics.cs.msu.ru/en/science/research/machinelearning/hough детектирование движения людей. Hough Forests for Object Detection
  47. 2 points
    Мультибуст классификатор (AdaBoost для количества классов больше двух) (не opencv) :multiboost.tar.gz
  48. 2 points
    Ура, получилось! =) Разобрался с матрицами проекций и все встало на свои места. Сейчас попробую все расписать подробно. Дано: вебкамера 1 шт, доска шахматная калибровочная 1 шт. Надо: определить положение соответствующих ключевых точек в 3Д пространстве сцены. Еще раз уточню, что задачу я упростил, мне не нужно получать внешние параметры камеры из ключевых точек, у меня есть доска. =) Получается следующий алгоритм: 1) Калибруем камеру при помощи доски (этот пример как раз есть в книжке по OpenCV: стандартная связка cvFindChessboardCorners->cvFindCornerSubPix->cvCalibrateCamera2 в гугле по этим функциям находится куча страничек всяких индусов и китайцев, которые перепечатали и успешно откомпилили код из книжки и очень по этому поводу радуются ) - получаем матрицу внутренних параметров камеры (intrinsic) и коэффициенты искажения (distCoeffs). Сохраняем их в xml. Калибровку делаем один раз для одной камеры (если не использовали зум). 2) Используем cvUndistort2 для устранения искажений изображения с камеры. 3) Делаем два снимка, перемещая камеру, из них мы и будем получать наши трехмерные координаты. 4) В функцию cvFindExtrinsicCameraParams2 передаем новые координаты точек доски для первого и второго изображения и внутренние параметры камеры (камера у нас одна, так что параметры одинаковые, будем называть их матрицей K). Получаем rvecs и tvecs - векторы вращения и перемещения для каждого нового положения камеры. 5) Используем cvRodrigues2(rvecs,rmat,NULL); получаем матрицу вращения камеры размерностью 3х3. До этого пункта мне все было понятно и вчера, проблемы появились дальше. 6) Необходимо получить матрицу проекции P для каждого из двух изображений. По определению m = P*M, где m = [x,y,1]^T - координаты точки на изображении в пикселях, а M = [X,Y,Z]^T - координаты точки в трехмерном пространстве сцены. Так вот, матрица P в том виде, что нам нужна, получается так: P = K*Pcam, где К - матрица внутренних параметров камеры, а Pcam = [rmat | tvecs] размерностью 3х4. 7) Если передать полученные значения в функцию cvTriangulatePoints из OpenCV 2.2, то она вернет вполне корректные координаты точки в трехмерном пространстве сцены. Я чуть-чуть переписал свою функцию, так что она теперь получает и возвращает такие же параметры, как и cvTriangulatePoints. //CvMat* projPoints1 = cvCreateMat(2,N,CV_32FC1); // Массив координат точек на первом изображении в пикселях виде матрицы: // | x1 x2 ... xN | // | y1 y2 ... yN |, N - количество точек //CvMat* projPoints2 = cvCreateMat(2,N,CV_32FC1); // Соответствующие точки:: на втором изображении //CvMat* projMatr1 = cvCreateMat(3,4,CV_32FC1); //Матрица проекции для первого изображения //CvMat* projMatr2 = cvCreateMat(3,4,CV_32FC1); //Матрица проекции для второго изображения //CvMat* points4D = cvCreateMat(4,N,CV_32FC1); // output - получаем массив координат точек в трехмерном пространстве сцены в виде матрицы: // | X1 X2 ... XN | // | Y1 Y2 ... YN | // | Z1 Z2 ... ZN | // | W1 W2 ... WN |, N - количество точек, W - масштабный множитель или как-то так он называется void TwoViewTriangulation(CvMat *projMatr1, CvMat *projMatr2, CvMat *projPoints1, CvMat *projPoints2, CvMat *points4D) { CvMat* A = cvCreateMat(4,4,CV_64F); CvMat* Anorm = cvCreateMat(4,4,CV_64F); CvMat* U = cvCreateMat(4,4,CV_64F); CvMat* D = cvCreateMat(4,4,CV_64F); CvMat* Vt = cvCreateMat(4,4,CV_64F); for (int n = 0; n < projPoints1->cols; n++) { for (int i = 0; i < 4; i++) { cvmSet(A,0,i, cvmGet(projPoints1,0,n) * cvmGet(projMatr1,2,i) - cvmGet(projMatr1,0,i)); cvmSet(A,1,i, cvmGet(projPoints1,1,n) * cvmGet(projMatr1,2,i) - cvmGet(projMatr1,1,i)); cvmSet(A,2,i, cvmGet(projPoints2,0,n) * cvmGet(projMatr2,2,i) - cvmGet(projMatr2,0,i)); cvmSet(A,3,i, cvmGet(projPoints2,1,n) * cvmGet(projMatr2,2,i) - cvmGet(projMatr2,1,i)); } cvNormalize(A, Anorm, 1, 0, CV_L2, NULL); cvSVD(Anorm, D, U, Vt, CV_SVD_MODIFY_A || CV_SVD_V_T); // A = U D V^T cvmSet(points4D,0,n, cvmGet(Vt,0,3)); cvmSet(points4D,1,n, cvmGet(Vt,1,3)); cvmSet(points4D,2,n, cvmGet(Vt,2,3)); cvmSet(points4D,3,n, cvmGet(Vt,3,3)); } } 8) Чтобы получить реальные координаты в масштабе сцены, нужно все координаты X, Y, Z разделить на W. Пока проверил на координатах точек доски, расчетные довольно точно совпадают с реальными (ну, примерно совпадают - уже хорошо ). Пойду другие ключевые точки доставать и испытывать. Как только напишу функцию, которая из фундаментальной матрицы получает корректные матрицы проекций для камеры, то доска больше будет не нужна. Обязательно сюда тогда добавлю.
  49. 2 points
    Смотрел пример stereo_calib.cpp, там показаны оба метода cvStereoRectify и cvStereoRectifyUncalibrated, мне показалось что cvStereoRectifyUncalibrated, работает лучше... по крайней мере карта высот выглядит правдоподобнее. У меня есть модуль (см. вложение) который вроде как строит Q, по некоторым параметрам: Правда не известно откуда брать точные значения этих параметров... Да, вы можете посмотреть исходник с которым я работаю, ссылка в первом посте. Я попробовал использовать ее вот что получилось: Q возвращенное функцией cvStereoRectify: [ 1., 0., 0., -179.1385765075683600, 0., 1., 0., -120.1025462150573700, 0., 0., 0., 350.7473711626223000, 0., 0., -24.8326591292256540, -538.7927019658170600 ] Q полученное с помощью cvStereoRectifyUncalibrated и вашей функции: [ 1., 0., 0., -150.7913341775544300, 0., 1., 0., -102.6185674775258400, 0., 0., 0., 352.8618670197555500, 0., 0., -25.9740261147689360, 0. ] Пытался много раз калибровать, Q иногда больше похожи иногда меньше в среднем как-то так. stereo_utils.rar
  50. 2 points
    Создание нового проекта в среде C++ Builder 6. (Для OpenCV v1.1) Библиотеки * cv.lib * cvaux.lib * cvhaartraining.lib * cxcore.lib * cxts.lib * Half.lib * highgui.lib * Iex.lib * IlmImf.lib * IlmThread.lib * Imath.lib * libjasper.lib * libjpeg.lib * libjpeg_bcc.lib * libpng.lib * libpng_bcc.lib * libtiff.lib * libtiff_bcc.lib * ml.lib * videoInput.lib * zlib.lib * zlib_bcc.lib короче все файлы из директории OpenCV с расширением lib, необходимо сконвертировать при помощи утилиты coff2omf.exe лежащей в поддиректории /bin директории, где у Вас установлен C++ Builder 6 (или LibConverter см. в прикрепленных ниже файлах) Конвертация необходима ввиду того, что в OpenCV библиотеки с расширением .lib сделаны для использования с Microsoft Visual C. Подключить сконвертированные библиотеки проекту (Меню Project -> Add to project). Еще нужно указать пути к заголовочным файлам библиотеки OpenCV, делается это на вкладке Directories/Conditionals, диалога Options вызываемого выбором пункта меню Project. Эти файлы расположены в нескольких поддиректориях директории в которую Вы поставили OpenCV.Например для OpenCV v1.1 это директории представленные ниже. * C:\Program Files\OpenCV\cv\include * C:\Program Files\OpenCV\cvaux\include * C:\Program Files\OpenCV\cxcore\include * C:\Program Files\OpenCV\ml\include * C:\Program Files\OpenCV\otherlibs\_graphics\include * C:\Program Files\OpenCV\otherlibs\ffopencv * C:\Program Files\OpenCV\otherlibs\highgui Побросать все сконвертированные lib файлы в директорию libs проекта (или другую) и указать путь к этой нашей директории аналогично тому, как это сделано для заголовочных файлов. Чекбокс Use dynamic RTL на вкладке Linker должен быть установлен, иначе требует несуществующую haartraining.dll Чекбокс Build with runtimre packages тоже должем быть установлен, иначе требует ilmthread.dll (тоже не знаю где взять). Так же рекомендуется установить флажок MFC compatibility, это необходимо для правильной работы функции cvGetSize(). И не забудте что DLL должны быть в зоне видимости программы. Приведенный ниже пример использует библиотеку OpenCV v1.1. Проект просто выводит захваченное видео в форму в соответствии с заданными координатами, в данном случае x=10, y=10 И еще если возникает ошибка 0xc0150002, то для корректной работы OpenCV1.1pre1 надо установить MSVCRT 8.0 (visual c++ run time). MSVCRT8.0 *Архив с проектом:simple.rar *Конвертер библиотек:LibConverter.rar *Набор сконвертированных lib:libs.rar *Набор DLL (на всякий случай):OpenCV11DLLs.rar //--------------------------------------------------------------------------- #include <vcl.h> #pragma hdrstop #include "cv.h" #include "highgui.h" #include "Unit1.h" //--------------------------------------------------------------------------- #pragma package(smart_init) #pragma resource "*.dfm" TForm1 *Form1; CvCapture* capture = 0; IplImage *frame, *frame_copy = 0; void ProcessFrame( IplImage* image ); // Описатель шрифта (см. дальше) CvFont font; #define WIDTHBYTES(bits) ((((bits) + 31) / 32) * 4) //--------------------------------------------------------------------------- // Создание API шного битмапа из интеловского RGB изображения //--------------------------------------------------------------------------- HBITMAP CreateRGBBitmap(IplImage* _Grab) { char *App; IplImage *_Grab3=0,*_Grabf=0; LPBITMAPINFO lpbi = new BITMAPINFO; lpbi->bmiHeader.biSize = sizeof(BITMAPINFOHEADER); lpbi->bmiHeader.biWidth = _Grab->width; lpbi->bmiHeader.biHeight =_Grab->height; lpbi->bmiHeader.biPlanes = 1; lpbi->bmiHeader.biBitCount = 24; lpbi->bmiHeader.biCompression = BI_RGB; lpbi->bmiHeader.biSizeImage = WIDTHBYTES((DWORD)_Grab->width * 8) * _Grab->height; lpbi->bmiHeader.biXPelsPerMeter = 0; lpbi->bmiHeader.biYPelsPerMeter = 0; lpbi->bmiHeader.biClrUsed = 0; lpbi->bmiHeader.biClrImportant = 0; void* pBits; HBITMAP hBitmap = CreateDIBSection( NULL, lpbi, DIB_RGB_COLORS, (void **)&pBits, NULL, 0 ); delete lpbi; if ( hBitmap ) App=(char*)pBits; // Если глубина изображения не IPL_DEPTH_8U (однобайтовое целое), конвертируем if(_Grab->depth!=IPL_DEPTH_8U) { _Grabf=cvCloneImage(_Grab); if(_Grab) {cvReleaseImage( &_Grab);} _Grab = cvCreateImage( cvSize(_Grabf->width,_Grabf->height),IPL_DEPTH_8U,_Grabf->nChannels); cvConvert(_Grabf,_Grab); if(_Grabf) {cvReleaseImage( &_Grabf);} } // Если изображение содержит один канал, создаем трехканальное изображение // Серое или бинарное if(_Grab->nChannels==1) { _Grab3 = cvCreateImage( cvSize(_Grab->width,_Grab->height),IPL_DEPTH_8U,3); cvMerge(_Grab,_Grab,_Grab,NULL,_Grab3); } // Если входное изображение трехканальное, просто копируем указатель на него // Цветное if(_Grab->nChannels==3) { _Grab3=_Grab; } // Получаем указатель на данные unsigned char* data; cvGetRawData(_Grab3, (uchar**)&data); // Копируем данные if(_Grab3) { for (int i=0;i<_Grab->height;i++) { memcpy(App+_Grab3->widthStep*(_Grab3->height-i-1),data+_Grab3->widthStep*i,_Grab3->width*3); } } // Очищаем память если создавали изображение, а не копировали указатель if(_Grab->nChannels==1) {cvReleaseImage( &_Grab3);} return hBitmap; } //--------------------------------------------------------------------------- //--------------------------------------------------------------------------- // Функция вывода изображения на HANDLE оконного компонента //--------------------------------------------------------------------------- void APIDrawIpl(int x,int y,IplImage* _Grab,void *HANDLE) { HDC hMemDC,hDC; hDC=GetDC(HANDLE); hMemDC = CreateCompatibleDC(hDC); HBITMAP Bitmap=CreateRGBBitmap(_Grab); SelectObject(hMemDC,Bitmap); BitBlt(hDC,x,y,_Grab->width,_Grab->height,hMemDC,0,0,SRCCOPY); DeleteObject(Bitmap); DeleteDC(hMemDC); DeleteDC(hDC); } //--------------------------------------------------------------------------- //--------------------------------------------------------------------------- //--------------------------------------------------------------------------- //--------------------------------------------------------------------------- __fastcall TForm1::TForm1(TComponent* Owner) : TForm(Owner) { capture = cvCaptureFromCAM(0); // Инициализация шрифта (теперь можем вывести какой-нибудь текст) cvInitFont(&font, CV_FONT_HERSHEY_SIMPLEX,0.5,0.5,0,1,8); Application->OnIdle = IdleLoop; // Поток обработки простоя } //--------------------------------------------------------------------------- void __fastcall TForm1::IdleLoop(TObject*, bool& done) { done = false;// Поток обработки простоя if( capture ) { if( !cvGrabFrame( capture )) goto skip; frame = cvRetrieveFrame( capture ); if( !frame ) goto skip; //********************************************************* // Если стерли то что ниже - это надо раскомментировать // if( !frame_copy ) // frame_copy = cvCreateImage( cvSize(frame->width,frame->height), // IPL_DEPTH_8U, frame->nChannels ); // Делаем копию кадра, иначе может пропасть. // cvCopy( frame, frame_copy, 0 ); // Если стерли то что ниже - это надо раскомментировать //********************************************************* //********************************************************* // Если не нужно подгонять размер кадра - это можно стереть // Выделяем память под копию кадра if( !frame_copy ) frame_copy = cvCreateImage( cvSize(352,288), IPL_DEPTH_8U, frame->nChannels ); // Масштабируем под заданный размер cvResize( frame, frame_copy, CV_INTER_LINEAR ); // Если не нужно подгонять размер кадра - это можно стереть //********************************************************* ProcessFrame( frame_copy ); } skip:; } //--------------------------------------------------------------------------- void __fastcall TForm1::FormClose(TObject *Sender, TCloseAction &Action) { cvReleaseImage( &frame_copy ); cvReleaseCapture( &capture ); } //--------------------------------------------------------------------------- void ProcessFrame( IplImage* img ) { APIDrawIpl(10,10,img,Form1->Handle); }[/code]
×