Перейти к содержимому
Compvision.ru

mrgloom

Пользователи
  • Количество публикаций

    2 302
  • Зарегистрирован

  • Посещение

  • Days Won

    142

Все публикации пользователя mrgloom

  1. В keras вот такая штука есть https://keras.io/io_utils/ По идее можно написать свой batch_generator поверх lmdb, leveldb, hdf5 который читается последовательно, но содержит shuffled data.
  2. 1. По поводу похожести можно bag-of-words на базе sift https://github.com/shackenberg/Minimal-Bag-of-Visual-Words-Image-Classifier 2. Всякие перцептвные хеши http://www.phash.org/ 3. Ну и фичи из CNN сетей для CBIR (хотя сейчас даже дескрипторы типа sift делаются через нейросети) На счёт этого ' после чего восстановить второе на сколько это возможно близко к первому ' скорее всего только 1 подход поможет, т.к. там можно заматчить точки и получить матрицу гомографии.
  3. Есть ли какой то способ отфильтровать только computer vision related соревнования?
  4. Получить общие точки SURF

    У каждой точки есть дескриптор и точки сравниваются по дескрипторам, обычно L2 norm. Положение точки хранится в KeyPoint, а вот получить 'окрестность' точки, на сколько я понимаю, не тривиально, хотя это наверно зависит от метода подсчёта дескриптора. Например в FAST окрестность вроде фиксированная, но все равно наверно ищется на нескольких скейлах.
  5. Недавно наткнулся еще на 1 реализацию https://habrahabr.ru/post/232515/#comment_10188184
  6. Если что в opencv есть http://docs.opencv.org/2.4/modules/stitching/doc/introduction.html Вам нужны части exposure compensation и blending. https://github.com/opencv/opencv/blob/c17afe0fab61bb11452b36fb94eaeb405293e086/samples/cpp/stitching_detailed.cpp
  7. Сравнение изображений

    А какая точность достижима? Тут вот например пишут про погрешность при определении центра фотографирования, но не пишут про то как эта погрешность потом будет влиять на привязку ортофотоплана сгенерированного Photoscan'ом. http://gisinfo.ru/techno/photoscan.htm
  8. Сравнение изображений

    Задача не ясна. Пары изображений заданы заранее? p.s. Есть такая штука http://www.terrapattern.com/ https://github.com/CreativeInquiry/terrapattern
  9. cvMatchTemplate

    Самый простой вариант просто по threshold'y Если вопрос про несколько пиков. http://stackoverflow.com/questions/3684484/peak-detection-in-a-2d-array А мой вопрос был про то, как найти центр жирного пика, т.к. теоретически глобальный максимум на карте откликов может быть просто 1 пикселем шумом. Есть еще такая штука как уточнение пика https://github.com/opencv/opencv/blob/0e4dde1781d6439eb5377e22208a0eb6f6cd404e/modules/imgproc/src/phasecorr.cpp#L562
  10. можете попробовать YOLO, если не брезгуете завязываться на darknet(или поискать реимплементацию), там есть секция Real-Time Detection on a Webcam https://pjreddie.com/darknet/yolo/
  11. А я думал они матлабу продались http://arrayfire.com/tag/matlab/
  12. ENet

    в caffe нету early stopping из коробки, если речь об этом. https://deeplearning4j.org/earlystopping
  13. ENet

    По сжатию: accuracy тоже падает? вот кстати такая штука от NVIDIA наверно тоже сжимает\квантизирует. https://developer.nvidia.com/tensorrt
  14. ENet

    На любой чих вам придётся писать свой loss или свой layer и надо подумать на чем вы это сможете сделать. Тут есть неплохое сравнение http://cs231n.stanford.edu/slides/2016/winter1516_lecture12.pdf Caffe не нравится тем ,что python api без нормальной документации. Куча библиотек-зависимостей не весело деплоить и интегрировать в С++ проект. Не удобно править prototxt (6к строк для ResNet), можно дефайнить сеть в питоне только через дурацкие трюки. Так же говорят что в Caffe свертка не оптимальна по памяти. https://github.com/Yangqing/caffe/wiki/Convolution-in-Caffe:-a-memo Кто то сравнивал какой нибудь AlexNet на Caffe/Tensorflow по скорости? Тут не очень понятно т.к. есть только Caffe(native) https://github.com/soumith/convnet-benchmarks Мои результаты: https://github.com/mrgloom/kaggle-dogs-vs-cats-solution P.s. можете порыться тут https://github.com/mrgloom/Semantic-Segmentation-Evaluation
  15. Non maxima supression для heatmap?

    Допустим есть некий стандартный pipeline HOG+LinearSVM, там мы ищем на нескольких скейлах и потом мерджим ректы через non-maxima supression. Но если посмотреть на это с другой стороны то на каждом уровне мы имеем некую карту откликов - назовем её heatmap, можно ли как то замерджить эти heatmap'ы? Т.е. на выходе у нас по идее будет 1 heatmap и на его базе мы уже построим ректы.
  16. Non maxima supression для heatmap?

    Так в итоге у нас всё равно скользящее окно? или мы ищем локальные максимумы типа http://stackoverflow.com/questions/3684484/peak-detection-in-a-2d-array Только у нас в 3D.
  17. Есть стандартные рекомендательные системы типа Netflix, где мы имеем user-movie и надо предсказать rating который user поставит movie, получается такая sparse matrix отсюда много методов пляшет. А что если у нас есть например user-item, где user описывается feature vector 1, а item через feature vector 2 и надо предсказать бинарное событие да-нет, как такой тип рекомендательной системы называется?
  18. Мы хотим мерить не их похожесть, а то что один юзер лайкнет другого user1-user2->{0|1} (кстати не обязательно user2->user1 будет тоже самое).
  19. Ну например какой нибудь dating service где у нас связь user-user надо предсказать like\dislike. Хотя может быть можно свести эту задачу к задаче классификации (или как задачу регрессии - предсказывать 'силу' лайка) типа concatenate(feature_vector1,feature_vector2)->{0,1}, но в таком случае проблема, что так придётся прогнать всё пары user-user.
  20. https://www.stereolabs.com/ Как узнать какая дальность для восстановления depth map у этой камеры? зависит ли от расстояния между камерами?
  21. >А что за информация в skin_no_skin.txt? https://github.com/mrgloom/Simple-skin-detection/blob/master/tree/tree.py#L10 Data in format [B G R Label] Тут пишут про размер входных изображений 600×800 http://xiaoyongshen.me/webpage_portrait/index.html Matting как я понял не обязателен, он дополнительно даёт 'мягкие' границы на пушистых объектах типа волос и т.д. p.s. векторизация и оверсегментация это другая задача.
  22. https://github.com/alexgkendall/caffe-segnet/issues/37 f(class) = frequency(class) / (image_count(class) * 480*360) weight(class) = median of f(class)) / f(class)
  23. Вопрос в том на сколько изменяется бэкграунд и насколько он совпадает с одеждой, а так да это очень простой подход. Имеется ввиду делить на 2 класса background/foreground, а не skin/non-skin.
  24. Можно тупо попиксельную классификацию попробовать. Репа несколько не доделанная: https://github.com/mrgloom/Simple-skin-detection Датасет есть?
×