Перейти к содержимому
Compvision.ru

BeS

Пользователи
  • Количество публикаций

    349
  • Зарегистрирован

  • Посещение

  • Days Won

    43

Все публикации пользователя BeS

  1. ENet

    Словами не передать, какие боль и страдания я испытвал каждый раз, сталкиваясь с этим фрейморком Серьезно, может он и был когда-то крут потому, что альтернатив особо не было, но при живом tensorflow/theano/caffe он нафиг не сдался. Куча каких-то сторонних модулей, раскиданых по всему github'у, полувымершее комьюнити...хз зачемим пользовться в 2017 году...pytorch еще может быть, но не чистый torch. Ну Lua ведь и задумывался как портабельный скриптовый язык...т.ч. в C/C++ код должен интегрироваться из коробки. Там вроде бы никакой магии нету в ENet, и все должно легко переписываться на любой уютненький фреймворк.
  2. Традиционный vision - это поляна, которую уже все затоптали и ушли с неё... Ну а что касается оптимизаций, путем переписывания всего алгоритма на асме, то это крайне не рационально. Под CPU заоптимизировать boatleneck'и на TBB. или в крайнем случае на C + SIMD интринсиках - это куда быстрее, а результат, скорей всего, будет +/- тот-же (я ставлю на то, что опытный оптимизатор при таком подходе обойдет асемблерную реализацию).
  3. Non maxima supression для heatmap?

    А как интерполируешь маленькие фича-мапы в большие? Просто биллинейной интерполяцией, или что-нибудь навороченое?
  4. Non maxima supression для heatmap?

    Стопэ :-) У нас heatmap'а скольки мерная?) Я правильно понимаю, что ты просто все фичамапы апскейлишь к одному размеру (максимальному для пирамиды), суммируешь, на посуммированой 2D хитмапе находишь локальные максимумы, а затем снова в 3D тензоре заапскейленой пирамиды, для соответствующих точек, берешь argmax по слоям и разворачиваешь точку в бокс правильного скейла? А это дает какой-то буст, относительно лобового решения с формированием боксов и последующим NMS на прямоугольниках?
  5. Non maxima supression для heatmap?

    А можно ссылки на то, где так делают? Чет я не уловил идею, как размытие тут поможет...
  6. Non maxima supression для heatmap?

    Не эквивалентной же получится: на разных скейлах пирамиды ячейке одного и того же размера соответствуют боксы разного размера(с масштабом равным скейл фактору в пирамиде), а при апскейле и сложении ты потеряешь spatial информацию о размерах окон.
  7. LIFT

    Нарушил многолетнее молчание и зафигачил новый пост на Хабру про последние достижения науки и техники в области Feature Matching'а: https://habrahabr.ru/post/323688/ Т.ч. кому интересна тема, вэлкам) Критика, пожелания, замечания приветствуются!
  8. Ну так есть волшабная формула: depth = focal * baseline / disparity Соответственно максимальный depth будет при disparity = 1: depth = focal * baseline... Но по личному опыту, все диспарити, что меньше 30-40 - это мусор, т.е. реально такая камера даст адекватный depth при focal * basline / 40.
  9. Ковырял тут на досуге задачу семантической сегментации, пробовал сетку SegNet и возник вопрос: а чего там означают веса по классам? Если верить референсным статьям, там классы должны взвешиваться с величиной, обратной площади, занимаемой этими классами...но если посмотреть в их сэмпл-модели, то можно заметить, что там есть веса сильно больше единицы (segnet_train.prototxt): layer { name: "loss" type: "SoftmaxWithLoss" bottom: "conv1_1_D" bottom: "label" top: "loss" softmax_param {engine: CAFFE} loss_param: { weight_by_label_freqs: true ignore_label: 11 class_weighting: 0.2595 class_weighting: 0.1826 class_weighting: 4.5640 class_weighting: 0.1417 class_weighting: 0.9051 class_weighting: 0.3826 class_weighting: 9.6446 class_weighting: 1.8418 class_weighting: 0.6823 class_weighting: 6.2478 class_weighting: 7.3614 } } Что как-то контринтуитивно... как эти веса посчитать для своего кастомного датасета?
  10. Посчитал статистики...получается, что +/- эти цифры соответствуют тому, если мы посчитаем величину обратную числу пикселей, принадлежащих соответствующему классу и домножим все это дело на 1e6...судя по всему действительно избавлялись от длиных вещественных хвостов.
  11. В смысле отскалировали значения в некоторый больший интервал, чем [0; 1] ? Гипотетически большая точность вычисления флотов? Неудачно скопипастил вопрос с другого форума, но так и не смог удалить фоновый цвет)
  12. Всем привет, А кто-то имеет опыт использования Amazon инстансов для тренировки сетей? Нашел описание тут: https://aws.amazon.com/ru/ec2/dedicated-hosts/pricing/ Но не совсем понятно, какая разница по цене между p2.xlarge, p2.8xlarge, p2.16xlarge (в прайсе есть только общая цена для p2 инстансов)... Заранее спасибо.
  13. Ага. Они одними из первых занялись задачами детектирования/распознавания/анализа лиц и сейчас они в лидерах индустрии. Хз, может с приходом Deep Learning расстановка сил изменилась, но вроде бы Nec не сдает позиций.
  14. Гы-гы...лидеры рынка в области распознавания лиц...Nec, ты ли это? ))
  15. Да я вроде из зоопарка брал первую, что под руку попалась и точность на ImageNet сходилась с заявленной...давно правда это было.
  16. С расстояния в несколько км ;-) Ну если сам едешь с той же скоростью, то все норм ;-) нужна как миниму хорошая камера с высоким FPS, чтобы все объекты в motion blur не затерялись)
  17. OpenCV'шный parallel_for, кстати, умеет прям поверх тредов работать, без всяких openmp/tbb
  18. Я может не уловил фишки, но в чем крутость этого сампла?:-) Вроде бы стандартный способ распараллелить алгоритм на OpenCV, не?
  19. Пойдет...если числа логических элементов на плате хватит для реализации алгоритма. Там с этим прямо беда..
  20. UMDFace

    Может кто-то еще не видел. В сети появился новый датасет с лицами (кроме самих картинок есть еще gender, orientation, landmarks, person) на ~400K изображений. Выгялдит даже интересней, чем MegaFace. http://umdfaces.io/
  21. Faster - это наверно вы путаете с Faster-RCNN (до этого еще были версии RCNN, Fast-RCNN). Только это не о локальных особенностях, а развесистый такой Deep Learning.
  22. +1. Судя по правилам, все как обычно "пройди 100500 тестов, докажи что ты достоин, реализуй для нас проект, а мы тебе конфетку") Гоу лучше рыбок распознавать: https://www.kaggle.com/c/the-nature-conservancy-fisheries-monitoring (=
  23. Автотрекинг

    Так а без OpenCL попробовать собрать не вариант? в строчке cmake'а прописать ченить типа -DWITH_OPENCL=OFF...
  24. Детектирование убегающих заключенных? Это просто божественный датасет :-)
×