Перейти к содержимому
Compvision.ru

BeS

Пользователи
  • Количество публикаций

    343
  • Зарегистрирован

  • Посещение

  • Days Won

    42

Все публикации пользователя BeS

  1. 1) Запатентовать можно конкретный подход, а не идею. Т.ч. патент, в котором больше 2-3 шагов в алгоритме, обойти обычно не сложно, путем модификации пайплайна. 2) Патент полученный в России - это вообще не особо серьезная штука, т.к. Россия - не особо благоприятный рынок для технически сложных продуктов. А для западного рынка этот патент ничего не значит.
  2. Всем привет, Возник такой вопрос: а какой метод загрузки данных и формировани батчей сейчас является "best practice" в TensorFlow? И кто какие контейнеры использует для хранения картинок и метаинформации к ним? Судя по этой странице из официального гайда, как-то там народ не заморачивается насчет быстрых контейнеров, типа HDF5 или LMDB...и не совсем понятно, как при таком подходе грузить сложную метаинформацию типа боксов для object detection etc.
  3. Всем привет, Как многим известно, под linux opencv активно использует библиотеку ffmpeg для чтения видео, а эта библиотека, в зависимости от окружения и кодеков, которыми записаны видео, может отдавать не bit exact'ные кадры. И возникла необходимость закодировать видео так, чтобы перекодирование прошло без потери качества и в любом окружении выдавались одинаковые кадры. Судя по всему, для этой задачи мне нужно использовать x264 кодек, но вот как нарулить правильное сочетание флагов, чтобы пожалось всё без потери качества - никак не соображу. Может кто-то сталкивался с такой проблемой и имеет готовое решение?
  4. Решение оказалось очень простым: и картинки тупо сваливаются в контейнер как есть, без всякой интерполяции между кадрами.
  5. Задача в том, что есть пачка видео доставшихся в наследство(переснять которые не представляется возможным), которые на зоопарке архитектур могут давать разные результаты при различиях в конфигурации ffmpeg'а...в png'хи порезать видосы не вариант - т.к. их ооочень много, остается только перекодировать в какой-то формат, где кадры отдаются всегда одинаково, незаивисимо от бекенда
  6. Детектор кругов

    http://docs.opencv.org/trunk/d7/d5d/houghcircles_8cpp-example.html работает наверняка дерьмово, как и все эти HoughBased свистелки.
  7. Вроде-бы HMM уже "того"...deep learning их сместил. Может LSTM'ами попробовать?
  8. Как думаете, что за метод ?

    А что значит "для нейронки слишком четко"? Вроде бы стилизация изображений уже довольно качественные результаты дает...
  9. Работа с float изображением

    Заблюрить и посчитать производную по Y?
  10. ENet

    Зная угол крена БПЛА (IMU по идее должен уметь его давать), можно просто довернуть картинку так, чтобы крен стал нулевым и запускать сегментацию на выровненой картинке.
  11. ENet

    В общем случае операция свертки не инвариантна к повороту. У сеток есть только инвариант к трансляции и нечувствительность к слабым поворотам за счет всяких пулингов. з.ы. можно, кстати, попробовать саму картинку доворачивать в соответствии с данными от IMU...так может быть даже точнее получится за счет меньшей вариативности в таргетном распределении...
  12. ENet

    Сверточные сети не инвариантны к повротам, т.ч. нужно аугментировать данные.
  13. А там можно пихать блобы разных размеров, или есть какие-то ограничения на тему того, что мы суем в LMDB?
  14. Спасибо за семпл) Я правильно понимаю, что у тебя ландмарки лежат тоже в виде картинок(маска с отмечеными точками?)?
  15. ENet

    В 8 бит вроде бы уже умеют без деградации качества квантизовать, при бинаризации уже серьезно качество плывет. Там есть модуль в contrib'е у TF, slim называется...вот народ его активно юзает в качестве ванильного API.
  16. ENet

    Переход на малобитную арифметику https://petewarden.com/2016/05/03/how-to-quantize-neural-networks-with-tensorflow/ Да хоть те же пресловутые GAN'ы...никто их не делает на caffe, т.к. извращение это...да и object detection там делается из кучи костылей...
  17. ENet

    на инференсе tensorflow может и обогнать кафю (особенно если квантизовать сеточку в 8 бит), а вот в train time Caffe до сих пор проигрывает только распределенным фреймворкам. Это да, caffe совсем не дружелюбен в плане разработки чего-нибудь сильно кастомного
  18. ENet

    Сомневаюсь...а что там описывать то? Прописывание конфига в prototxt'шник? Надо смотреть, какой фреймворк сейчас наиболее активно поддерживается производителем железа, тот и использовать.
  19. ENet

    Словами не передать, какие боль и страдания я испытвал каждый раз, сталкиваясь с этим фрейморком Серьезно, может он и был когда-то крут потому, что альтернатив особо не было, но при живом tensorflow/theano/caffe он нафиг не сдался. Куча каких-то сторонних модулей, раскиданых по всему github'у, полувымершее комьюнити...хз зачемим пользовться в 2017 году...pytorch еще может быть, но не чистый torch. Ну Lua ведь и задумывался как портабельный скриптовый язык...т.ч. в C/C++ код должен интегрироваться из коробки. Там вроде бы никакой магии нету в ENet, и все должно легко переписываться на любой уютненький фреймворк.
  20. Традиционный vision - это поляна, которую уже все затоптали и ушли с неё... Ну а что касается оптимизаций, путем переписывания всего алгоритма на асме, то это крайне не рационально. Под CPU заоптимизировать boatleneck'и на TBB. или в крайнем случае на C + SIMD интринсиках - это куда быстрее, а результат, скорей всего, будет +/- тот-же (я ставлю на то, что опытный оптимизатор при таком подходе обойдет асемблерную реализацию).
  21. Non maxima supression для heatmap?

    А как интерполируешь маленькие фича-мапы в большие? Просто биллинейной интерполяцией, или что-нибудь навороченое?
  22. Non maxima supression для heatmap?

    Стопэ :-) У нас heatmap'а скольки мерная?) Я правильно понимаю, что ты просто все фичамапы апскейлишь к одному размеру (максимальному для пирамиды), суммируешь, на посуммированой 2D хитмапе находишь локальные максимумы, а затем снова в 3D тензоре заапскейленой пирамиды, для соответствующих точек, берешь argmax по слоям и разворачиваешь точку в бокс правильного скейла? А это дает какой-то буст, относительно лобового решения с формированием боксов и последующим NMS на прямоугольниках?
  23. Non maxima supression для heatmap?

    А можно ссылки на то, где так делают? Чет я не уловил идею, как размытие тут поможет...
  24. Non maxima supression для heatmap?

    Не эквивалентной же получится: на разных скейлах пирамиды ячейке одного и того же размера соответствуют боксы разного размера(с масштабом равным скейл фактору в пирамиде), а при апскейле и сложении ты потеряешь spatial информацию о размерах окон.
  25. LIFT

    Нарушил многолетнее молчание и зафигачил новый пост на Хабру про последние достижения науки и техники в области Feature Matching'а: https://habrahabr.ru/post/323688/ Т.ч. кому интересна тема, вэлкам) Критика, пожелания, замечания приветствуются!
×