Перейти к содержимому
Compvision.ru

BeS

Пользователи
  • Количество публикаций

    349
  • Зарегистрирован

  • Посещение

  • Days Won

    43

Все публикации пользователя BeS

  1. Хм...а за счет чего они в 2 раза ускорились? Неужто придумали, как еще быстрее свертки считать? О_О
  2. Так проблема не в конвертировании модели, а в её выполнении. Модель ведь будет считаться разным кодом, кто какие допуски по точнсоти делал при оптимизации не известно, кто как докуручивал имплементацию слоев тоже...и в результате одна и таже сеть может выполняться по разному и давать разные результаты. А при официальной совместимости библиотек, кому-то придется постоянно следить за регрессией между библиотеками, что очень сложно. Да и не надо это никому, каждый разработчик тянет одеяло на себя, расхваливая свою библиотеку)
  3. Вряд ли между разными библиотеками есть bit-exact совместимость, соответственно готовая модель может по разному работать на разных бэкендах...соответственно толку от переноса сети между фрэймворками особого нет. Проще перетренировать модель, тем более что в случае её адекватности она должны быть воспроизводимой.
  4. Хм, а разве DIGITS как-то сам мэнеджит процесс обучения? Вроде бы это только GUI для caffe/torch/etc. и не более того, соответственно все озвученные проблемы скорей всего на стороне caffe должны решаться. Нехватка памяти должна лечиться пересборкой caffe с библиотекой cnmem (если конечно памяти у GPU действительно хватает для решаемой задачи).
  5. Вроде уж пару недель как для nvidia registred developer'ов был доступен этот DIGITS. Но в целом я так и не понял нафиг он нужен, вроде с кафе и без того довольно просто работать.
  6. На днях был опубликован отладчик к библиотеке TensorFlow. Штука, по моему, довольно интересная например тем, что позволяет пошагово выполнять графы и на ходу визуализировать внутренности сеток. https://github.com/ericjang/tdb
  7. Классификация контуров

    А разве для RNN уже появились вменяемые алгоритмы обучения, которые на реальных данных могут сойтись?
  8. 1) С точки зрения производительности нужно использовать последние версии библиотеки. 2) В 90% случаев узкое место системы - это не медленная работа с cv::Mat'ами...Практика показывает, что, например, уместное транспонирование данных или перекладывание функций на NEON/SSE/CUDA дают значительно лучший спидап, чем оптимизация call'ов и jmp'ов при выкидывании ООП...
  9. Построение маски, по моему, тут эквивалентно исходной задаче) По 4-м точкам по идее можно заварпить регион в прямоугольную систему координат и работать с ним, а потом обратно отобразить)
  10. А кто-то разбирался в чем фишка этого xgboost'а? Судя по отзывам ТОП'ов с каглей, сейчас большинство ансамблевых решений основывается на этой библиотеке...
  11. Лично я для таких вещей обычно пишу простой скрипт opencv'шный с imshow и imwrite. Тупо подряд отображаю все картинки и делаю бинд на какие-нибудь кнопки для сохранения в нужную папку...при некоторой сноровке получается довольно бсытро сортировать базу.
  12. +1 за пуассонов блендинг, склейку должно замаскировать почище
  13. Любопытно. А эффект паралакса у вас не наблюдался при сшивке с трех камер? Или камеры были близко друг к другу? FOV я так понимаю в районе 100-110 градусов? Ну и насчет динамических швов тоже инетересно: насколько стабильно находились правильные швы? А то я по моему еще не встречал ни одного алгоритма с художественными швами, которые бы стабильно правильно находились)
  14. И какие результаты проекта, если не секрет? Демо-видео случаем нету? В реалтайм панораме тоже проблемы с синхронизацией видео остро встают, особенно если склеивать что-то аутдорное.
  15. В паре вы стереокамеру из них собирали? А как синхронизировали? Ведь по USB задержки офигенные получаются, вплоть до 100+ms...
  16. классификация картинок

    Советую лекции Воронцова http://www.machinelearning.ru/wiki/index.php?title=Машинное_обучение_(курс_лекций%2C_К.В.Воронцов) Или если попроще, то можно еще курс Золотыха почитать http://www.uic.unn.ru/~zny/ml/
  17. классификация картинок

    Так выбирай любой из ML модуля. Например randomForest должен подойти (он там называется random trees из-за всяких патентов).
  18. Работа с контурами

    Ну да, именно это она и делает. Другой вопрос в том, который из контуров вы передаете этой ф-ии?
  19. Работа с контурами

    Какого поведения программы вы ожидаете вот от этой строки: Вы передаете внутрь ф-ии контейнер вида std::vector<std::vector<cv::Point>>, тогда как ф-я ожидает на входе std::vector<cv::Point>...
  20. Работа с контурами

    А что тут за адов кабздец с использованием ANSI C / C++ интерфейсов? О_О Особенно радует приведение IplImage* к cv::Mat...не удивлюсь, что где-то там маты криво мапятся на память, тем более что assert намекает на какой-то невалидный cv::Mat...что пошаговая отладка говорит?
  21. А мсье знает толк в извращениях :) Да, BLAS там задается во время конфигурирования CMake...GotoBLAS, cuBLAS, MKL etc бинарно не совместимы, т.ч. подсунуть к уже построенной библиотеке что-то левое не получится. Чисто теоретически к CMake относительно легко привинчивается CPack со всеми вытекающими в виде сборки .deb пакетов, для которых при правильном конфигурировании все зависимости будут разрешаться автоматически. Таскать между машинами пребилженые бинари вне deb-пакетов плохая идея. Т.к. придется весь необходимый энвайромент воспроизводить на новой машине. Тем более, если таскаешь бинари между разными версиями убунты.
  22. Эмм...а зачем бранчеваться для этого? В caffe вроде бы все параметры через командную строку конфигурируются...если религия запрещает доверять истории командной строки, то можно заскриптовать этот процесс каким-нибудь питоном)
  23. Всем привет. Дошли тут у меня руки наконец плотно заняться Deep Learning. Для тестов выбрал фреймворк caffe, как один из самых популярных и просто интегрирующихся с opencv. И тут сразу возникла непонятная проблема: выбрал я топологию сети (нечто похожее на LeNet), составил обучающую/тренировочную выборки(выборка тренировочная правда не сбалансирована, но вряд ли это является причиной наблдаемого поведения) и начал тренировать методом стохастического градиентного спуска. Первое подозрительное поведение: сетка буквально за 100-1000 итераций скатывается в некое состояние равновесия с не слишком высоким detection rate и сидит в нем до конца обучения (даже после >1000000 итераций картина особо не меняется). Ну ок, решил что у меня офигенная архитектура сети и все так быстро учится...заинтегрировал это в opencv приложение и тут вылезло второе подозрительное поведение: на любые входные данные сеть генерирует один и тотже отклик...если брать сетки с разных эпох, то картина меняется численно но качественно всегда наблюдаю одно и тоже поведение. Кто-то сталкивался с подобными проблемами и возможно знает в чем может быть причина? Заранее спасибо.
  24. Оп, действительно, вроде бы все необходимые мне фичи в этом бранче имеются. А я следовал инструкции по установке DIGITS;а и юзал старую 0.12 версию. з.ы. а DIGITS умеет делать деконволюцию и показывать, на каких фичах классификатор срабатывает?
  25. А кто-то пробовал подружить DIGITS с мейнстримным caffe? А то Nvidia похоже положила на развитие своего форка и не ребэйзит новые фичи из апстрима :-(
×