Перейти к содержимому
Compvision.ru

BeS

Пользователи
  • Количество публикаций

    349
  • Зарегистрирован

  • Посещение

  • Days Won

    43

Все публикации пользователя BeS

  1. Всем привет, А у кого-то есть опыт развертывания Tensorflow с поддержкой CUDA на картах последнего поколения (1080/TitanX) с CUDA 8.0? Что-то у меня при вызове ./configure вообще ничего про наличие CUDA не сообщается, хотя карта стоит и в том-же caffe она подцепилась вообще без проблем.
  2. Да, 2 августа стартовали продажи...но там её не укупишь - первые несколько месяцев корпорации будут их раскупать как горячие пирожки
  3. Ну вообще говоря 970 и 1070 - это карты разных поколений(Maxwell и Pascal), т.ч. поведение, при котором без пересборки проекта более новая карта глючит - это в порядке вещей) Тут просто надо взять за правило по отношению к железякам от Nvidia: поставил новую железку, обновил драйвер, пересобрал библиотеки. з.ы. и как тебе видяха? По моему, 1070/1080 как-то совсем геймерские, а не для DL, уж больно памяти мало...а новых TitanX еще ждать и ждать(
  4. Нынче модно семантическую сегментацию делать при помощи какого-нибудь SegNet/FCN.
  5. Вот кроме этих видео оно больше нигде нормально не работает ) Статью по этому алгоритму, вроде бы, даже на CVPR не пустили ) Если уж смотреть на что-то боле-мене быстрое, то это Single Shot Multibox Detector...
  6. Оно работает с монокамерой, но для построения базы объектов, которые он ищет, нужны облака точек, которые можно получать разными способами, в том числе и кинектом. Смысл там в том, что у тебя для каждого объекта есть несколько изображений с разных ракурсов + облако, та из всего этого лепишь модель объекта, а потом можешь во первых матчить этот объект с разных ракурсов на сцену, а во вторых решать задачу pnp для определения позы объекта. Но все это уже немного CV-некромантия и так уже никто не делает)
  7. В свое время ковыряли вот такой вот детектор. Оно основано на матчинге особых точек и умеет детектировать объекты и определять их позу в 3D. Из минусов - довольно геморойно создавать базу объектов (помимо картинок с разных ракурсов требуются еще облака точек), не очень быстрая работа на большом разрешении и точность хуже, чем у Deep Learning'а. Вот примерно так оно работает:
  8. Всем привет, Возник такой вопрос: раньше серьезное оборудование для тренировки моделек deep learning я использовал только на работе, как следствие - я не заморачивался тем, сколько электричества потребляют машины для тренировки. А тут решил собрать для личных нужд машинку с GPU'шиной уровня Nvidia gtx980ti / Titan X и стало интересно, а сколько киловат в месяц у меня будет жрать такая видяха при non-stop тренировке. Кто-то имеет опыт использования подобных карт в домашних условиях и может поделиться опытом, насколько это разорительно? Заранее спасибо)
  9. А зачем вы используете FlannBased матчер, а не BruteForce?
  10. Вопрос по findFundamentalMat

    Вот тут я давал ссылку на статью с описанием быстрого способа фильтрации выбросов: А вообще внутри findFundamental используется RANSAC, т.ч. там должно тоже все неплохо получаться, правда чем больше выбросов, тем больше итераций RANSAC'а надо делать...
  11. SURF, как и SIFT, с некоторых пор уехал в nonfree модули, т.ч. он подключается отдельно от Features2d. На тему матчинга, кстати, могу посоветовать свою древнюю статью о том, как при помощи некоторых простых и вычислительно легких трюков можно повысить точность матчинга.
  12. Да, нужно калибровать по шаблону. Не понял вопроса. Формула перехода от диспаритета к дистанции стандартная: depth = focal * baseline / disparity.
  13. Ну если стереопара ректифицирована, то через SGBM получаешь Disparity Map по которому можно посчитать расстояние.
  14. Сейчас выгодней купить 1080-ю, чем оплачивать тачки в амазоне (GPU + жесткий диск на амазоне стоят не оправдано дорого).
  15. Развесистая сетка в начале - это GoogLeNet, а на выходе очень похоже на Single Shot Multibox Detector...прикольно, раньше народ SSD только с VGG16 тренировал...если с GoogLeNet'ом оно нормально тренируется, то по идее должно раз в 10 быстрее работать чем статейная имплементация Быстро однако RCNN устарели)
  16. А что за сетки у них для детекшена используются? SSD, или что-то RCNN-подобное?
  17. Зависит от того, как используете...если подаете на вход mean_file, то будет вычитаться файл, в вашем примере будет вычитаться средний пиксель. По большому счету там разница не критична.
  18. Обычно в сверточных сетях, при стыковке двух сверточных слоев, перед применением очередной свертки происходит суммирование некоторых карт признаков с предыдущего слоя в соответствии с картой смежности...но при настройке топологии сети, понятие карты смежности не исопльзуется. И тут возник вопрос: а как в caffe реализуется стыковка карт признаков со сверточным слоем?
  19. Можно посчитать средний пиксель по mean-файлу и таскать за собой только 3 числа (собственно для ImageNet все так и делают), +/- тоже самое получится.
  20. Зависит от сети, если везде понатыкаешь батч нормализаций, то можно и не использовать среднее...без них мат.ожидание лучще все же занулять. А в чем проблема нормализовать картинки? Вроде бы дешевая операция, по сравнению с расчетом тысяч сверток...
  21. Так там ведь оно переноситься должно тривиальным образом, т.к. работает как обычный фильтр
  22. OpenCV 3.1+Feature Detector+Java

    У вас точки матчатся как попало. Попробуйте сначала SIFT детектор/дескриптор и поматчить по L2.
  23. Всем привет. А кто-нибудь находил годную документацию по pycaffe (т.к. не совсем понятно, что в python интерфейс проброшено, а что нет), или быть может в курсе, как можно получить информацию по слоям загруженой сети? Конкретно интересует, как получить информацию о форме bottom и top блобов и параметры слоя. Методом тыка дошел только до того, что могу посмотреть отедльно информацию по блобам данных (без привязки к тому, какой слой в них пишет или принимает на вход), либо параметры слоев (да и то только на уровне формы и содержимого блобов с параметрами).
  24. Проблема решена. В коде биндинга из _caffe.cpp есть все необходимое.
  25. Всем привет. А кто-нибудь находил годную документацию по pycaffe (т.к. не совсем понятно, что в python интерфейс проброшено, а что нет), или быть может в курсе, как можно получить информацию по слоям загруженой сети? Конкретно интересует, как получить информацию о форме bottom и top блобов и параметры слоя. Методом тыка дошел только до того, что могу посмотреть отедльно информацию по блобам данных (без привязки к тому, какой слой в них пишет или принимает на вход), либо параметры слоев (да и то только на уровне формы и содержимого блобов с параметрами).
×