Перейти к содержимому
Compvision.ru

Поиск по сайту

Showing results for tags 'caffe'.



More search options

  • Search By Tags

    Введите теги через запятую.
  • Search By Author

Тип содержимого


Категории и разделы

  • Пакет OpenCV
    • OpenCV
    • Новости
    • Вопросы взаимодействия OpenCV + GDI, GDI+
  • Дополненная реальность (ARToolkit и др.)
    • ARToolkit
  • Нейросети
    • Вопросы по нейросетям и ИИ
  • Общие вопросы
    • Обсуждение общих вопросов
  • Другое

Найдено 35 результатов

  1. Как посчитать кол-во вычислекний в caffe модели которое требуется для прямого и обратного прохода? По идее это можно будет вычислять "статически" для каждого типа слоя имея параметры слоя? Адекватно ли будет потом сравнивать, что например такая то видеокарта на такой то модели сделала столько то вычислений во флопсах, а такая то столько. Есть идея сделать аналог распределенного рендеринга (вот описание идеи распределенного рендеринга) только для обучения сетей. Это может быть полезно для обучения разных сетей для одной и той же задачи, для обучения одних и тех же сетей только с разными параметрами, а так же для обучения одних и тех же сетей на разных данных для энсэмблинга. а может такое уже что то есть? Т.е. кол-во потраченных\использованных флопсов можно использовать как некий рейтинг на торрентах и таким образом шарить вычислительные ресурсы.
  2. Встречал-ли кто нибудь отдельный, без зависимоcти от CAFFE, вытаскиватель весов из caffemodel ?
  3. Всем привет, Что-то никак не могут найти предтренированную на ImageNet модель, label и mean файлы для каффе для сетки VGG16, может кто-то в курсе где можно скачать? Заранее спасибо.
  4. Если не использовать DIGITS, то как можно построить график для Loss и Accuracy используя Caffe? только перенаправляя логи в файл и потом их парсить и плотить сторонним скриптом после окончания работы? никаких более нативных вариантов? http://stackoverflow.com/questions/31978186/monitor-training-validation-process-in-caffe
  5. Всем привет, При тренировка сеток для классификации, обычно используются сбалансированные базы с +/- равным числом сэмплов для каждого класса + фона. А кто-то имеет опыт тренировки сетей на разбалансированных базах? Например, если я хочу зафайнтюнить какую-то крутую сетку (типа VGG16/googlenet), обученую на ImageNet, при помощи своей базы, содержащей очень много картинок(скажем пару миллионов) некоторого класса (или нескольких классов), то скорей всего при тренировке я убью фичи, которые были получены на ImageNet. Публикаций по теме я не встречал, может кто-то сталкивался с такой проблемой?
  6. Всем привет, А кто-то сталкивался с задачей переиспользования кусков сетей в caffe? Например, я хочу использовать часть сверточных слоев от VGG16 при тренировке своей кастомной сети, как именно это технически реализуется? Тупо копипаста из одного caffemodel в другой весов не работает...caffe такие файлы просто игнорит.
  7. Наткнулся на Deep Visualization Toolbox, все работает на входящих в комплект данных, но что то не нашел как визуализировать мою собственную сетку. Пакет, как я понял, потребляет какие-то дополнительные данные кроме среднего, caffemodel и деплоя сети. Кто-нибудь разбирался с этой штукой ? https://github.com/yosinski/deep-visualization-toolbox
  8. Всем привет, А кто-то пробовал для этого object detection алгоритма тренировать собственные сетки вместо штатных VGG16 и ZF, чтобы алгоритм работал в реальном времени и какие базы для этого использовали?
  9. Как можно менять BLAS билиотеки для Caffe на Ubuntu 14.04? Например OpenBlas на MKL? Надо ли перекомилировать каждый раз caffe заново? или можно настроить какие то среды типа как virtualenv в python или перед запуском как то менять переменные среды? Нужно ли использовать какие то специальные форки caffe для использования всех CPU или достаточно распараллеливания внутри BLAS? related info: http://courses.cs.tau.ac.il/Caffe_workshop/Bootcamp/pdf_lectures/Lecture 8 CPU performance.pdf related threads: https://github.com/BVLC/caffe/pull/80
  10. Всем привет. Дошли тут у меня руки наконец плотно заняться Deep Learning. Для тестов выбрал фреймворк caffe, как один из самых популярных и просто интегрирующихся с opencv. И тут сразу возникла непонятная проблема: выбрал я топологию сети (нечто похожее на LeNet), составил обучающую/тренировочную выборки(выборка тренировочная правда не сбалансирована, но вряд ли это является причиной наблдаемого поведения) и начал тренировать методом стохастического градиентного спуска. Первое подозрительное поведение: сетка буквально за 100-1000 итераций скатывается в некое состояние равновесия с не слишком высоким detection rate и сидит в нем до конца обучения (даже после >1000000 итераций картина особо не меняется). Ну ок, решил что у меня офигенная архитектура сети и все так быстро учится...заинтегрировал это в opencv приложение и тут вылезло второе подозрительное поведение: на любые входные данные сеть генерирует один и тотже отклик...если брать сетки с разных эпох, то картина меняется численно но качественно всегда наблюдаю одно и тоже поведение. Кто-то сталкивался с подобными проблемами и возможно знает в чем может быть причина? Заранее спасибо.
×