Перейти к содержимому
Compvision.ru

Поиск по сайту

Showing results for tags 'deep learning'.



More search options

  • Search By Tags

    Введите теги через запятую.
  • Search By Author

Тип содержимого


Категории и разделы

  • Пакет OpenCV
    • OpenCV
    • Новости
    • Вопросы взаимодействия OpenCV + GDI, GDI+
  • Дополненная реальность (ARToolkit и др.)
    • ARToolkit
  • Нейросети
    • Вопросы по нейросетям и ИИ
  • Общие вопросы
    • Обсуждение общих вопросов
  • Другое

Найдено 32 результата

  1. Всем привет, Возник такой вопрос: а какой метод загрузки данных и формировани батчей сейчас является "best practice" в TensorFlow? И кто какие контейнеры использует для хранения картинок и метаинформации к ним? Судя по этой странице из официального гайда, как-то там народ не заморачивается насчет быстрых контейнеров, типа HDF5 или LMDB...и не совсем понятно, как при таком подходе грузить сложную метаинформацию типа боксов для object detection etc.
  2. Добрый день. Наткнулся на интересный тренажер для БПЛА. Кто-то уже пробовал? https://github.com/Microsoft/AirSim По поводу генерирования датасета говориться следующее: С виду этот LogViewer не имеет ничего полезного для автоматического аннотирования сцены. И вообще не понятно, возможно ли вытащить аннотированые изображения из тренажера.
  3. Ковырял тут на досуге задачу семантической сегментации, пробовал сетку SegNet и возник вопрос: а чего там означают веса по классам? Если верить референсным статьям, там классы должны взвешиваться с величиной, обратной площади, занимаемой этими классами...но если посмотреть в их сэмпл-модели, то можно заметить, что там есть веса сильно больше единицы (segnet_train.prototxt): layer { name: "loss" type: "SoftmaxWithLoss" bottom: "conv1_1_D" bottom: "label" top: "loss" softmax_param {engine: CAFFE} loss_param: { weight_by_label_freqs: true ignore_label: 11 class_weighting: 0.2595 class_weighting: 0.1826 class_weighting: 4.5640 class_weighting: 0.1417 class_weighting: 0.9051 class_weighting: 0.3826 class_weighting: 9.6446 class_weighting: 1.8418 class_weighting: 0.6823 class_weighting: 6.2478 class_weighting: 7.3614 } } Что как-то контринтуитивно... как эти веса посчитать для своего кастомного датасета?
  4. Всем привет, А кто-то имеет опыт использования Amazon инстансов для тренировки сетей? Нашел описание тут: https://aws.amazon.com/ru/ec2/dedicated-hosts/pricing/ Но не совсем понятно, какая разница по цене между p2.xlarge, p2.8xlarge, p2.16xlarge (в прайсе есть только общая цена для p2 инстансов)... Заранее спасибо.
  5. Всем привет, А у кого-то есть опыт развертывания Tensorflow с поддержкой CUDA на картах последнего поколения (1080/TitanX) с CUDA 8.0? Что-то у меня при вызове ./configure вообще ничего про наличие CUDA не сообщается, хотя карта стоит и в том-же caffe она подцепилась вообще без проблем.
  6. WaveNet - генеративная модель звука от DeepMind: https://deepmind.com/blog/wavenet-generative-model-raw-audio/
  7. Нашел занятный проект пока не ковырял, но выглядит интересно: http://pjreddie.com/darknet/yolo/
  8. Всем привет. А кто-нибудь находил годную документацию по pycaffe (т.к. не совсем понятно, что в python интерфейс проброшено, а что нет), или быть может в курсе, как можно получить информацию по слоям загруженой сети? Конкретно интересует, как получить информацию о форме bottom и top блобов и параметры слоя. Методом тыка дошел только до того, что могу посмотреть отедльно информацию по блобам данных (без привязки к тому, какой слой в них пишет или принимает на вход), либо параметры слоев (да и то только на уровне формы и содержимого блобов с параметрами).
  9. Всем привет. А кто-нибудь находил годную документацию по pycaffe (т.к. не совсем понятно, что в python интерфейс проброшено, а что нет), или быть может в курсе, как можно получить информацию по слоям загруженой сети? Конкретно интересует, как получить информацию о форме bottom и top блобов и параметры слоя. Методом тыка дошел только до того, что могу посмотреть отедльно информацию по блобам данных (без привязки к тому, какой слой в них пишет или принимает на вход), либо параметры слоев (да и то только на уровне формы и содержимого блобов с параметрами).
  10. Всем привет, Решил попробовать пистаь к caffe кастомные слои не на C++, а при помощи имеющего PythonLayer из стандартного caffe. Пишу простой сэмпл: 1) так выглядит sample.prototxt 2) так выглядит собственно код Python-слоя (должен тупо пропихивать блоб с данными дальше без изменения) 3) так выглядит код, который запускает сетку Какое поведение наблюдается при запуске сети: 1) Отключаю пулинг слой, сеть работает корректно. После forward pass я могу с выхода кастомного слоя забрать картинку в первозданном виде. 2) Отключаю python-слой а в качестве bootm для Python-слоя задаю просто data. Все работает корректно и на выходе получаю картинку вдвое меньшую, чем подавал на вход. 3) Запускаю сеть в которой сначала идет мой кастомный слой, а его выход идет на пулинг. Сеть не работает, ругаясь на невалидный блоб на входе пулинга: Может кто-то сталкивался с таким и сумел пофиксить?
  11. Всем привет, А у кого какие мысли, почему сверточные сетки, предтренированные на ImageNet так хорошо работают на большом спектре задач? Например, если взять ObjectDetection, то state of the art алгоритмы, такие как RCNN, SSD, etc. используют VGG16 предтренированную на ImageNet, затем файнтюнят на милипизерных базах PASCAL и получают одни из лучших результатов, например, на KITTI датасетах для детектирования машин/людей при том, что в ImageNet + PASCAL изображений людей дай бог тысяч 20 наберется...хотя по канонам надо брать много миллионов картинок, чтобы DL начал сходиться... Да и вообще большая часть статей по DL сейчас начинаются с того, что "давайте возьмемсеть, предтренированную на ImageNet"
  12. Всем привет, А кто-то сталкивался с тем, что при тренировке сеток на GPU появляется рябь на экране? Оно конечно вполне ожидаемо, когда тренировка бежит на основном GPU (раньше бывало что экран вообще гас), но рябь появляется даже тогда, когда тренирова бегает на дополнительной карте, никак не связанной с монитором. БП вроде тоже не слабый (1300W). Может кто знает, как пофиксить?
  13. Всем привет, А может кто-то сталкивался с исчерпывающим описанием процесса обучения рекурентных сетей (конкретно интересует обучение LSTM'а)? Собственно имеются два вопроса по этому поводу: 1) PBTT подразумевает, что ошибка считается в виде суммы ошибок для всей цепочки LSTM'ов, и не понятно, откуда брать эталонный выход для промежуточных моментов времени, или все таки процесс тренировки там подразумевает, что в момент обуения мы полностью контролируем клеточное состояние в каждый момент времени? 2) Кто-нибудь расписывал руками производные для LSTM'а? А то chain rule расписывать там как-то совсем не радостно.
  14. Всем привет, А кто-то пользовался Slice-слоями в кафе? Не совсем понятен механизм того, как он нарезает картинку... Опытным путем было установлено, что при исопльзовании его вот так: Можно порезать блоб MxNxC на два размерами Mx[0:20]xC и Mx[20:N]xC соответственно. Т.е. вертикальными линиями. При этом логично было-бы предположить, что axis: -3 должно позволять резать картинку по вертикали, но что-то как-то оно с ошибками падает, типа такой:
  15. Обычно в сверточных сетях, при стыковке двух сверточных слоев, перед применением очередной свертки происходит суммирование некоторых карт признаков с предыдущего слоя в соответствии с картой смежности...но при настройке топологии сети, понятие карты смежности не исопльзуется. И тут возник вопрос: а как в caffe реализуется стыковка карт признаков со сверточным слоем?
  16. Всем привет, В теории, если мы знаем размерность Вапника-Червоненкиса для нейронной сети, то мы можем примерно оценить минимальное число сэемплов, необходимое для сходимости нейронной сети. Но на практике я нигде не встречал методов, позволяющих посчитать VC-размерность для сети произвольной топологии. Может кто-то встречал подобные работы? Заранее спасибо.
  17. Всем привет, Решил я поиграться с разрекламированными DIGITS, но тут возникла проблема: DIGITS не видит GPU устройство, хотя nvcaffe собран с CUDA/cuDNN и `caffe device_query -gpu=0` работает корректно. Может кто-то с таким сталкивался?
  18. Всем привет, Возник такой вопрос: Вот хочу я на основе DL сделать, например, детектор котиков. И вот тут есть два варианта решения задачи: 1) Насобирать огромную базу изображений котиков и тренировать на них сетку в надежде, что база достаточно репрезентативная и сетка обобщится хорошо. 2) Взять предтренированную на ImageNet сетку и зафайнтюнить её базой котиков среднего размера. Учитывая опыт всяких RCNN и YOLO, тренировка на ImageNet + файнтюнинг на PASCAL дает близкие к state of the art результаты на задачах, например детектированию пешеходов. Хотя в ImageNet + PASCAL число людей вряд ли достигает хотя бы 1M...а вот методов основанных только на тренировке большой базой, без предтренировке на ImageNet в топах не видно...отсюда возникает вопрос, что же все таки лучше: специализированный детектор для конкретного класс объектов, или что-то универсальное, что умеет различать несколько различных классов? В литературе сравнений таких не встреал.
  19. Всем привет, Что-то никак не могут найти предтренированную на ImageNet модель, label и mean файлы для каффе для сетки VGG16, может кто-то в курсе где можно скачать? Заранее спасибо.
  20. Всем привет, При тренировка сеток для классификации, обычно используются сбалансированные базы с +/- равным числом сэмплов для каждого класса + фона. А кто-то имеет опыт тренировки сетей на разбалансированных базах? Например, если я хочу зафайнтюнить какую-то крутую сетку (типа VGG16/googlenet), обученую на ImageNet, при помощи своей базы, содержащей очень много картинок(скажем пару миллионов) некоторого класса (или нескольких классов), то скорей всего при тренировке я убью фичи, которые были получены на ImageNet. Публикаций по теме я не встречал, может кто-то сталкивался с такой проблемой?
  21. Всем привет, А кто-то сталкивался с задачей переиспользования кусков сетей в caffe? Например, я хочу использовать часть сверточных слоев от VGG16 при тренировке своей кастомной сети, как именно это технически реализуется? Тупо копипаста из одного caffemodel в другой весов не работает...caffe такие файлы просто игнорит.
  22. Наткнулся на Deep Visualization Toolbox, все работает на входящих в комплект данных, но что то не нашел как визуализировать мою собственную сетку. Пакет, как я понял, потребляет какие-то дополнительные данные кроме среднего, caffemodel и деплоя сети. Кто-нибудь разбирался с этой штукой ? https://github.com/yosinski/deep-visualization-toolbox
  23. Всем привет, А кто-то пробовал для этого object detection алгоритма тренировать собственные сетки вместо штатных VGG16 и ZF, чтобы алгоритм работал в реальном времени и какие базы для этого использовали?
  24. Всем привет. Вообщем столкнулся с такой неожиданной проблемой: Устанавливал на настольный ПК Ubuntu 14.04 и столкнулся с тем, что при начале установки процесс падал с ошибкой Проблему удалось решить путем выдергивания дискретной видеокарты и использования при установке инетрированной в процессор. После установки системы, я накатил драйвер nvidia-352 (вроде бы самый новый из имеющихся), воткнул обратно видяху, включил по новой ПК... Теперь во время загрузки системы начинает показывать заставка с надписью Ubuntu и статусбаром, затем ПК как-будто выключается (кулера шуметь перестают, экран гаснет) и через пару секунд снова включается и выпадает окно, что система может стартануть только в режиме низкого разрешения (что у системы тоже не получается), как вариант могу зайти в консольку. Но дальше ни в какую( Летом я уже пользовался такой видеокартой на ПК с Ubuntu и тогда у меня не было вообще никаких проблем с её установкой... Может кто-то сталкивался с подобной проблемой и имеет рецепт её решения? з.ы. в Windows 7 завелась с полпинка после установки скачанных с офф.сайта дров...
  25. Всем привет, Возник такой вопрос: раньше серьезное оборудование для тренировки моделек deep learning я использовал только на работе, как следствие - я не заморачивался тем, сколько электричества потребляют машины для тренировки. А тут решил собрать для личных нужд машинку с GPU'шиной уровня Nvidia gtx980ti / Titan X и стало интересно, а сколько киловат в месяц у меня будет жрать такая видяха при non-stop тренировке. Кто-то имеет опыт использования подобных карт в домашних условиях и может поделиться опытом, насколько это разорительно? Заранее спасибо)
×