Перейти к содержимому
Compvision.ru

Поиск по сайту

Showing results for tags 'dnn'.



More search options

  • Search By Tags

    Введите теги через запятую.
  • Search By Author

Тип содержимого


Категории и разделы

  • Пакет OpenCV
    • OpenCV
    • Новости
    • Вопросы взаимодействия OpenCV + GDI, GDI+
  • Дополненная реальность (ARToolkit и др.)
    • ARToolkit
  • Нейросети
    • Вопросы по нейросетям и ИИ
  • Общие вопросы
    • Обсуждение общих вопросов
  • Другое

Найдено 5 результатов

  1. Есть проста сверточная сеть (keras+tf), размер входного слоя не фиксированный. При прогоне на CPU все нормально, чем больше входной изображение тем дольше обработка. Но при выборе Backend cuda получается такая картина: если прогонять данные одного размера (например 240х180), то все хорошо если размер входных данных постоянно меняется (сперва 240х180, потом 240х179 и так по кругу) то производительность падает в 10 раз. opencv 4.2.0-dev jetson nano
  2. Коллеги, суть проблемы: не удается загрузить мной созданную модель tensorFlow в opencv.dnn методом cv2.dnn.readNetFromTensorflow(weights,config) выдается ошибка распарсивания графа вида Error parsing text-format opencv_tensorflow.GraphDef: 4059:5: Unknown enumeration value of "DT_RESOURCE" for field "type". гугление приводит к рецептам вроде заморозьте граф, преобразуйте файл *.pbtxt с помощью файлов, входящих в opencv, конфиг для сети при этом скачайте по ссылке, везде рекомендации, примерно как тут: https://github.com/opencv/opencv/wiki/TensorFlow-Object-Detection-API вопрос: но ведь это-же для конкретной заранее спроектированной сети - mobilenet, rcnn, yolo и других известных, я правильно понимаю или нет? и если да, то, что делать, если моя структура самописная? это не lenet, не guglonet, не yolo, это моя собственная сетка. мне что, не удастся ее в dnn прочитать? Спасибо.
  3. Всем привет, Решил попробовать пистаь к caffe кастомные слои не на C++, а при помощи имеющего PythonLayer из стандартного caffe. Пишу простой сэмпл: 1) так выглядит sample.prototxt 2) так выглядит собственно код Python-слоя (должен тупо пропихивать блоб с данными дальше без изменения) 3) так выглядит код, который запускает сетку Какое поведение наблюдается при запуске сети: 1) Отключаю пулинг слой, сеть работает корректно. После forward pass я могу с выхода кастомного слоя забрать картинку в первозданном виде. 2) Отключаю python-слой а в качестве bootm для Python-слоя задаю просто data. Все работает корректно и на выходе получаю картинку вдвое меньшую, чем подавал на вход. 3) Запускаю сеть в которой сначала идет мой кастомный слой, а его выход идет на пулинг. Сеть не работает, ругаясь на невалидный блоб на входе пулинга: Может кто-то сталкивался с таким и сумел пофиксить?
  4. Всем привет, А у кого какие мысли, почему сверточные сетки, предтренированные на ImageNet так хорошо работают на большом спектре задач? Например, если взять ObjectDetection, то state of the art алгоритмы, такие как RCNN, SSD, etc. используют VGG16 предтренированную на ImageNet, затем файнтюнят на милипизерных базах PASCAL и получают одни из лучших результатов, например, на KITTI датасетах для детектирования машин/людей при том, что в ImageNet + PASCAL изображений людей дай бог тысяч 20 наберется...хотя по канонам надо брать много миллионов картинок, чтобы DL начал сходиться... Да и вообще большая часть статей по DL сейчас начинаются с того, что "давайте возьмемсеть, предтренированную на ImageNet"
  5. Всем привет, А кто-то сталкивался с тем, что при тренировке сеток на GPU появляется рябь на экране? Оно конечно вполне ожидаемо, когда тренировка бежит на основном GPU (раньше бывало что экран вообще гас), но рябь появляется даже тогда, когда тренирова бегает на дополнительной карте, никак не связанной с монитором. БП вроде тоже не слабый (1300W). Может кто знает, как пофиксить?
×