Перейти к содержимому
Compvision.ru

Smorodov

Главные администраторы
  • Количество публикаций

    3 873
  • Зарегистрирован

  • Посещение

  • Days Won

    346

Сообщения, опубликованные пользователем Smorodov


  1. Сейчас в основном дообучают, берут готовую сеть, срезают последние слои, на их место ставят свои. При обучении исходные слои "замораживают" (ставят скорость обучения в 0). Сеть при этом учится быстро.


  2. Выделение памяти на девайсе процесс не быстрый. А при изменении размеров входного тензора сеть каждый вызов ее перевыделяет. 

    Сделайте вход максимального размера, и используйте поля. Еще лучше заморозить ее с фиксированным входом.  


  3. Я не в курсе цели трекания шахматки в вашем случае, но если это не для калибровки, то попробуйте эту либу: http://nghiaho.com/?page_id=576

    Или фильтруйте уже 6D положение доски. Там все равно решается переопределенная СЛАУ и выдается решение по методу наименьших квадратов. Если делаете сглаживание для каждой точки, выглядеть будет конечно лучше, но точности вряд ли добавит. 

    Как компромисс, используйте сглаженное 6D положение и проецируйте обратно на экран измеренные по доске точки модели. 

    • Thanks 1

  4. Корень можно не извлекать, лучше в квадрат возвести радиус.

    Ну и, как мне видится, атомный доступ весь эффект сводит на нет.

    Может в параллель только флаги расставить, а скомпоновать массив на CPU ?

     


  5. Про специальные форматы не слышал, хотя может и есть.

    Для сжатия можно попробовать snappy 250 Mб/сек скорость сжатия. 

    Как экзотический вариант, выделить обычные кадры подходящего размера, и сохранять в них как в буферах данные о точках. Только сжатие с потерями тут не прокатит ;)

    Можно попробовать применить какую нибудь из баз данных, типа HDF5 или LMDB, тем более есть поддержка в OpenCV.


  6. Ну если облако точек относительно системы координат камеры известно, и известны координаты камеры во внешнем мире, то преобразование производится переносом и поворотом точек на разницу. Чтобы сделать быстро, можно использовать шейдеры, opencl, cuda, ... короче GPU.  Подружиться с GPU все равно придется. 


  7. Если есть RGBD, то поставьте где-нибудь маркер в виде ортов системы координат. Распознавайте ее точки на цветном изображении, затем, используя глубину, получайте 3Д точки. Есть базис, есть координаты и ориентация камеры. Преобразование x,y,D в 3д точку должно быть в API камеры.

    В принципе, при известных размерах маркера, задача решается даже без компоненты глубины, гуглите opencv solvepnp.

    По поводу скелетов посмотрите здесь: https://github.com/topics/skeleton-tracking


  8. Сам бы хотел знать :)

    Обычно обострение начинается ближе к сессии.

    А вообще, раньше был хороший форум у МГУ-шников, правда сейчас не знаю как он там.

    Многие пересели на нейросети. 

×