Jump to content
Compvision.ru

All Activity

This stream auto-updates     

  1. Last week
  2. Пожалуйста, пишите по сути, что-нибудь практически полезное.
  3. Меня одного гугл для распознавания речи бесит? И голосовой поиск ненавижу_
  4. Сейчас разве это не совсем все роботизировано ? просто на датчики движения реагируют камеры и под них подобрано нужное программное обеспечение Тут, кстати отличный выбор для таких реший, усмные камеры у них называютсья У меня знакомый говорил, что писать программы на Си Шарпе для таких систем тот еще гемор...
  5. А не проще купить веб камеру ?
  6. Интересует как работает алгоритм (математика) определения углов схождения и развала в 3D стендах. Общий алгоритм к колесам автомобиля крепятся отражающие мишени (вложение крепление мишеней), спереди перед автомобилем стоят две камеры. Автомобиль откатывается назад на заданный (???) угол, потом вперед, таким образом рассчитывается ось вращения колеса(???). После чего рассчитываются углы схода и развала (вложение углы сход и развал). Очевидно что на основе компьютерного зрения (предполагается использовать solvepnpransac из opencv) можно получить только расстояние до каждой из мишеней (вектор T), и ее ориентацию (матрица R), так же скорее всего камеры имеют матрицы взаимной калибровки M, для перехода от системы координат левой камеры к системе координат правой камеры. С плоскостью автомобиля (для расчета развала) вроде бы все понятно. У нас есть 4 вектора положения мишеней T (для 4 колес), по ним можно составить уравнение плоскости. Вопросы 1) Как найти ось вращения колеса? Мишень не перпендикулярна камере и колесу, а находится под углами (вложение наклон мишеней), соответственно векторное произведение между двумя положениями не даст вектор вращения колеса 2) Минимизация всех ортов Z (направлен вперед к камере) из матрицы поворота? 3) Как найти направление движения и как рассчитать угол схождения?
  7. Earlier
  8. Вот что мне тут гугл подбросил. Там ссылки на несколько десятков проектов. https://github.com/timzhang642/3D-Machine-Learning Я бы использовал угловой детектор и обучил бы классификатор так, что-бы каждый объект со своими углами поворота являлся отдельным классом.
  9. Это или это не работает?
  10. Объясните пожалуйста поподробней. С документацией ознакомился, не совсем понятно применение в моем случае.
  11. Глава 12. Сетевые настройки. Эх, приходится советовать открывать паспорт.
  12. Здравствуйте. Меня зовут Сергей. Я использую камеры HIWATCH DS-T101 подключенные к регистратору HIWATCH DS-104. У меня следующий вопрос: на данный момент я экспериментирую с компьютерным зрением . Программу пишу на python используя библиотеку opencv. В интернете я нашел много информации по получению видео потока с IP камер, к примеру: #receiving video from IP camera import cv2######################ip camers stream = cv2.VideoCapture('access protocol://login_cam:password_cam@IP') while True: r, f = stream.read() cv2.imshow('IP Camera stream',f) if cv2.waitKey(1) & 0xFF == ord('q'): break cv2.destroyAllWindows() Как мне сделать то же самое но с регистратором ?
  13. Добрый день.

    Меня зовут Виктор. Обращаюсь к Вам со следующим вопросом.

    С помощью квадрокоптера ведется наблюдение за движением стаи рыб в озере. В режиме онлайн видио передается наблюдателю на землю. Стая небольшая - 10 - 12 особей. Хотелось бы посчитать число особей в стае, выделить контур стаи, отследить движение одной особи. Мне кажется, эту задачу можно решать в openCV. Опыта у меня нет. 

    Посоветуйте, пожалуйста, с чего начать.

    Кадр наблюдения прилагаю.

    С уважением

    Буякас Виктор Игнатьевич.

    bujakas@yandex.ru

     

     

    Кадр наблюдения Ин Внутр Вод.jpg

    1. Nuzhny

      Nuzhny

      Не знаю, почему мне стало видно это сообщение. Это не личка, а типа записи на стене пользователя?

      Но в юбом случае: в таких задачах самое главное - это большой объём первоначальных данных, чтобы на них обучить модель для детектирования рыб. Поэтому вопрос: сколько таких данных есть? Сколько видео и какой они продолжительности?

      1. Если много: сотни, тысячи и больше, то можно попробовать обучить нейросеть.

      2. Если меньше, то что-то типа HOG.

      3. Если вообще почти ничего, то делать детектор движения на основе вычитания фона и того факты, что рыбы темнее воды.

       

  14. Спасибо. Нашел у них же еще более интересное решение, которое на выходе выдает 3D координаты (21 точку на каждой руке). Не знаю, правда, насколько все это производительно - надо пробовать... https://github.com/lmb-freiburg/hand3d
  15. Ну не факт . Наиболее частые ошибки: не тот порядок каналов; неправильная раскладка цветовых данных (чередующиеся или по плоскостям); не вычтенное среднее, не тот диапазон (0-255 вместо 0-1).
  16. Спасибо, значит проблема не в конфигах.
  17. Иллюзий по поводу простоты я не строю Но меньше всего хочется двигаться в неправильном направлении... Насколько реалистична такая реализация: 1. Раз в несколько секунд с помощью AAM или ASM находим очертания интересующего нас объекта, а также ключевые точки внутри него для последующего отслеживания. 2. Отслеживаем найденные точки (обычный tracking) с целью определения возможного изменения положения объекта в пространстве. И по этим точкам пересчитываем углы наклона. 3. Если отслеживаемые точки потеряны, то заново запускаем п. 1, ну и просто с какой-то периодичностью запускаем п. 1 для корректировки п. 2. И кто-нибудь пробовал вот это решение - насколько оно точное и производительное? https://docs.opencv.org/4.1.0/d2/d42/tutorial_table_of_content_cnn_3dobj.html 3D модели в формате ply я вполне могу насоздавать для обучения. Правда, насколько я понял, таким образом я смогу только обнаружить объект и узнать его положение, но не смогу получить ключевые точки/очертания объекта.
  18. Просто тут не будет AAM , по опыту, довольно медленный. ASM , как правило, быстрый, но дерганый, нужно сглаживать движение. Посмотрите этот проект: https://github.com/TadasBaltrusaitis/CLM-framework/tree/master Там есть и матлабовские скрипты для обучения моделей. Может пригодится еще : https://github.com/patrikhuber/eos
  19. Для начала соберите изображения, на которых сеть ошибается и дообучите сеть на них. (лучше новые, собранные при реальной работе) Можно просто дублировать их в датасете, чтобы встречались почаще. Ну и повторять процесс, пока результат не устроит.
  20. Правильно ли я понимаю, что реализация должна быть примерно следующей: 1. Найти искомый объект (объекты) в кадре с помощью классификационной нейронной сети. 2. В найденных объектах с помощью AAM найти ключевые точки. 3. По геометрии взаимного расположения точек в пространстве или с помощью регрессионной нейронной сети (по статистике расположения координат и соответствующих им углам) определить углы наклона. Или возможна более простая реализация? И насколько производительна может быть такая схема для отслеживания изменения состояний объектов в режиме реального времени на не очень производительном железе?
  21. Добрый день, я пытаюсь разобраться с TFOD и никак не могу понять, почему нейронка пропускает объекты. Размечено всё хорошо, и на одной нейросети ( у других людей, всё ок. У меня не особо получается сделать чтобы находило все) Использую я faster_rcnn_resnet50_coco.config На 10000 шагов страдает определение объектов. (классификация уже лучше) Больше чем 10000 шагов очень хорошо всё с классификацией, но всё так же остается с определением объектов. Но когда модель обучается на faster_rcnn_inception_resnet_v2_atrous_coco всё отлично и с тем и с тем, НО он очень долго обучается и медленно работает. Есть какие то соображения? Может кто сталкивался?
  22. Без CUDA тоже будет работать, но медленней. По факту ключевые точки на лице ищутся не методом Виолы-Джонса, им только лицо, а точки уже другими способами: AAM, нйросети (регрессия) и т.д. Возможно, тебе подойдут active shape models, которые до нейростей были лидером по качеству и не требовали видеокарты. Хотя сейчас с OpenVINO многие нейросети и так быстро работают.
  23. Не нашел ни одного туторила о том, как самому средствами openpose обучить нейронную сеть находить ключевые точки на своих объектах. Плохо искал или таких средств не существует? Кроме того, openpose требует CUDA, что мне не подходит...
  24. Посмотрите в сторону openpose, как делается тренировка скелета или вот....
  25. Добрый день! Подскажите в каком направлении копать. Задача: в режиме реального времени в кадре найти определенный объект, например, стул. Кроме того, определить ключевые/крайние точки (ножек, спинки и другие) - и, как следствие, определить угол наклона этого объекта относительно камеры по всем 3 осям. Насколько я понимаю, задача не сильно отличается от того же определения ключевых точек на лице методом Виолы-Джонса, но мне не понятно каким образом натренировать поиск не просто самого объекта, а конкретных точек на нем. Какие варианты реализации задачи существуют и какие из них наиболее точные и производительные?
  1. Load more activity
×