Здравствуйте.
Пишу сейчас детектор движения с трекингом. Схема стандартная.
1) Вычитание фона
2) Получение блобов
3) Трекинг их с помощью, например, фильтра Калмана
Такое решение вроде работает, но хотелось бы чего-нибудь получше. Например, когда 2-ва объекта передвигаются рядом, они слипаются в один.
Есть сейчас какие-нибудь более перспективные схемы? Что-то более современное для того, чтобы более четко разделять объекты на видео?
Я думал использовать плотный оптический поток, чтобы более четко разделять объекты.
Посмотрел пример tvl1_optical_flow в opencv_3.2. Как-то не очень.
Есть какие-нибудь идеи?