maxfashko

Пользователи
  • Количество публикаций

    69
  • Зарегистрирован

  • Посещение

  • Days Won

    2

maxfashko last won the day on March 15

maxfashko had the most liked content!

Репутация

5 Новичек

О maxfashko

  • Звание
    Эксперт

Посетители профиля

318 просмотров профиля
  1. Понятно, там все проще, да. Я пробовал с DIGITS SegNet обучать, и не вышло. Хорошо, указал я тестовую и тренировочную сетку: Каждые 100 итераций консоль выдает: Собственно что это за информация? В тестовой выборке у меня 9729 изображений. Это сетка сегментирует мои изображения в тестовой выборке? Если да, то почему этих "prob" и "label" так много? prob - 143 тысячи, label - 23 тысячи? по идее должно ведь только 100 картинок из тестовой выборки обрабатываться с батчем равным 1
  2. Это выставляется все настройками test в solver.prototxt? То есть test_iter=1000 - это то, сколько итераций по тестовой выборке алгоритм отработает. Тестовая выборка тоже в solver.prototxt устанавливается? Я о том, что идет процесс тренировки, затем после заданной итерации начался процесс тестирования, не останавливая обучение
  3. other.pdf Возник вопрос. Собственно как определить, что необходимо остановиться при обучении сети? Данные вот такие: При запуске обучения я устанавливаю писать в лог файл. По мере обучения я его парсю и смотрю, что же там вышло: Такие графики очень не информативны, и понять по ним, когда же необходимо остановиться нельзя. Когда итерации достигают величины тестирования: Собственно тоже не совсем понятно, что же происходит у нас на этапе тестирования, где я указал test_iter=1000
  4. Просто оставлю это здесь, может конечно повторюсь, но все же. http://homepages.inf.ed.ac.uk/rbf/CVonline/Imagedbase.htm
  5. Что значит квантизировать? Можете привести пример?
  6. Bes, есть ли что-то подробнее описывающее процесс создания таких сеток? Например на Caffe. Нам необходимо только описать структуру сети в конфигурации, или нужно еще что-то на крестах писать? Будет ли лучшим решением использовать Caffe, если переписывать данную сетку? Или стоит посмотреть на theano, tensorflow. Задача поставлена так: как можно быстрее, без задержек производить сегментацию на выше описанном железе. Думаю в дальнейшем на плате будет еще что-нибудь крутиться. Про Caffe знаю, что можно выбросить питоновский интерфейс и пользоваться чистыми крестами, это подходит очень кстати.
  7. Добрый день. Расскажите пожалуйста о вашем опыте работы с torch. Минусы и плюсы, а так же отзывы о производительности. Не будет ли проблем интеграции решения на данном фреймворка с другими модулями программы? Там насколько я понимаю Lua. Смотрю в сторону данного фреймворка потому, что имеется реализация многообещающей сетки ENet https://github.com/e-lab/ENet-training. Производительность колоссальная по сравнению с тем же SegNet на Jetson TX1. Авторы утверждают прям о реалтайме. Если есть какие то ограничения на данный фреймворк, и захочется переписать сетку на тот же Caffe, это возможно?
  8. Эти датчики уже используются. Задача стоит именно средствами компьютерного зрения дополнительно расчитывать отклонения.
  9. Добрый день. А как собственно определяется тангаж и крен ЛА? Для примера представим, что на нашем аппарате установлены камеры, которые передают показания бортовому вычислительному кластеру. К примеру имеется камера, установленная на передней части ЛА. Один из модулей в вычислительном кластере умеет определять линию горизонта, используя кадры с данной камеры. Тогда мы должны: 1) Взять за точку отсчета линию на камере, относительно которой будем сравнивать реальную линию горизонта. 2) Программно определяем на изображении реальную линию горизонта. Я верно мыслю? По каким далее формулам мы получим разницу между текущим тангажом и креном, и той линией горизонта которую нам насчитал программный модуль, для того чтобы в дальнейшем передать информацию автопилоту? В свою очередь последний будет корректировать тангаж и крен.
  10. Я ведь правильно понимаю, что изображение аннотируется в соответствии со знанием о моделируемой сцене? Если посмотреть видео примера ( минута 7 ) на камере отражающей аннотацию, нет некоторых объектов. Или это задано в настройках, или еще чего.
  11. Добрый день. Наткнулся на интересный тренажер для БПЛА. Кто-то уже пробовал? https://github.com/Microsoft/AirSim По поводу генерирования датасета говориться следующее: С виду этот LogViewer не имеет ничего полезного для автоматического аннотирования сцены. И вообще не понятно, возможно ли вытащить аннотированые изображения из тренажера.
  12. Дается ссылка на api https://github.com/pdollar/coco/blob/master/PythonAPI/pycocoDemo.ipynb Там рассказывают как просмотреть файл сегментации, а вот насчет конвертирования там ничего. Я не там ищу?
  13. Здравствуйте! Немного не понимаю как формат аннотации датасета MS COCO - "RLE" перегнать в бинарную маску. Я понял что это последовательность координат, но конвертировать не получается. Кто-нибудь занимался такими вещами, как это делается?
  14. Я скачал, поковырялся и понял, что без проблем это не заточить под мой пример. Начиная от переписывать код матлабовский, до проблем усреднения маски. Ну а обычный маттинг мне все же не подходит. Иногда граница маски на выходе моей сети слишком далека от сегментируемого объекта; выходит что я подаю на вход маттингу часть изображения заведомо относящуюся к другому классу ( это знаем только мы ). Его маттинг можно использовать только для головы и волос. Выполняем поиск морды-лица на картинке, выделяем необходимые точки, например овал лица. Подаем кропнутую область в grabcut ( он кстати неплохо удаляет фон от волос). Создаем маску для grabcut, где овал зальем 1. Далее используем сегментированное после grabcut изображение для создания маски на вход маттингу, заливая область волос серым. И только после этого в дело вступает matting. Только вот на всю сегментации уйдет около 30 секунд на процессоре. А так метод вроде рабочий. А вообще, все же необходимо еще собрать данные для обучения. Необходимы еще человеки. У меня не большие знания о pascal VOV****. Ведь имеются там изображения с полной аннотацией класса человек? Есть ли отличия в версиях по годам? Не считая кол-ва классов и кол-ва картинок? Какую лучше использовать?
  15. А что за информация в skin_no_skin.txt? Что Вы будете делать с большим количеством сегментов, при "реалистичной" сегментации? Как вы их обьедените, если задача стоит не в детектировании объекта, а точной попиксельной сегментации?