Jump to content
Compvision.ru

Pechkin80

Пользователи
  • Content count

    42
  • Joined

  • Last visited

  • Days Won

    1

Pechkin80 last won the day on May 3

Pechkin80 had the most liked content!

Community Reputation

2 Новичек

About Pechkin80

  • Rank
    Эксперт

Recent Profile Visitors

261 profile views
  1. Возможно, но там ничего не сказано про сегментацию и нет кода. Я бы хотел для начала попробовать как "чёрный ящик"
  2. Добрый день, хочу в целях самообразования поэксперементировать со случайными полями Маркова. Точнее сегментация с помощью их. Есть у кого нибудь скетч на питоне ? Знаю что варианты там есть всякие, но без разницы. Любое сойдёт. Интересен случай как обучение с учителем так и без. P.S. гуглить пробовал.
  3. Вроде понял что требуется SSD. Подскажите пожалуйста с confidence loss для SSD. Хочу разобраться с самой формулой и как она должна быть реализована с помощью tensorflow. 1)Есть формула для confidense loss. Я правильно понимаю что c - предсказания ? 2)Как должен выглядить член этого выражения для негативных классов, когда класс всего такой один(фон) ? Если считать буквально, то экспоненты сократатятся и в логариф попадёт единица, что даст ноль. 3)Какими средствами tensorflow должен считаться данный лосс: Есть tf.losses.softmax_cross_entropy и tf.nn.sampled_softmax_loss 4) Правильно ли я понимаю что надо их(лосы из tensorflow) использовать по отдельности для позитивных и негативных классов ?
  4. Добрый день, подскажите пожалуйста, ка должен выглядеть классификатор для данного детектора ? Не могу справится с последний домашний работой. https://github.com/Pin80/detector/blob/master/007-detection.ipynb
  5. Я просто сомневаюсь в том что нет другого способа оценить шум кроме как опытным путём т.е. после обучения. Мыже можем по выборки случайной последовательности определить статистическую значимость? Можем. Способ наверняка есть а значит не совсем "везде свои рецепты"
  6. Насколько я понимаю у нас шум ограничен снизу некоторой величиной может быть вследствии допустимой погрешности статистически значимой выборки. Может просто данных побольше ? Я сам давно окончил ВУЗ. Извините если где туплю. Надо повторить всё это. А PCA не самый хорошийалоритм для того исселедования что приведено в статье. SLPP и LPP показают лучшие результаты чем оригинал при детекции глаз и не только. А Умножение матриц должно хорошо распараллеливаться. P.S А RBF ядро уже стало как я понимаю стандартом для SVM. Линейная зависимость только в академических целях используется.
  7. Потомучто теряется часть информации. Вот взять к примеру дескриптор HOG с картинки 32х32. Размерность вектора будет огого, а чтобы увидеть его хотябы в 3D надо сильно сильно сплющить. И ещё вопрос получиться ли глазами классифицировать такую лепёшку.
  8. Попалась интересная статься о том как можно на глазок прочертить гиперплоскость при классификации через уменьшение размерности вектора. Некотрые методы даже приводят к улучшению точности, что само по себе удивительно. https://docviewer.yandex.ru/view/726924622/?*=mNGMxznLlOK90pLKFHLtmjYslzR7InVybCI6Imh0dHBzOi8vc2Nob2xhcndvcmtzLnJpdC5lZHUvY2dpL3ZpZXdjb250ZW50LmNnaT9hcnRpY2xlPTkyMjImY29udGV4dD10aGVzZXMiLCJ0aXRsZSI6InZpZXdjb250ZW50LmNnaT9hcnRpY2xlPTkyMjImY29udGV4dD10aGVzZXMiLCJ1aWQiOiI3MjY5MjQ2MjIiLCJ5dSI6IjQwOTk1Njk4MzE1NDUwNjg5NzIiLCJub2lmcmFtZSI6dHJ1ZSwidHMiOjE1NTMwNzAxNDYzNzEsInNlcnBQYXJhbXMiOiJsYW5nPWVuJnRtPTE1NTMwNzAxMzkmdGxkPXJ1Jm5hbWU9dmlld2NvbnRlbnQuY2dpJTNGYXJ0aWNsZSUzRDkyMjIlMjZjb250ZXh0JTNEdGhlc2VzJnRleHQ9SE9HK3JlZHVjdGlvbitkaW1lbnNpb25hbGl0eSZ1cmw9aHR0cHMlM0EvL3NjaG9sYXJ3b3Jrcy5yaXQuZWR1L2NnaS92aWV3Y29udGVudC5jZ2klM0ZhcnRpY2xlJTNEOTIyMiUyNmNvbnRleHQlM0R0aGVzZXMmbHI9MTA3NTgmbWltZT1wZGYmbDEwbj1ydSZzaWduPTAyNzRkMmQwNTFjOGI4M2VlOTRiNWE1YTQ0MzgwOGRjJmtleW5vPTAifQ%3D%3D&page=1&lang=en
  9. Круто, как будто алмазы свалились на голову)))
  10. А ссылку можно ? Я ни в коем случае не фанат SVM. Просто сетки мне начнут преподовать начиная с апреля, но неважно сетка или SVM. Везде нужно извлекать фичи, а там где всё делается само у меня вызывает подозрения. Пока я вижу картину что подходящие фичиэкстракторы для изображений есть только в питоновских библотеках чтобы можно потом над этими данными проводить нужные манипуляции. На этапе прототипирования ойдёт, а дальше ?
  11. Я неправильно высказался, я имел ввиду сам дескриптор HOG. Про алгоритм я читал. Меня очень сильно смущает что на просторах интернета нигде не встретил чтобы с ним делали какието манипуляции перед отправкой в SVM. Толи всё что нужно сделано при его приготовлении, толи там не просто набор гистограмм, а ёщё чтото.
  12. Да HOG то получается сам по себе. Но это чёрный ящик и, причём чёрный ящик большого размера и что ним делать. Это же не просто датасет как я понимаю, там своя структура. И непонятно когда он изготавливался что там использовалось из стандартных техник и потому нет смысла повторно использовать, а что нет. Можно конечно сырцы либы копать, но это долго и сначало хотелось бы знать что другого пути нет.
  13. Кому чёрный, а кому серобуромалиновый в крапинку)
×