Jump to content
Compvision.ru

Pechkin80

Пользователи
  • Content count

    39
  • Joined

  • Last visited

  • Days Won

    1

Pechkin80 last won the day on May 3

Pechkin80 had the most liked content!

Community Reputation

2 Новичек

About Pechkin80

  • Rank
    Эксперт

Recent Profile Visitors

197 profile views
  1. Вроде понял что требуется SSD. Подскажите пожалуйста с confidence loss для SSD. Хочу разобраться с самой формулой и как она должна быть реализована с помощью tensorflow. 1)Есть формула для confidense loss. Я правильно понимаю что c - предсказания ? 2)Как должен выглядить член этого выражения для негативных классов, когда класс всего такой один(фон) ? Если считать буквально, то экспоненты сократатятся и в логариф попадёт единица, что даст ноль. 3)Какими средствами tensorflow должен считаться данный лосс: Есть tf.losses.softmax_cross_entropy и tf.nn.sampled_softmax_loss 4) Правильно ли я понимаю что надо их(лосы из tensorflow) использовать по отдельности для позитивных и негативных классов ?
  2. Добрый день, подскажите пожалуйста, ка должен выглядеть классификатор для данного детектора ? Не могу справится с последний домашний работой. https://github.com/Pin80/detector/blob/master/007-detection.ipynb
  3. Я просто сомневаюсь в том что нет другого способа оценить шум кроме как опытным путём т.е. после обучения. Мыже можем по выборки случайной последовательности определить статистическую значимость? Можем. Способ наверняка есть а значит не совсем "везде свои рецепты"
  4. Насколько я понимаю у нас шум ограничен снизу некоторой величиной может быть вследствии допустимой погрешности статистически значимой выборки. Может просто данных побольше ? Я сам давно окончил ВУЗ. Извините если где туплю. Надо повторить всё это. А PCA не самый хорошийалоритм для того исселедования что приведено в статье. SLPP и LPP показают лучшие результаты чем оригинал при детекции глаз и не только. А Умножение матриц должно хорошо распараллеливаться. P.S А RBF ядро уже стало как я понимаю стандартом для SVM. Линейная зависимость только в академических целях используется.
  5. Потомучто теряется часть информации. Вот взять к примеру дескриптор HOG с картинки 32х32. Размерность вектора будет огого, а чтобы увидеть его хотябы в 3D надо сильно сильно сплющить. И ещё вопрос получиться ли глазами классифицировать такую лепёшку.
  6. Попалась интересная статься о том как можно на глазок прочертить гиперплоскость при классификации через уменьшение размерности вектора. Некотрые методы даже приводят к улучшению точности, что само по себе удивительно. https://docviewer.yandex.ru/view/726924622/?*=mNGMxznLlOK90pLKFHLtmjYslzR7InVybCI6Imh0dHBzOi8vc2Nob2xhcndvcmtzLnJpdC5lZHUvY2dpL3ZpZXdjb250ZW50LmNnaT9hcnRpY2xlPTkyMjImY29udGV4dD10aGVzZXMiLCJ0aXRsZSI6InZpZXdjb250ZW50LmNnaT9hcnRpY2xlPTkyMjImY29udGV4dD10aGVzZXMiLCJ1aWQiOiI3MjY5MjQ2MjIiLCJ5dSI6IjQwOTk1Njk4MzE1NDUwNjg5NzIiLCJub2lmcmFtZSI6dHJ1ZSwidHMiOjE1NTMwNzAxNDYzNzEsInNlcnBQYXJhbXMiOiJsYW5nPWVuJnRtPTE1NTMwNzAxMzkmdGxkPXJ1Jm5hbWU9dmlld2NvbnRlbnQuY2dpJTNGYXJ0aWNsZSUzRDkyMjIlMjZjb250ZXh0JTNEdGhlc2VzJnRleHQ9SE9HK3JlZHVjdGlvbitkaW1lbnNpb25hbGl0eSZ1cmw9aHR0cHMlM0EvL3NjaG9sYXJ3b3Jrcy5yaXQuZWR1L2NnaS92aWV3Y29udGVudC5jZ2klM0ZhcnRpY2xlJTNEOTIyMiUyNmNvbnRleHQlM0R0aGVzZXMmbHI9MTA3NTgmbWltZT1wZGYmbDEwbj1ydSZzaWduPTAyNzRkMmQwNTFjOGI4M2VlOTRiNWE1YTQ0MzgwOGRjJmtleW5vPTAifQ%3D%3D&page=1&lang=en
  7. Круто, как будто алмазы свалились на голову)))
  8. А ссылку можно ? Я ни в коем случае не фанат SVM. Просто сетки мне начнут преподовать начиная с апреля, но неважно сетка или SVM. Везде нужно извлекать фичи, а там где всё делается само у меня вызывает подозрения. Пока я вижу картину что подходящие фичиэкстракторы для изображений есть только в питоновских библотеках чтобы можно потом над этими данными проводить нужные манипуляции. На этапе прототипирования ойдёт, а дальше ?
  9. Я неправильно высказался, я имел ввиду сам дескриптор HOG. Про алгоритм я читал. Меня очень сильно смущает что на просторах интернета нигде не встретил чтобы с ним делали какието манипуляции перед отправкой в SVM. Толи всё что нужно сделано при его приготовлении, толи там не просто набор гистограмм, а ёщё чтото.
  10. Да HOG то получается сам по себе. Но это чёрный ящик и, причём чёрный ящик большого размера и что ним делать. Это же не просто датасет как я понимаю, там своя структура. И непонятно когда он изготавливался что там использовалось из стандартных техник и потому нет смысла повторно использовать, а что нет. Можно конечно сырцы либы копать, но это долго и сначало хотелось бы знать что другого пути нет.
  11. Кому чёрный, а кому серобуромалиновый в крапинку)
  12. Ну я его и использовал. Меня не радует что жёсткая связка получается HOG и SVM. А если я хочу микс сделать, добавив другие признаки ?
  13. 1) ну GPU само сабой. Мне кажется полезным перед использованием GPU включить голову, тогда и для GPU работы будет меньше. 2)Я не уверен что прям в таком виде всё этот поступает на SVM. Какаято дикая размерность вектора для картинки 32х32 даже, если брать дескриптор целиком. И главное напрягает что предлагаюжёсткую связку, а если я захочу сделать микс из HOG и допусти цвета ?
×