Перейти к содержимому
Compvision.ru

Pechkin80

Пользователи
  • Количество публикаций

    72
  • Зарегистрирован

  • Посещение

  • Days Won

    1

Все публикации пользователя Pechkin80

  1. Кажеться Победа, но я ещё пока не уверен.
  2. Какие все функции ? Сообщение вываливается на этапе выполнения кода. Функции все есть конечно. Вопрос инициаллизации глобальных объектов в либе. А этот код вообще валидный сам по себе. Может он и должен такое выдавать ? Я брал пример отсюда: https://habr.com/ru/post/308002/
  3. Я не хочу себя ставить в рамки узких возможностей, которые дают сурогаты. Базель имеет значения когда я сам компилирую tensorflow. Для меня задача минимум залинковать, извлечённую из pip пакета, поэтому базель меня щас не беспокоит. Почему у меня одного не работает ?
  4. Проблема вроде решена: init_op = tf.initialize_all_variables() with tf.keras.backend.get_session() as sess: sess.run(init_op) tf.saved_model.simple_save( sess, export_path, inputs={'input': model.input}, outputs={'output': model.output})
  5. Добрый день, хочу в целях самообразования поэксперементировать со случайными полями Маркова. Точнее сегментация с помощью их. Есть у кого нибудь скетч на питоне ? Знаю что варианты там есть всякие, но без разницы. Любое сойдёт. Интересен случай как обучение с учителем так и без. P.S. гуглить пробовал.
  6. Возможно, но там ничего не сказано про сегментацию и нет кода. Я бы хотел для начала попробовать как "чёрный ящик"
  7. Вроде понял что требуется SSD. Подскажите пожалуйста с confidence loss для SSD. Хочу разобраться с самой формулой и как она должна быть реализована с помощью tensorflow. 1)Есть формула для confidense loss. Я правильно понимаю что c - предсказания ? 2)Как должен выглядить член этого выражения для негативных классов, когда класс всего такой один(фон) ? Если считать буквально, то экспоненты сократатятся и в логариф попадёт единица, что даст ноль. 3)Какими средствами tensorflow должен считаться данный лосс: Есть tf.losses.softmax_cross_entropy и tf.nn.sampled_softmax_loss 4) Правильно ли я понимаю что надо их(лосы из tensorflow) использовать по отдельности для позитивных и негативных классов ?
  8. Добрый день, подскажите пожалуйста, ка должен выглядеть классификатор для данного детектора ? Не могу справится с последний домашний работой. https://github.com/Pin80/detector/blob/master/007-detection.ipynb
  9. Я просто сомневаюсь в том что нет другого способа оценить шум кроме как опытным путём т.е. после обучения. Мыже можем по выборки случайной последовательности определить статистическую значимость? Можем. Способ наверняка есть а значит не совсем "везде свои рецепты"
  10. Попалась интересная статься о том как можно на глазок прочертить гиперплоскость при классификации через уменьшение размерности вектора. Некотрые методы даже приводят к улучшению точности, что само по себе удивительно. https://docviewer.yandex.ru/view/726924622/?*=mNGMxznLlOK90pLKFHLtmjYslzR7InVybCI6Imh0dHBzOi8vc2Nob2xhcndvcmtzLnJpdC5lZHUvY2dpL3ZpZXdjb250ZW50LmNnaT9hcnRpY2xlPTkyMjImY29udGV4dD10aGVzZXMiLCJ0aXRsZSI6InZpZXdjb250ZW50LmNnaT9hcnRpY2xlPTkyMjImY29udGV4dD10aGVzZXMiLCJ1aWQiOiI3MjY5MjQ2MjIiLCJ5dSI6IjQwOTk1Njk4MzE1NDUwNjg5NzIiLCJub2lmcmFtZSI6dHJ1ZSwidHMiOjE1NTMwNzAxNDYzNzEsInNlcnBQYXJhbXMiOiJsYW5nPWVuJnRtPTE1NTMwNzAxMzkmdGxkPXJ1Jm5hbWU9dmlld2NvbnRlbnQuY2dpJTNGYXJ0aWNsZSUzRDkyMjIlMjZjb250ZXh0JTNEdGhlc2VzJnRleHQ9SE9HK3JlZHVjdGlvbitkaW1lbnNpb25hbGl0eSZ1cmw9aHR0cHMlM0EvL3NjaG9sYXJ3b3Jrcy5yaXQuZWR1L2NnaS92aWV3Y29udGVudC5jZ2klM0ZhcnRpY2xlJTNEOTIyMiUyNmNvbnRleHQlM0R0aGVzZXMmbHI9MTA3NTgmbWltZT1wZGYmbDEwbj1ydSZzaWduPTAyNzRkMmQwNTFjOGI4M2VlOTRiNWE1YTQ0MzgwOGRjJmtleW5vPTAifQ%3D%3D&page=1&lang=en
  11. Насколько я понимаю у нас шум ограничен снизу некоторой величиной может быть вследствии допустимой погрешности статистически значимой выборки. Может просто данных побольше ? Я сам давно окончил ВУЗ. Извините если где туплю. Надо повторить всё это. А PCA не самый хорошийалоритм для того исселедования что приведено в статье. SLPP и LPP показают лучшие результаты чем оригинал при детекции глаз и не только. А Умножение матриц должно хорошо распараллеливаться. P.S А RBF ядро уже стало как я понимаю стандартом для SVM. Линейная зависимость только в академических целях используется.
  12. Потомучто теряется часть информации. Вот взять к примеру дескриптор HOG с картинки 32х32. Размерность вектора будет огого, а чтобы увидеть его хотябы в 3D надо сильно сильно сплющить. И ещё вопрос получиться ли глазами классифицировать такую лепёшку.
  13. Круто, как будто алмазы свалились на голову)))
  14. А ссылку можно ? Я ни в коем случае не фанат SVM. Просто сетки мне начнут преподовать начиная с апреля, но неважно сетка или SVM. Везде нужно извлекать фичи, а там где всё делается само у меня вызывает подозрения. Пока я вижу картину что подходящие фичиэкстракторы для изображений есть только в питоновских библотеках чтобы можно потом над этими данными проводить нужные манипуляции. На этапе прототипирования ойдёт, а дальше ?
  15. Я неправильно высказался, я имел ввиду сам дескриптор HOG. Про алгоритм я читал. Меня очень сильно смущает что на просторах интернета нигде не встретил чтобы с ним делали какието манипуляции перед отправкой в SVM. Толи всё что нужно сделано при его приготовлении, толи там не просто набор гистограмм, а ёщё чтото.
  16. Да HOG то получается сам по себе. Но это чёрный ящик и, причём чёрный ящик большого размера и что ним делать. Это же не просто датасет как я понимаю, там своя структура. И непонятно когда он изготавливался что там использовалось из стандартных техник и потому нет смысла повторно использовать, а что нет. Можно конечно сырцы либы копать, но это долго и сначало хотелось бы знать что другого пути нет.
  17. Кому чёрный, а кому серобуромалиновый в крапинку)
  18. собственно у меня вопрос. Надо ли проводить изучение кода DLib если я хочу использовать не только признаки HOG для SVM ? И как быть если я хочу признаки HOG использовать для другого классификатора ?
  19. Былобы интересно поиграться с этим алгоритмом. Откуда можно взять библиотеку ?
  20. Ну я его и использовал. Меня не радует что жёсткая связка получается HOG и SVM. А если я хочу микс сделать, добавив другие признаки ?
  21. 1) ну GPU само сабой. Мне кажется полезным перед использованием GPU включить голову, тогда и для GPU работы будет меньше. 2)Я не уверен что прям в таком виде всё этот поступает на SVM. Какаято дикая размерность вектора для картинки 32х32 даже, если брать дескриптор целиком. И главное напрягает что предлагаюжёсткую связку, а если я захочу сделать микс из HOG и допусти цвета ?
×