Jump to content
Compvision.ru
Sign in to follow this  
Smorodov

Классификатор AdaBoost

Recommended Posts

Самокодный вариант AdaBoost. (Виолы и Джонса там нет :), только AdaBoost )

Надеюсь оформлю статью по нему, но и в листинге старался разместить побольше комментариев.

AdaBoost.cpp

И ссылка на мою презентацию по детекту лиц там тоже есть немного пояснений по теме:

http://www.compvision.ru/forum/index.php?app=core&module=attach&section=attach&attach_id=369

  • Like 3

Share this post


Link to post
Share on other sites

Небольшое пояснение по алгоритму. Версия 1:AdaBoost.pdf

ЗЫ: Очень хороший пример по классификаторам включили в версию 2.3. Называется points_classifier.cpp. Он позволяет погонять (на точках) классификаторы:

NBC normal Bayessian classifier

KNN k nearest neighbors classifier

SVM support vectors machine

DT decision tree

BT ADA Boost

GBT gradient boosted trees

RF random forest

ERT extremely randomized trees

ANN artificial neural networks

EM expectation-maximization

  • Like 2

Share this post


Link to post
Share on other sites

Мультибуст классификатор (AdaBoost для количества классов больше двух) (не opencv) :multiboost.tar.gz

  • Like 2

Share this post


Link to post
Share on other sites

Видеоиллюстрация работы адабуст:

  • Like 2

Share this post


Link to post
Share on other sites

Большое спасибо. Просто супер. Никаких вопросов не остается после прочтения статьи. Все очень просто, доходчиво и доступно.

Share this post


Link to post
Share on other sites

неплохая реализация Adaboost на матлабе тут, там еще разные версии Real AdaBoost, Gentle AdaBoost, Modest AdaBoost и т.д.

http://graphics.cs.msu.ru/ru/science/research/machinelearning/adaboosttoolbox

последнюю версию можно скачать отсюда:

http://groups.inf.ed.ac.uk/calvin/hp_avezhnev/#code

 

а еще есть xgboost, но это не совсем то, а gradient boosting.

https://github.com/dmlc/xgboost

Share this post


Link to post
Share on other sites
18 minutes ago, mrgloom said:

неплохая реализация Adaboost на матлабе тут, там еще разные версии Real AdaBoost, Gentle AdaBoost, Modest AdaBoost и т.д.

http://graphics.cs.msu.ru/ru/science/research/machinelearning/adaboosttoolbox

последнюю версию можно скачать отсюда:

http://groups.inf.ed.ac.uk/calvin/hp_avezhnev/#code

 

а еще есть xgboost, но это не совсем то, а gradient boosting.

https://github.com/dmlc/xgboost

А кто-то разбирался в чем фишка этого xgboost'а? Судя по отзывам ТОП'ов с каглей, сейчас большинство ансамблевых решений основывается на этой библиотеке...

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

Sign in to follow this  

  • Recently Browsing   0 members

    No registered users viewing this page.

×