Jump to content
Compvision.ru

All Activity

This stream auto-updates     

  1. Last week
  2. Я тут, скорее, ваш коллега, а не заказчик. Поэтому и говорю, что будут смотреть на всё, на каждую мелочь - встречать по одёжке. Степени, специалисты - это важно больше для тендеров госкомпаний, а не для коммерческих заказчиков. Поэтому ещё важно иметь публичные успешные проекты, известных, ммм, инфюэнсеров. У меня среди знакомых фирма с аналогичной направленностью (были и кандидаты, и специалисты из топ компаний) загнулась из-за малого объёма заказов. Ну или быть, как Антон Мальцев с его Recognitor, который дал успешный старт и в других направлениях. С другой стороны, чёткая специализация и позиционирование может приводить проекты само по себе, даже без рекламы.
  3. Мой богатый практический опыт реализации решений в области AI показал, что данный критерий не всегда является успешным фактором реализации проектов, а напротив дает больше проблем. В нашей области не руководить нужно, а работать "руками и головой".
  4. Да Nuzhny, в общем, правильно советует. Люди, не зная вас, как будут получать первое впечатление о вас? Ведь вначале они видят сайт. Лучше закончить с оформлением и отладкой витрины вначале. Это произведет впечатление о вас как о серьезной группе. И контракты будут дороже ) Взгляд со стороны полезная штука. Удача!
  5. Добрый день, не судите по сайту, он в разработке. У нас опытные специалисты, со степенями к.т.н. и имеющие опыт работы в международных корпорациях на руководящих позициях, если есть предмет для разговора напишите на почту ib@powerok.site свой контакт, поговорим, обсудим проект. С уважением, Иван
  6. Earlier
  7. Дело хорошее, но может попробовать вначале на сайте фриланса вначале заработать репутацию? Там есть группы разработчиков. Мне начали писать рекрутеры всех мастей когда рейтинг на stack overflow начал быстро расти. Еще можно поучаствовать в соревнованиях по теме, например на Kaggle (там кстати и курсы дельные), ну и репа на гитхабе не помешает. Заработать имя не очень быстрое дело. Удачи! ) PS: Касперыч на ваш сайт ругается. Остановлен переход на недоверенный сайт Один или более сертификатов этого сайта недействительны, и мы не можем гарантировать его подлинность. Такое бывает, когда владелец сайта вовремя не обновил сертификат или когда сайт поддельный. Посещение таких сайтов делает вас более уязвимыми для атак. "Лаборатория Касперского" защитила вас от перехода на этот сайт. Можете закрыть его без риска. Скрыть детали Обнаружено: 22.06.2022 14:19:13 Веб-адрес: powerok.site Причина: Самоподписанный сертификат
  8. Не знаю, кто вы и какое качество непосредственно работ, но сайтом надо заняться получше. Глядя на него, доверия к конторе не возникает. 1. Открой сайт в отдельной вкладке. Как она называется? "home page" с маленькой буквы?!! Ну нет, это же не сайт со студенческой курсовой. 2. У меня в Firefox заголовок "Power of Knowledge" наползает на "We develop artificial intelligence, machine learning and vision, data processing, neural network". Прямо сильно наползает. 3. В некоторых destinations текст начинается с маленькой буквы, а в других - с большой. Ну и в целом про позиционирование. Глядя на тот же сайт кажется, что у вас нет продукта. "Натренировали модель на открытых данных." Ну, ок. А что вы продаёте? Например, распознавание номеров, которое является одной из компетенций. Что есть продукт? Вы продаёте готовый продукт, который можно запустить как сервис и он берёт видео с камер и присылает в БД заказчика номера? Вы продаёте услуги по обучению нейросети на датасете заказчика? Вы приходите на объект, ставите камеру, собираете и размечаете датасет, тренируете, а потом выкатываете готовый проект по открыванию, например, шлагбаума на парковке? Даже если вы продаёте исключительно умение тренировать нейросети (что очень мало для клиента), то всё равно надо как-то это оформить в виде конкретных кейсов, типа: "За 1 месяц под ключ сделаем вам автоматическую парковку." Что-то в этом роде.
  9. Добрый день. Мы группа разработчиков, занимающихся нейросетями (как сверточными так и на базе трансформеров) в области компьютерного зрения. Имеем положительный опыт решения задач детекции, сегментации и др. В работе используем фреймворки Tensorflow и Pytorch. Имеем доступ к высокопроизводительным GPU ресурсам. При необходимости можем обеспечить встраиваемое решение. Выполним для Вас разработку нейросетей, искусственного интеллекта и т.д., в различных направлениях. Также возможно совместное сотрудничество. Наша почта: ib@powerok.site Сайт: powerok.site Контактное лицо: Иван
  10. Не совсем так, yolo - это детектор для которого уже есть предобученные модели на десятки классов (coco >80,voc pascal 20 классов ), которых может вам будет и дестаточно. Он выдает рамку + индекс класса. Если не найдете все что нужно, надо учить, но это обучение не потребует учить с нуля, часть слоев будет "заморожена", а учатся толко несколько последних слоев. Пример обучения на своих данных : https://github.com/AntonMu/TrainYourOwnYOLO Это не требует очень много данных. Датасеты лучше не смешивать как попало, они обычно специально готовятся. Когда сеть нашла собаку, она может, например, узнать породу, запустив специально обученную сеть. https://github.com/ShihanUTSA/Dog-breed-classifier--Convolutional-Neural-Network
  11. Smorodov, т.е. я если я правильно вас понял, то для первичного обучения мне можно использовать датасет вообще не по моей тематике. Грубо говоря, если доска будет ориентирована на животных, я могу обучать ее на зданиях/машинах/предметах и т.д. Чем больше я ее обучаю на первичном класстеризаторе, тем четче она будет понимать разницу между объектами ? Так ? Просто если идея выйдет на этап реализации, вероятнее всего на старте у меня будет очень мало данных для обучения, для примера пусть это будет по 100 фотографий на каждую из конечных категорий. Прекрасно понимаю, что чем больше данных, тем точнее сеть понимает, что я ей показываю. Как быть в этом случае ? Имеет ли смысл задействовать другие готовые не тематические сеты для тренировки ? Вы написали про COCO. Что будет, если к нему добавить датесет Fashion MNIST и др ? Поможет ли это улучшить зрение сети или лишь раздует ее не нужными данными и не даст никакого практического результата в конечном счете ?
  12. Все правильно, лучше по иерархии - от общего к частному. Вначале детектор-классификатор, типа YOLO v3 (4, 5), обученный на датасете типа COCO . А дальше специализированные классификаторы по подклассам. Их придется учтить на своих данных. Доучивать на расширенном датасете (после добавления данных) можно, но имеет смысл когда собралось достаточно много данных. Классификация цвета не такой тривиальный вопрос как может показаться. Еще в помощь NLP например : https://github.com/natasha/natasha Может быть еще captioning networks пригодятся https://github.com/zhjohnchan/awesome-image-captioning .
  13. Приветствую. Задача пока теоретическая, без четкого понимания теории не вижу смысла в практике Допустим у нас есть абстрактная доска объявления (а-ля авито/юла). Каждый раздел имеет свои подразделы. Нейросеть выступает в роли кластеризатора, которая по фотографии определяет, что это за объект, переносит его в соответствующий раздел/подраздел. Далее начинает его изучать более досконально, перенося уже в более "узкие подразделы" и определять ключевые параметры. Грубо говоря: 1. Отправляю фотографию телефона, нейронка определяет, что это смартфон, переносит его в соответствующий раздел, а дальше пытается понять, что за производитель, модель, цвет и т.д. 2. Отправляю фото цветка, переносит в раздел растения, понимает, комнатное или нет, цвет бутонов. 3. Отправляю фото котэ, переносить в животные -> кошки, определяет породу и цвет окраса, и т.д. Объясните пожалуйста: 1. Как для такой глубокой кластеризации на старте обучать сеть. Начинать с верхнего уровня и углубляться все глубже и глубже или как ? 2. Нужно ли сразу дробление по цветам или для начала сеть должна понимать объект, а цвет определить не так уж и сложно ? 3. Все загружаемые фотографии могут расширять исходный датасет и участвовать параллельно в обучении сети или потребуется ее переобучать, когда наберется критическая масса новых изображений? Благодарю за ответы. Надеюсь мои вопросы не слишком дебильные )
  14. Ну там же стандартный текст, сравните со словариком и уберите )
  15. Здравствуйте! А как вам удалось выделить в паспорте ФИО? При этом не выделяя остальной не нужный текст?(3 картинка)
  16. Камеры Basler

    Кто-нибудь Basler или аналогами в последнее время закупался? Если да, то можно ссылку.
  17. Спасибо! Соберу тогда без CUDA.
  18. Спасибо Nuzhny, помогло. Лог приложил, как я понимая, не ошибаюсь, что всё нормально. OpenCV_make_LOG_1.txt
  19. В 2022 Студии могут быть проблемы, если ты используешь CUDA. Она поддерживает только CUDA 11.6
  20. Хз, попробуйте, отключить gapi. Я обычно собираю под студию, ставлю поддержку Qt и все норм. На днях планирую перестроить под 22 студию, заодно и проверю.
  21. Перед тем, как делать Configure в CMake отключи тесты и perf тесты
  22. Скачал последнюю версию, CMake настроил на mingw, работаю с Qt. Configure и Generate прошло без ошибок. А компиляция остановилась на 92 проценте. Лог в приложении. Как исправить эту ошибку? OpenCV_make_LOG.txt
  23. Стабилизация лицевых точек OpenCV

    Посмотрите еще TLD tracker, ну и https://github.com/Smorodov/Multitarget-tracker . LK tracker быстрый, но не самый надежный вариант. Я имею ввиду, комбинацию трекеров, простой и быстрый, для коротких треков, между вызовами сложных и точных, для захвата/восстановления трека. Это даст регулируесый уровень компромиса между надежностью и вычислительными затратами/плавностью трека. Кстати, я как то делал проект с BFM : https://github.com/Smorodov/nano_bfm И еще SMPL: https://github.com/Smorodov/nano_smpl
  24. Стабилизация лицевых точек OpenCV

    Отвечу на свой вопрос, может быть кому-то пригодится. Christoph Rackwitz дал мне хороший совет: Я изменил алгоритм. Когда угловые точки передаются алгоритму MOSSE, а не оптическому потоку то курсор ведет себя гораздо стабильнее. Возникла небольшая проблема с дискретным перемещением, поскольку рамки объектов перемещались одновременно на равное число пикселей. Поэтому и курсор двигался скачками. Поэтому пришлось устанавливать фильтр не на курсор, а на каждую точку. Но, как видно на видео, в итоге нагрузка на процессор не увеличилась. https://www.youtube.com/watch?v=WKwuas0GVkA 1. Lucas-Kanade optical flow: goodFeaturesToTrack(), cornerSubPix(), calcOpticalFlowPyrLK(), cursor EWMA filter 2. MOSSE object tracking: goodFeaturesToTrack(), cornerSubPix(), cv::legacy::TrackerMOSSE, all points EWMA filtration И, конечно, мне нужно было не забывать включить библиотеку tracking453.lib to Linker. Я потратил полдня, выясняя причину unresolved external symbol LNK2001 error при включении cv::legacy::Tracker. Почему то включение трекера из основной библиотеки (cv::Tracker) не приводило к этой ошибке компиляции, это сбивало с толку. Basel Face model, если получится, попробую для отслеживания мимики. Smorodov, спасибо что обратили внимание!
  25. Стабилизация лицевых точек OpenCV

    Здравствуйте, предварительныя обработка может убрать шум, если усрежнять кадры или делать морфологию, но, как вы заметили, это не сильно добавляет стабильности, за исключением некоторых редких случаев. Намного лучшие результаты дают фильтры по модели. Это предполагает, что лицо имеет меньше степеней свободы чем независимые точки в том количестве что выдает детектор. Если кратко то у точек 3*N степеней свободы, а у лица M + 6, где N - количество точек, M - количество независимых групп мышц. Соответственно, точки не могут гулять как попало, они должны принадлежать модели. Есть параметрические модели лиц, например Basel Face model одна из наиьолее популярных, она довольно тяжелая, но можно достать из нее только нужные точки. Дальше линейная оптимизация, поможет сопоставить 2D и 3D, найти поворот, масштаб, смещение и параметры формы. Вот тут посмотрите: https://github.com/3d-morphable-models/curated-list-of-awesome-3D-Morphable-Model-software-and-data
  26. Добрый день, Я сделал приложение на OpenCV + MFC для управления мышкой людьми с неврологическими нарушениям https://preability.com/face-controlled-mouse/ Человек сидит и двигает головой перед вебкой ноутбука, мышка двигается, он улыбается – происходит клик и пр. В целом, курсор удалось стабилизировать за счет отслеживания согласованного движения точек + EWMA фильтра (Калмана тяжелее и оказался не особо лучше). Разрежение угловых точек по всей площади тоже помогло немного. Но я вижу, что у похожей старой программы (eViacam) идет предварительная обработка изображения (с такими же древними внешними библиотеками для вебкамер). И за счет этого угловые точки стабильнее. Я включил equalizeHist() для ROI в области лица. В темноте детектор стал работать гораздо лучше. Но лицевые точки все равно пляшут при неровном освещении. Старая прога справлялась. Я абсолютно не в теме предварительной обработки и хочу понять, что можно сделать с видео на входе дектектора? Пробовал подключить морфологию openCV, но не особо улучшил, зато нагрузил процессор. А у многих людей ноуты на целеронах. Подскажите, пожалуйста, кто в теме, как улучшить видео для детектора??? Не обязательно библиотеки OpenCV, главное на лету и не слишком нагружая процессор...
  27. Камеры Basler

    Все так, пообщался уже с sensotek, но увы сроки поставки от них 26-28 недель, что крайне долго. Каких еще производителей можно рассмотреть взамен Basler usb 3.0 камер?
  1. Load more activity
×