AI HOUSE запускает бесплатный воркшоп по компьютерному видению
Некоммерческая организация AI HOUSE объявила бесплатный офлайн-воркшоп Computer Vision: Roof Footprints Recognition.
Как сообщил Highload AI HOUSE, воркшоп пригодится всем, кто интересуется искусственным интеллектом и компьютерным видением, а также тем, кто стремится улучшить понимание архитектур Eff-Unet и YOLOv8.
Участники сами будут обучать модель распознавать объекты на примере крыш зданий: с помощью фотографий, снятых со спутника или полученных с OpenStreetMap.
Ивент состоит из двух частей: лекция и практическая работа по лайф-кодингу. После воркшопа участники смогут пообщаться и обсудить результаты, поделиться инсайтами.
Спикер – Антон Лютов, AI & ML Engineer в DataArt, имеет более 5 лет опыта в области Data Science. В его рабочем бэкграунде около десяти проектов с использованием моделей классического машинного обучения, временных рядов и Deep Learning .
Что изучат слушатели воркшопа?
Компьютерное видение (Computer Vision) – это отрасль искусственного интеллекта, которая предполагает обучение машины отслеживанию, обнаружению и определению объектов, а также реакции на события вокруг. В настоящее время Computer Vision широко применяется в повседневной жизни и в будущем этот тренд будет сохраняться.
Участники воркшопа смогут натренировать модель распознавать объекты на примере крыш зданий (на базе моделей Eff-Unet и YOLOv8). Также слушатели узнают больше об архитектуре этих моделей, разберут кейсы их использования, принципы работы и применят полученные знания на практике.
Как присоединиться?
- воркшоп состоится в оффлайн формате 25 февраля в Киеве;
- начало события -14:00;
- продолжительность – 2,5 часа и нетворкинг в конце воркшопа.
Сообщается, что участие бесплатно, но количество мест ограничено: 35.
Заявку следует подать до 18 февраля.
AI HOUSE – некоммерческая организация, являющаяся частью технологической компании Roosh .
Roosh – это украинская технологическая компания, которая инвестирует и запускает проекты в сфере машинного обучения и искусственного интеллекта.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: