January 15th, 2021

собака

Axis представила ИИ-решение для обнаружения людей и транспортных средств

Компания Axis Communications 15 января 2021 года представила интеллектуальное приложение для видеоаналитики Axis Object Analytics. Приложение подходит для систем охраны общественных зданий, складов, парковок и других объектов. Оно будет предустанавлено на камерах, функционирующих на базе глубокого обучения, с прошивкой 10.3 и более поздними версиями, что позволит повысить функциональность камер без дополнительного оборудования и лишних затрат.


Axis Object Analytics – решение для обнаружения людей и транспортных средств на основе искусственного интеллекта

Простой интерфейс приложения позволяет легко настроить индивидуальные сценарии видеонаблюдения, выбрав условия запуска анализа видео. Например, анализ видео начинается, когда какой-либо объект (человек или транспортное средство) входит в зону наблюдения или пересекает установленную виртуальную границу. Благодаря интеллектуальным алгоритмам приложение способно игнорировать объекты, которые чаще всего становятся причиной ложных сигналов – например, растения, которые колышутся на ветру, или быстро движущиеся по земле тени.

В приложении Axis Object Analytics обработка данных происходит в кратчайшие сроки, снижены требования к полосе пропускания и объему дискового пространства для хранения данных, отметили в Axis. При необходимости приложение интегрируется с системой управления событиями и другими сетевыми решениями.

Одна из камер, которая поддерживает приложение – это фиксированная корпусная камера Axis Q1615 Mk III, которая является оптимальной платформой для видеоаналитики.

promo antony_w august 17, 2014 11:48 18
Buy for 10 tokens
Есть блог, в котором написано много постов про роботов: ссылка И там есть несколько статей о замене рабочих мест человека роботами: Уже к 2018 году роботы отберут у человека часть профессий Рабский труд без зарплаты Армия роботов: зачем она нужна обильной людьми Поднебесной и кому может…
собака

Panasonic представила голографический Head-Up дисплей с искусственным интеллектом для автомобилей

14 января 2021 года компания Panasonic Automotive представила Head-UP дисплей с дополненной реальностью (AR) для автомобилей следующего поколения. Используя последние разработки в области оптики, проекций, обработки изображений, а также искусственного интеллекта, поддерживаемые контроллером домена салона SPYDR, инженеры Panasonic сконструировали систему визуальной помощи водителю.


Panasonic AR HUD

По информации компании, AR HUD объединяет физическую и дополненную реальность, проецируя на лобовое стекло яркую двухплоскостную лазерную голографию, отображающую значимую для водителя информацию – real time данные о дорожной ситуации, обновляющиеся каждые 300 миллисекунд, multiply- навигацию, скорость движения, остаток топлива, километраж и т.п. Массовое применение подобных разработок в автомобилях может начаться уже с 2023 года.

Система точно отслеживает направление взгляда водителя, а также перемещение объектов вокруг движущегося автомобиля, и в соответствии с этим динамично подстраивает (смещает) голограммы и изображения дополненной реальности, избегая «рассинхрона». Это позволяет снизить нагрузку на человека и сделать управление автомобилем безопаснее.

Помимо технологий Panasonic Head-UP дисплей использует разработки Envisics, стартапа в области создания автомобильной голографии, и технологии AI-навигации, 3D-локализации и ситуационной аналитики от компании Phiar, разработчика патентованной платформы пространственной навигации AR на базе искусственного интеллекта.
Collapse )
собака

Внедрение технологии ИИ в рамках концепции Classroom 4.0



13 января 2021 года стало известно о том, что Тамканский университет и корпорация ViewSonic внедрили образовательные технологии и искусственный интеллект (ИИ) в рамках концепции Classroom 4.0, создавая образовательную среду будущего. На одном факультете — в Колледже инновационных технологий на базе искусственного интеллекта — появилась платформа Reality Fields. Комплексное решение, разработанное корпорацией ViewSonic, которое включает интерактивный дисплей ViewBoard, цифровую образовательную платформу myViewBoard и встроенные беспроводные технологии для презентации материалов, позволяет университету реализовать концепцию Classroom 4.0 и проводить интерактивные занятия в цифровой среде в реальном времени. На практических занятиях в Hands-on Labs используется решение ViewSonic на базе ИИ — myViewBoard Sens, которое анализирует эмоциональное состояние студентов и определяет обстановку в аудитории. Оно улучшает взаимодействие между преподавателями и студентами и оптимизирует учебный процесс, оптимизируя эффективность среды Classroom 4.0.

«Это первый виртуальный факультет, который позволяет всем студентам Тамканского университета посещать любые курсы в любое время, где бы они ни находились. Reality Fields создана на базе цифровой образовательной платформы ViewSonic и технологий ИИ.

рассказал Цунг-Ханг Ли, доктор, декан Колледжа инновационных технологий на базе искусственного интеллекта»


Эффективность учебного процесса в Колледже инновационных технологий на базе ИИ обеспечивается за счет виртуализации образовательных программ, которые доступны в среде Reality Fields. В учебном процессе используются современные технологии ИИ, Интернет вещей, большие данные, облачные и периферийные вычисления. Во время занятий преподаватель может использовать дисплей ViewBoard и платформу myViewBoard для того, чтобы представить учебный материал в необычной и запоминающейся форме, подключиться к облачной платформе, чтобы быстро найти нужную информацию, и использовать многочисленные интерактивные инструменты, например тесты и упражнения типа «вопрос — ответ», чтобы разнообразить учебный процесс.

Кроме того, беспроводная технология ViewBoard Cast позволяет делиться информацией и работать в команде независимо от сценария занятия, что оптимизирует взаимодействие между преподавателем и студентами. Например, педагог может транслировать изображение с центрального дисплея ViewBoard на другие устройства и синхронизировать их, а студенты — уверенно и быстро обмениваться собственными материалами. Во время групповых дискуссий участники могут передавать контент со своих устройств на центральный дисплей. Подводя итоги занятия, преподаватель может одновременно вывести на центральный дисплей ViewBoard результаты, полученные каждой группой, в режиме разделения экрана.

Встроенная технология ИИ myViewBoard Sens установлена в практической лаборатории Hands-on Labs и распознает злость, грусть, равнодушие и счастье на лицах студентов. Преподаватели могут отслеживать эмоциональное состояние группы на персональных устройствах, например смартфонах, и корректировать учебный процесс. Аналитические данные загружаются в облако для последующей оценки результатов учебной деятельности. Технология myViewBoard Sens также используется с датчиками температуры, влажности, освещенности (например, яркости и цветовой температуры), уровня шума и движения. Эти данные дают педагогам представление о том, в какой среде успеваемость студентов повышается, и позволяют своевременно внести изменения в учебный процесс, чтобы повысить его эффективность и оптимизировать образовательную среду.