Воплощенный искусственный интеллект открывает новую эру робототехники
Существуют прогнозы, что к 2050 году роботы не просто заменят медсестер и грузчиков — они научатся «чувствовать» мир через собственные действия. Это называют воплощенным ИИ (embodied AI) — искусственным интеллектом с «телом», который учится, как ребенок.
Интеграция искусственного интеллекта (ИИ) в робототехнику — это уже не футуристическая концепция, а реальность сегодняшнего дня, готовая к значительному расширению рынка, согласно данным глобальной аналитической компании ABI Research. Новый отчет «Ландшафт искусственного интеллекта в промышленной и коллаборативной робототехнике» (Landscape of AI in Industrial and Collaborative Robotics) приводит к выводу, что промышленные и коллаборативные роботы, оснащенные ИИ, достигли технологической зрелости, необходимой для широкого внедрения, позволяя достичь быстрого возврата инвестиций как производителям, так и логистическим компаниям. Этот переломный момент октрывает новые возможности получения прибыли, позволяя решать сложные динамические требующие высокой точности задачи, которые не позволяет ранее решать традиционная автоматизация.
Джордж Чоудхури, старший аналитик ABI Research, отмечает: «В течение многих лет робототехническая отрасль боролась с разрывом между моделированием и реальностью, а также с чрезмерными обещаниями зарождающегося ИИ. Наше углубленное исследование готовности технологии подтверждает, что надежные алгоритмы, особенно в области динамической настройки политики (Dynamic Policy Adjustment - DPA), и создание новых базовых моделей робототехники теперь способны реализовать обещание истинной адаптивной автоматизации. Речь идет не о постепенных улучшениях; это смена парадигмы, когда роботы наконец-то могут адаптироваться к непредсказуемому реальному миру, переходя от жесткого программирования к действительно интеллектуальному, адаптивному выполнению задач».
Хотя существующие статичные производственные процессы по-прежнему обслуживаются традиционной робототехникой, значительный потенциал роста заключается в «недостаточно автоматизированных» сегментах и рабочих процессах, требующих сложных, разнородных и точных манипуляций. В их число входят такие специализированные отрасли, как медико-биологическая наука, некоторые виды производств (например, производство полупроводников), а также логистические и складские операции, которые имеют высокую вариативность и часто меняющиеся внешние условия.
В последнем исследовании физических технологий искусственного интеллекта, подготовленным компанией ABI Research, освещаются ключевые достижения, меняющие робототехнику, включая обучение с подкреплением (reinforcement learning), базовые модели роботов, интерфейсы на основе больших языковых моделей (LLM) для взаимодействия человека и робота (HRI), новые модели SLAM и модели окружающего мира, агентный ИИ, платформы динамической корректировки настроек (DPA) и алгоритмы машинного зрения. В отчете оценивается зрелость этих технологий и называются ведущие компании в каждой из областей.
В числе компаний, разрабатывающих DPA и адаптивную автоматизацию, ABI Research называет InBolt, T-Robotics, Apera, Cambrian AI, V-SIM, Summer Robotics, Robovision и NVIDIA. В сфере аппаратного обеспечения для машинного зрения и вертикальных решений для робототехники и ИИ отмечаются такие игроки, как SICK, Solomon3D, Cognex, Basler, Mech-Mind, Intel RealSense, Zebra, Nikon, OnRobot, Augmentus и Universal Robots. Кроме того, новые базовые модели робототехники от Google DeepMind, Covariant, Intrinsic, Meta, Dexterity, Field AI, Skild AI и Physical Intelligence, по мнению экспертов ABI Research, демонстрируют смещение в сторону более совершенных и адаптивных автономных систем.
«Сейчас важнейшая задача — преобразовать эту техническую готовность в широкое коммерческое внедрение. Поставщики должны уделять первостепенное внимание удобству использования, прозрачности и четким показателям рентабельности инвестиций, чтобы преодолеть экономическую неопределенность и рыночный скептицизм», - подчеркивает Чоудхури.
Подписывайтесь на наши новости в Telegram:
Читайте нас на VK: