ИИ дал роботам способность «слышать» и «видеть» мир, чтобы понимать приказы человека и лучше выполнять задачи, но исследователи ИИ компании Meta сейчас тестируют способы, позволяющие роботам также имитировать чувство осязания. Подразделение фундаментальных исследований искусственного интеллекта (FAIR) компании Meta только что представило набор инструментов, которые могут сделать роботизированные инструменты способными обнаруживать, расшифровывать и реагировать на то, к чему они прикасаются. Это может сделать даже самую простую руку робота достаточно чувствительной, чтобы можно было обращаться с хрупкими объектами, не повреждая их, и сделать их полезными в большем количестве ситуаций.
Meta продемонстрировала комбинацию новых технологий и функций, которые вместе дают роботам возможность чувствовать вещи. Сенсорная технология Sparsh дает ИИ возможность идентифицировать такие вещи, как давление, текстуру и движение, без необходимости использования огромной базы данных. Это похоже на ИИ-версию того, как вы можете чувствовать что-то в темноте и описывать свои ощущения, даже если не знаете, к чему прикасаетесь.
Чтобы отправить информацию о том, к чему прикасается робот, в модель искусственного интеллекта, Meta объединилась с компанией GelSIght и создала, по сути, кончик пальца робота под названием Digit 360. Датчики в Digit 360 очень чувствительны, поэтому ИИ может не только определять детали того, что робот касается объекта, но также оказывает давление, соответствующее задаче, связанной с объектом, например, поднимает или вращает его.
Что касается остальной части роботизированной руки (или эквивалентного устройства), Meta создала систему под названием Plexus совместно с Wonik Robotics, чтобы распределить несколько сенсорных датчиков по всему устройству. Meta утверждает, что Plexus может достаточно имитировать человеческое осязание для хрупких или неуклюжих объектов. Вы можете видеть Ниже показано, как три технологии работают вместе в роботизированной руке.
Чувствительный ИИ
«Человеческая рука великолепно передает в мозг информацию о прикосновениях по всей коже, от кончиков пальцев до ладони. Это позволяет активировать мышцы руки при принятии решений, например, о том, как печатать на клавиатуре или взаимодействовать со слишком горячим объектом. », — объяснила Мета в своем блоге. «Достижение воплощенного ИИ требует аналогичной координации между тактильным восприятием и двигательными активациями руки робота».
Есть много способов, которыми могут быть полезны руки роботов, которые могут «чувствовать» связь с искусственным интеллектом, способным интерпретировать эти ощущения. Представьте себе роботизированных хирургических ассистентов, способных чувствовать мельчайшие изменения в организме и реагировать быстрее, совершая точные, но плавные движения, соответствующие человеческим реакциям или превосходящие их. То же самое касается производства деликатных устройств, не ломая их, и, возможно, лучше координируя работу нескольких роботизированных рук, как это делают люди со своей парой. Это может даже сделать виртуальный опыт более реальным для людей благодаря пониманию того, какие объекты и окружающая среда должны ощущаться для информирования своих виртуальных коллег.
Использование ИИ для имитации осязания роботов — не единственный человеческий опыт, который ИИ имитирует для машин. Исследователи из Пенсильванского университета недавно продемонстрировали, как модели искусственного интеллекта, связанные с электронным языком, могут имитировать чувство вкуса, достаточно хорошее, чтобы обнаружить крошечные различия во вкусе. Тем временем компания Osmo научила модели искусственного интеллекта имитировать обоняние, которое намного лучше, чем у человека. Компания продемонстрировала, как ее ИИ может анализировать запах достаточно точно, чтобы даже воссоздать его с нуля, выбирая и комбинируя химические вещества без вмешательства человека.