Этот робот пересек черту, которой он не должен был пересекать, потому что люди сказали ему об этом • TechCrunch

Видео а-доставщика, пересекающего желтую предупреждающую ленту и катящегося по месту преступления в Лос-Анджелесе, стало вирусным на этой неделе, набрав более 650 000 просмотров. Twitter и разжигание споров о том, готова ли технология к прайм-тайму.

Оказывается, ошибка робота, по крайней мере в этом случае, была вызвана людьми.

видео Мероприятие было снято и размещено на Twitter Уильям Гуд, владелец Фильм Полиция Лос-Анджелеса, учетная запись полиции Лос-Анджелеса. Гуде был в районе предполагаемой стрельбы в средней школе Голливуда около 10 утра, когда он заснял на видео бота, который завис на углу улицы, выглядя сбитым с толку, пока кто-то не снял пленку, позволив боту продолжить свой путь. через место преступления.

Подразделение Uber Serve Robotics сообщило TechCrunch, что система автономного вождения робота не решила пересечь место преступления. Это был выбор человека-оператора, который дистанционно управлял ботом.

Роботы-доставщики компании обладают так называемой автономией 4-го уровня, что означает, что они могут управлять собой при определенных условиях, не требуя вмешательства человека. Serve пилотирует своих роботов с Uber Eats в районе с мая.



Политика Serve Robotics требует, чтобы человек-оператор удаленно контролировал и помогал своему роботу на каждом перекрестке. Человек-оператор также дистанционно возьмет на себя управление, если бот встретит препятствие, такое как зона строительства или упавшее дерево, и не сможет понять, как обойти его в течение 30 секунд.

В этом случае бот, который только что закончил доставку, подошел к перекрестку, и оператор-человек взял на себя управление в соответствии с внутренней операционной политикой компании. Первоначально человек-оператор остановился на желтой предупреждающей ленте. Но когда прохожие подняли ленту и, по-видимому, «помахали ею», человек-оператор решил продолжить, сказал TechCrunch генеральный директор Serve Robotics Али Кашани.

«Робот никогда бы не пересек границу (сам по себе)», — сказал Кашани. «Просто есть много систем, гарантирующих, что он никогда не пересечется, пока человек не даст добро».

Он добавил, что ошибка суждения здесь заключается в том, что кто-то решил продолжать переход.

Независимо от причины, Кашани сказал, что этого не должно было случиться. Он добавил, что Serve извлек данные об инциденте и работает над новым набором протоколов для человека и ИИ, чтобы предотвратить это в будущем.

Несколько очевидных шагов будут заключаться в том, чтобы сотрудники соблюдали стандартную рабочую процедуру (или СОП), которая включает в себя надлежащее обучение и разработку новых правил того, что делать, если человек попытается провести робота через баррикаду.

Но Кашани сказал, что есть также способы использовать программное обеспечение, чтобы избежать повторения подобных ситуаций.

По его словам, программное обеспечение можно использовать, чтобы помочь людям принимать более обоснованные решения или вообще избегать какой-либо области. Например, компания может работать с местными правоохранительными органами, чтобы отправлять роботу актуальную информацию о полицейских инцидентах, чтобы он мог объезжать эти районы. Другой вариант — предоставить программному обеспечению возможность идентифицировать правоохранительные органы, а затем предупредить людей, принимающих решения, и напомнить им о местных законах.

Эти уроки будут иметь решающее значение по мере развития роботов и расширения их операционных областей.

«Самое смешное, что робот поступил правильно; это прекратилось», — сказал Кашани. «Таким образом, это действительно восходит к тому, чтобы дать людям достаточно контекста для принятия правильных решений, пока мы не будем достаточно уверены, что нам не нужны люди для принятия этих решений».

Боты Serve Robotics еще не достигли этого. Однако Кашани сказал TechCrunch, что роботы становятся более независимыми и, как правило, работают самостоятельно, за двумя исключениями: перекрестки и какие-то блокады.

По словам Кашани, сценарий, развернувшийся на этой неделе, противоречит тому, как многие люди относятся к ИИ.

«Я думаю, что повествование в целом таково, что люди действительно хороши в крайних случаях, а затем ИИ совершает ошибки или, возможно, не готов к реальному миру», — сказал Кашани. «Как ни странно, мы учимся прямо противоположному: мы обнаруживаем, что люди совершают много ошибок, и нам нужно больше полагаться на ИИ».