自动驾驶遇到复杂路况时,最后兜底的人,过去常被看见的是交警、协警、停车场工作人员,或者被迫下场的人类安全员。现在,美国监管层盯上的,是另一类更不容易被看见的人:远程协助员。
这次的新变化,不是行业第一次承认有远程协助,而是美国参议员 Ed Markey 直接向 Waymo、Zoox、Aurora、Motional、Nuro、Tesla、May Mobility 七家公司发问:车辆到底多频繁需要远程人员介入?几家公司几乎一致拒绝给出清晰数字。比“有人工协助”更刺眼的,是行业对使用频率的集体沉默。
这让自动驾驶的争议往前走了一步。问题已经不只是“机器偶尔会不会失手”,而是“企业愿不愿意说明,自己到底用了多少人工兜底,兜底到什么程度”。
现在新增的关键问题,不是谁在帮车,而是帮得有多频繁
远程协助本身不是新闻。业内早就默认,自动驾驶车遇到施工改道、临时封路、警察手势、事故现场、装卸货车辆挡道这类非标准情况时,往往需要后台人员给出建议。
真正新增的,是监管者开始追问两个更硬的问题:
- 远程协助触发得有多频繁
- 远程人员到底只是“建议”,还是能直接“控制”
前一个问题关系到系统成熟度,后一个问题关系到监管定义。
如果一辆 robotaxi 只是极少数情况下向后台求助,那更像是成熟系统里的例外处理。可如果它隔一段路、逢施工就问、见警察就停、到机场就求助,那它就还不是一套足够自主的公共道路系统,而是一套高度依赖人工补位的半自动运营网络。
旧有讨论更集中在路面上的接管瞬间:车停住了,警察来指挥了,现场有人替它收拾残局。新线索把视角往后台拉了一层:路上看不见人的地方,可能才是自动驾驶最常见的“人工接口”。这不是推翻原来的判断,而是把“最后谁来握方向盘”从现场人手,扩展到了远程人手。
最大的灰区,在于“协助”和“接管”之间那条线并不清楚
自动驾驶公司常把 remote assistance 说成高层级支持:远程员工看一眼环境,告诉车辆应该绕行、等待,或者选择另一条路径,具体动作仍由系统完成。按这个说法,车还是自己在开。
问题在于,行业使用的词很干净,现实操作未必同样干净。
TechCrunch 提到,Tesla 在回复中给出了一个格外敏感的信息:其远程协助人员在升级后的场景里,被授权可以暂时直接控制车辆。如果属实,这就已经不是一般意义上的“后台建议”,而更接近远程接管。
这条信息补强了旧稿里一个原本更偏经验判断的结论:自动驾驶最大的风险,未必总发生在系统彻底失灵的一刻,更多时候出现在人和系统如何交班、谁有最终控制权、乘客和路人却并不知情的灰区里。
对监管来说,“建议”和“控制”不能混为一谈。
- 如果只是建议,重点是记录频率、决策边界和断网后的降级策略
- 如果能直接控制,重点就变成远程驾驶资格、通信可靠性、责任认定和乘客告知
这也是为什么 Markey 把问题指向透明度,而不是单纯指向某一次事故。因为一旦定义不清,公众听到的“无人驾驶”,和系统真实运行的“有人远程兜底”,就可能不是一回事。
为什么这件事重要:它会影响乘客信任,也会影响监管门槛
对普通乘客来说,最相关的不是技术名词,而是两个很实际的问题:
- 你坐的这趟车,后台到底有没有人随时在帮它判断
- 一旦车陷入异常,帮忙的人是在给建议,还是能直接接管
大多数人并不一定排斥人工协助。很多乘客甚至会觉得,有人兜底更安全。问题在于,企业如果一边把产品讲成“真正无人”,一边又不肯说明人工介入的频率和深度,用户就很难判断自己买到的到底是什么服务。
对监管者来说,远程协助频率很可能会成为比宣传口径更有用的指标。它能帮助回答几个更现实的问题:
- 这套系统在哪些城市、哪些路况下还不稳
- 运营规模扩大后,后台团队是否跟得上
- 是否存在跨境外包、低成本人工支撑大规模运营的情况
- 网络中断时车辆如何停车、等待或退出道路
新线索的真正补强在这里:它把“自动驾驶偶尔需要人帮忙”从技术常识,推进成了公共披露问题。只要车已经上路收费、进机场、进主城区,它依赖多少人工,就不该完全被包进“运营机密”里。
接下来最该看的,不是口号,而是会不会出现统一披露标准
眼下还看不清的是,NHTSA 是否会据此推动正式调查,或者形成统一的远程协助披露口径。但有几项变量已经很明确,后面值得盯紧。
第一,企业是否被要求按统一方式披露数据。
真正有用的不是笼统承认“有远程支持”,而是可比较的数据:每千英里介入几次、建议型多少次、控制型多少次、哪些场景最常触发、不同城市差异多大。
第二,乘客告知会不会成为硬要求。
如果一段行程可能受远程团队影响,用户是否应该被明确告知,至少在监管上已经是个合理问题。
第三,行业会不会出现分化。
一类公司可能愿意把远程协助当成安全冗余,公开频率和边界;另一类公司可能继续把它埋在“后台运营支持”的大口袋里。到了那一步,谁更像科技演示,谁更像公共交通服务,差别会越来越清楚。
旧稿关心的是:自动驾驶一旦在现实里卡壳,最后常常还是得靠警察和现场人类收场。新线索补上了另一半画面:很多卡壳,可能在走到那一步之前,就已经由后台的人悄悄托住了。
这并没有证明自动驾驶不行,只是把评价标准改得更接近现实。判断一套系统靠不靠谱,不能只看它出事时谁来救场,也要看它平时到底请了多少隐身的帮手。
