伦敦国王学院的一项新研究表明,自动驾驶汽车系统存在偏见问题。 这 斯塔迪 检查自动驾驶研究中使用的八个人工智能行人检测系统。 研究人员通过该软件运行了 8000 多张图像,发现自动驾驶汽车系统检测成年行人的能力比儿童高约 20%,检测浅肤色行人的能力比深色皮肤行人的能力高 7.5%。 而且人工智能在弱光和低环境下识别深色皮肤的人的能力较差,这使得该技术在夜间不太安全。
对于儿童和有色人种来说,过马路在不久的将来可能会变得更加危险。
该研究的作者之一张吉博士表示:“人工智能的正义在于人工智能系统以同样的方式对待特权群体和弱势群体,而自动驾驶汽车则不然。”一篇文章中说。 新闻稿。 “汽车制造商不会公布他们用来检测行人的软件的详细信息,但由于它们通常是基于我们在研究中使用的相同开源系统构建的,因此我们可以非常确定他们面临着同样的偏见问题。”
该研究没有测试自动驾驶汽车公司所使用的相同软件,这些公司已经将其产品投放到街道上,但随着汽车变得越来越流行,它确实增加了日益严重的安全问题。 本月,加州政府推出 Waymo 和 Cruise 集团在旧金山免费运营无人驾驶出租车 一天 24 小时。 确实,技术 引发事故 和 引发抗议 在城市。
Gizmodo 已经联系了几家以自动驾驶汽车闻名的公司。 克鲁兹和特斯拉没有回应置评请求。
Waymo 发言人表示,这项研究并不代表整体 附属机构 公司车辆使用的工具。 ”在 Waymo,我们不仅仅使用摄像头图像来检测行人 Waymo 发言人桑迪·卡普 (Sandy Karp)。 “我相反,我们利用全套传感器(包括传感器和雷达,而不仅仅是摄像头)来帮助我们有效地感知周围环境的细节,而仅靠摄像头可能很难做到这一点。”
研究人员表示,该技术在儿童和深色皮肤人群中出现问题的主要原因是用于训练人工智能的数据存在偏差,其中包含更多成年人和浅肤色人群。
卡普表示,Waymo 训练其自动驾驶技术来专门对人类进行分类,并对人类的行为和言语做出反应,以确保其数据集具有代表性。
算法反映了数据集和创建数据集的人的想法中的偏见。 一个常见的例子是 面部识别软件,不断被证明 准确度较低 有着女性、深色皮肤的人,尤其是亚洲人的面孔。 这些担忧并没有阻止人们对此类人工智能技术的热情拥抱。 面部识别已经对这种情况负责 无辜的黑人被关进监狱。
8 月 24 日下午 1:45 更新: 本文已根据 Waymo 的评论进行了更新。
“社交媒體傳播者。學生。讀者。麻煩製造者。典型的性格內向。”
More Stories
北京致中国电动汽车制造商:在投资支持关税的欧盟国家之前要三思而后行
平箭头。 Meta 和微软盈利高于华尔街预期,MinRes 与 Rhinehart 达成天然气交易,JB Hi-Fi 和 Coles 销售额增长
欧洲对中国电动汽车征收关税:你需要知道的一切