特斯拉致命撞车事故涉及自动驾驶,驾驶员注意力不中心化
关于2018年特斯拉悲剧性致命事故的报道表明,自动驾驶汽车技术在检测某些类型的致命障碍方面存在局限性。
如今,各种媒体继续报道美国国家运输安全委员会的调查结果,显示一名被智能手机应用程序分心的苹果员工允许他的车辆驶入一条分开的高速公路上的“通行区域”(一个急剧出现的三角形障碍物)特斯拉自动驾驶仪的防撞系统无法识别。
对事件的一些调查还表明,这不是特斯拉自动驾驶仪第一次犯同样的错误-只是驾驶员之前已发现它。
诸如此类的令人毛骨悚然的故事(虽然很少见)向我们展示了自动驾驶汽车的实际局限性-尽管它们足够聪明,可以避免大多数类型的事故,但它们并不能替代人类的视野和直觉。
一位不知名的BBC记者今天上午写道:“特斯拉的Autopilot软件的使用与多次坠机有关。”该系统可使汽车半自动运行,改变车道并调整速度。但批评人士说,“自动驾驶”品牌使一些驾驶员认为汽车正在完全自动驾驶。”
特斯拉曾多次警告驾驶员在使用特斯拉自动驾驶仪时必须坐在前排座位并保持警觉,但可悲的是,这并未完全消除这种人为错误。
然后是监管问题,由谁来承担这类悲剧性事故的责任。
NTSB主席罗伯特·L·萨姆沃尔特(Robert L. Sumwalt III)在一份新闻声明中说:“工业以使人们受伤或死亡的方式不断实施技术。” “如果您拥有部分自动化的汽车,那么您就不会拥有自动驾驶汽车。不要假装你这样做。”
NTSB所说的“系统限制”涉及高风险–人类生活。
我们必须从自动化的最危险的应用中摆脱出来的观点是,人工智能不能取代人工监督。它可以为人类决策提供强大的帮助,但最终,人类必须坐在驾驶员的座位上。