特斯拉超级充电网络十周年T-talk详细讲解全场景补能解决方案
05-17
假设这是一年中的一个晚上。
一个醉汉在人行道上摇摇晃晃地走着。
突然,他一个踉跄,直接跌倒在旁边的高速公路上。
一辆超速行驶的无人驾驶汽车直接撞到了该男子。
不幸的是他当场死亡。
如果这辆车是由人类司机驾驶的,那么显然醉酒的行人应该对这起事故负责,因为司机不可能在这么短的时间内做出反应,避开突然冲出来的路人。
不过,早在2020年代(年~年),由于无人驾驶汽车大规模投放市场,交通事故发生率下降了近90%。
此前,相关法律规定,“驾驶人因他人过错造成他人死亡的,不承担刑事责任”中提到的“驾驶人”,如今已成为“具有合理判断力的机器人”。
死者家属以此为据,将制造无人驾驶汽车的整车厂告上法庭,声称“即使没有来得及刹车,也应该转弯避让行人,越过双黄线,然后坠毁”进入相邻车道。
“没有载客的自动驾驶汽车。
”当根据车辆传感器提供的数据重建事故现场时,你会发现死者家属的指控确实很有道理。
法庭上,原告的律师不断质问总设计师无人驾驶汽车的软件,“为什么无人驾驶汽车不知道如何转弯?” 无法回避的障碍让我们回到新年的现实。
在交通事故的审判中,没有人会质疑司机在事故发生前某一时刻的行为,因为人们会惊慌失措,可能根本无法思考事故发生前的那一刻。
任何行为都只是人类自身的本能反应。
。
但一旦机器代替人驾驶,知道“为什么”就变得非常有必要。
人类社会的道德标准和规则并没有具体体现在现代法律中,因此工程师们似乎不敢将所有可能的假设纳入控制无人驾驶系统的代码中。
假设一个有良好判断力的人正在开车,他会知道在什么情况下他可以为了自己的生命而超越法律限制。
因此,对于开发无人驾驶系统的工程师来说,首要任务是首先教会机器如何做出合理的决策。
判断。
众所周知,电子防死锁制动系统早在20世纪70年代就出现,可视为自动驾驶技术的雏形。
截至目前,自动转向、自动加速、紧急制动等先进驾驶辅助功能逐年出现在各大品牌的量产车型中。
目前在英国、美国、荷兰、德国和日本等国家的公共道路上进行测试的无人驾驶汽车背后都有经过培训的人类驾驶员。
包括谷歌、日产、福特在内的整车厂和科技互联网公司都表示希望在未来5到10年内推出真正的自动驾驶汽车。
自动驾驶汽车依靠安装在汽车上的摄像头、超声波传感器、雷达、激光雷达等大量不同功能的传感器来获取外部环境信息。
目前获准在加州进行道路测试的自动驾驶汽车必须向加州交通部 (DMV) 提供每次碰撞前 30 秒所有传感器收集的数据。
这样做的目的是,工程师获得这些数据后,能够准确还原事故前后的场景。
通过传感器记录的数据,他们可以了解自动驾驶系统在这种情况下是如何做出决策的,是怎么想的。
选项。
甚至可以要求计算机重述推理过程,这有点像要求玩家解释他在电子游戏或模拟驾驶中做出的每一个决定。
这意味着,为了尽可能避免交通事故,监管部门为自动驾驶制定的安全法规和标准可能会比平时更加??严格,对自动驾驶车辆的监控和监管也将非常密集。
当然,对于原始设备制造商和软件开发人员来说,保护机器的行为可能比保护人类驾驶员的行为要困难得多,甚至可能需要替代方法。
任何驾驶行为都是有风险的,而“道德因素”在决定如何在司机、行人、骑行者甚至公共财产之间分配风险方面发挥着关键作用。
无论是工程师还是普通大众,自动驾驶汽车的决策系统每次做出决策时都要从人类伦理道德的角度来考虑问题,这一点很重要。
法律优先还是道德优先?通常,当遇到道德模棱两可的情况时,我们一般都会注重遵守法律,同时尽量减少特定后果造成的损害。
这种策略之所以受欢迎,是因为开发者几乎不费力去解释自动驾驶汽车的行为(这是基于法律法规的决定),而定义道德行为的责任则转移到了立法者的手中。
例如,在大多数国家,相关法律规定已固化为驾驶员的常识,但很少具体规定驾驶员在碰撞发生前应采取哪些行动。
在文章开头给出的案例中,这辆自动驾驶汽车依法不会主动转弯碾过双黄线。
即使冒着撞到闯入机动车道的喝醉酒的行人的风险,相邻车道上仍然有人。
一辆空的无人车。
当然,法律基本上没有对“如何处理紧急情况”做出特别说明,尤其是像“行人误驶高速公路”这样的类似情况。
尽管弗吉尼亚州法律也会规定类似的例外情况,但该法律的字面意思似乎暗示“只要汽车不造成碰撞,就是合法的”。
在这种特殊情况下,只有软件工程师才能决定何时可以安全地跨越双黄线。
但话又说回来,无人驾驶汽车恐怕不可能100%确定能够越过双黄线保证安全。
如果从机器的角度考虑,它的置信度可能是98%到99.99%。
因此,负责自动驾驶系统编码的软件工程师可能必须提前估计系统有多大的信心才能在紧急情况下越线。
同时,这个临界阈值是否应该根据汽车想要避开的物体而定。
毕竟,避免塑料袋与避免行人的闯入需要完全不同的判断。
然而,目前自动驾驶汽车经常使用“判断”来得出与现有法律相悖的结论。
谷歌承认,它允许在公共道路上测试的自动驾驶汽车加速驶入交通,因为开得太慢很危险。
有时,为了尽快将生病的家人或朋友送往医院,超速行驶是不可避免的。
斯坦福大学研究人员 Chris Gerdes 和 Sarah Thornton 反对将法律纳入自动驾驶汽车的控制程序中作为硬约束,因为人类司机懂得如何灵活变通,会在关键时刻权衡拿到票和收益之间的关系。
但一旦机器被程序绑定,即使你很着急,但你被前面骑车的人挡住了,载着你的自动驾驶汽车又拒绝越线超车,你就太着急了,有没有脾气。
事实上,自动驾驶汽车可以在不违反法规的情况下智能地做出许多安全决策。
例如,大多数交通法规并没有严格规定机动车在车道上的位置,大多数单向街道的宽度一般是普通机动车的两倍。
因此,利用额外的空间,自动驾驶汽车可以完全避免突然碰撞。
有障碍物或者有些车左右晃动。
谷歌在2017年提交的自动驾驶汽车专利中表示,其自动驾驶汽车可以通过改变在车道上的位置来避免交通事故。
例如,当无人驾驶汽车在三车道中间行驶时,左边有一辆汽车,右边有一辆大卡车。
为了确保最大的安全性,自动驾驶车辆会选择靠近左侧车辆行驶。
这个做法听起来很合理,对吧?而这也是大多数人在开车时自觉不自觉地做出的选择。
但从道德角度来看,这种做法其实是不妥当的。
如果自动驾驶汽车转向靠近汽车行驶,虽然降低了事故率,但似乎将撞车的风险转移到了汽车身上。
难道因为规模小就必须承担更大的风险吗?如果这只是某个司机的个人行为,那也没什么大不了的。
但一旦这种风险转移模式成型并且所有自动驾驶汽车都这样做,后果将难以预测。
机器大脑不能弯曲,这是个问题! 在上述每种情况下,无人驾驶汽车的决策都需要考虑可能撞击的物体和车内的乘客。
与人类不同的是,人类往往是下意识地做出决策,而机器会遵循一定的预设和既定的逻辑规则和风险管理策略来执行。
同样是在 2017 年,谷歌提交了一项自动驾驶汽车风险管理申请专利。
谷歌在其专利介绍中引用了自动驾驶汽车试图改变车道以更好地看到交通信号灯的例子。
讨论还指出,汽车可能会因为故障传感器的错误数据而担心发生碰撞,从而放弃有关交通信号灯的准确信息。
这里需要指出的是,每一种可能的结果都有一定的可能性,结果的属性也有正属性和负属性(所谓收益和成本)。
当然,任何结果的大小都会随着可能性的增加而加倍,最终的结果是各个变量的总和。
假设系统根据一个合理的临界值判断出最终的收益大于成本,那么它可能会采取导致这个结果的行动。
但问题是,发生碰撞的风险和概率太小了。
在美国,驾驶员平均行驶 257,000 公里,或者每 12 年才发生一次碰撞事故。
此外,衡量人身损害程度也更加困难。
财产损失很容易计算,保险公司最擅长这种事情,但如何量化个人伤亡却不是那么简单。
此外,一旦考虑到人的生命、浪费的通勤时间等,在面对“我们应该如何让他人面临风险?”这个问题时,将道德视为主要出发点似乎是不合适的。
例如,假设有这样一辆自动驾驶汽车,平等对待所有人类。
在路上行驶时,肯定会给不戴头盔的摩托车手更多的空间,因为一旦发生车祸,他似乎更有可能失去生命。
但说实话,这是不公平的,因为对于那些有安全意识、几乎全副武装的摩托车手来说,他们被迫承担了发生事故的风险。
此外,机器人的所谓“伦理”与人类自身的伦理认知最大的区别在于,前者很容易被扭曲,即使负责程序开发的工程师有良好的意图。
想象一下,控制自动驾驶汽车运行的算法会根据不同地区的情况调整汽车与行人之间的缓冲距离,而判断标准可能是基于对民事诉讼判断结果的分析涉及交通事故。
虽然这是一种相对合理、有目的、高效的自动驾驶车辆控制方式,但也可能会导致不良结果。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
05-18
05-27
05-16
05-27
05-18
05-27
05-27
05-18
05-27
05-27
最新文章
工信部将继续支持新能源汽车,两个机会不容错过
续航300公里的比亚迪秦EV电动版或将于3月上市
中国汽车工业协会数据!前11个月自主品牌出口下降9.3%
蜂巢能源常州工厂一期工程已投产,探路者车规级AI动力电池工厂
奥迪首款量产纯电动SUV e-tron正式亮相,续航400公里,明年进入中国
2024年,特斯拉电动汽车全球分离器使用量将达到3.4亿平方米
极氪汽车重启美股IPO,目标估值51.3亿美元
江淮iEV6S消息曝光 将于今年4月25日上市