1. 人工智能的法律三问 人工智能侵权责任如何认定
2016年11月,在深圳举办的第十八届中国国际高新技术成果交易会上,一台名为“小胖”的机器人突然发生故障,在没有指令的情况下,自行砸坏了部分展台,并导致一人受伤。
人工智能应用范围的日益普及,其引发的侵权责任认定和承担问题,是对现行侵权法律制度提出的又一个新的挑战。
“从现行法律上看,侵权责任主体只能是民事主体,人工智能本身还难以成为新的侵权责任主体。即便如此,人工智能侵权责任的认定也面临诸多现实难题。”在清华大学法学院教授程啸看来,侵权发生后,谁是人工智能的所有者,就应当由谁负责,在法律上似乎并不存在争议。“然而人工智能的具体行为受程序控制,发生侵权时,到底是由所有者还是软件研发者担责,值得商榷。”
与之类似的,当无人驾驶汽车造成他人损害侵权时,是由驾驶人、机动车所有人担责,还是由汽车制造商、自动驾驶技术开发者担责?法律是否有必要为无人驾驶汽车制定专门的侵权责任规则?这些问题都值得进一步研究。
“现实中,人工智能侵权责任的归责原则,可能更多涉及危险责任或无过错责任。”程啸认为,例如无人驾驶汽车致害,无论从产品责任还是机动车交通事故责任上看,都可以适用无过错责任。但未来需要考虑的是,人工智能技术的运用,其本身是否属于高度危险作业(如无人机),从而决定了是否适用高度危险作业致害责任。
“当前,人工智能侵权责任中的因果关系、过错等要件的判断也变得日趋复杂。”程啸还举例说,此前曝光的一些APP“大数据杀熟”和“算法歧视”,由于代码的不透明,加之算法本身的自我学习和适应能力,使得“将算法歧视归责于开发者”变得很困难。
在程啸看来,针对人工智能带来的新问题、新挑战,在法律制度的研究方面未雨绸缪,将为以后的司法实践赢得主动。“人工智能已经到来,只是在生产生活的各个领域分布不均。我们不应等到未来分布均匀、人工智能已完全融入生产生活的方方面面时,才想起来从法律进行规范。”程啸说。
2. 自动驾驶快速发展,事故责任该如何认定
车辆事故是我们生活中很常见的,各种车辆在行驶过程中发生刮擦、追尾等行为,在生活中也很平常。但是,随着未来越来越多的无人驾驶汽车上路,驾驶过程中的人为因素将越来越少,由人为因素引起的交通事故将急剧减少。尽管在一般情况下自动化更加安全可靠,但在这种情况下,交通事故是否必然发生?在美国,这起撞死行人的汽车事故在前不久给我们敲响了警钟。
目前阶段,任何级别的自动或无人驾驶都可能导致交通事故。所以,作为消费者,我们要有法律意识,在购买带有自动驾驶系统的汽车之前,有条件的请自己的法律顾问来详细看一下购车合同和车辆使用说明书,最大限度的维护自己的合法权益。自动驾驶和无人驾驶是未来的发展趋势,但我们在应用新技术的同时,要有较强的法律意识和防患于未然的意识,要通过专业汽车驾驶规范的理解和掌握,不断学习和更新知识储备,以适应这个知识与技术“爆炸”的时代。而不是事后才想起找律师为自己的不幸寻求帮助。
3. 自动驾驶发生事故谁负责
就在最近,在经过航空官方几个月对无人机和飞机之间的飞行数量和距离的警告之后,无人机与飞机之间距离过近的时间频频发生。为了让我们真正受益于这些新技术,保险公司、政策制定者和技术生产者必须齐心协力,以确保有人负责并且使风险得到有效管控。
每天,我们的生活都更像电影《回到未来》。虽然我们的车还不能飞,但已经可以自动驾驶了。快递员也在被无人机取代。我们的家、车,甚至城市都变得“智能”,或者说更多地融入到这个“数字世界”。
我们很高兴看到这些创新变成了现实。但新产品也带来了新的风险,而且现在他们正阻止我们将这些创新带到大众市场。7月,一辆自动驾驶的特斯拉汽车发生了第一起致命的事故。就在最近,在经过航空官方几个月对无人机和飞机之间的飞行数量和距离的警告之后,无人机与飞机之间距离过近的时间频频发生。为了让我们真正受益于这些新技术,保险公司、政策制定者和技术生产者必须齐心协力,以确保有人负责并且使风险得到有效管控。
我们尤其应该采取三项行动。首先,人工智能产品的责任应该明确界定并对外界透明。第二,应该建立用互联网功能的共享数据,在不危机安全的情况下允许连接的设备数据共享。第三,一个全球认可的机构应授权以及监督该行业的管理标准。
让我们从责任谈起。
很明显,配备人工智能的产品可以比那些不配备的更好、更安全。 例如,据估计自动驾驶的车辆会将事故率降低90%,成为“本世纪最伟大的健康成就”。
但随着这些智能机器的不断发展,它们导致事故的责任问题出现了。谁应对自主或人工智能的“机器人”造成的伤害负责? 如果人工智能设备的所有者无法再控制设备的操作,那么他们仍然负有责任吗?
目前,没有为全自动化人工智能设备提供清楚、和谐(认为是全球认可的)故障机制的规定。因此,保险人必须与技术制造商和决策者共同努力,以解决这些责任归属方面的空白。没有明确的责任归属,保险公司将无法弥补个人、制造商或技术设计人员的损失。
第二,考虑创建一个用于数据共享的安全网络。
在“信息物理系统”的时代,我们的汽车不仅是自主的而且是“智能的”,也就是说是数据连接的。但数据连接也会自动带来人为错误和恶意黑客的风险。 2015年,克莱斯勒在了解到车辆容易受到无线黑客攻击,会被第三方控制仪表板功能、转向、传动和制动之后,召回了超过150万辆汽车。
威胁范围远远超出我们的车辆。在过去几个月里,美国和德国政府系统曾被黑客攻击。关键问题不能忽视:如果不只是一辆汽车,而是所有的汽车被黑客攻击呢? 如果一个意图破坏的组织控制我们的数字基础设施并切断水电,该怎么办?
我在世界经济论坛上组织了一场降低风险的会议,在这次会议中,保险公司都纷纷对上述问题表示了担忧。他们要求与政府、制造商和技术设计人员合作,明确数据需求和树立访问框架,并实时高效地共享数据。这是朝着正确方向迈出的一步:所有利益相关者需要共同努力,使新兴技术的前期设计更加透明化,以便在新技术开发的每一步中实现统一的安全标准并降低风险。
最后,考虑建立一个全球公认的标准体系。
现在,保险标准和规定保险范围的的缺失,抑制了社会在伤害和损失方面的保护。随着按需经济的出现,许多共享平台既没有保险也没有最低限度的自我保险。
此外,城市或地区之间监管不统一。例如,在加拿大,分享经济的合法性因省而异。(在多伦多是合法的,在温哥华不是)
网约车使穿越城市、州和国家线路变得十分容易。在这样的一个世界里,如果我们要保护个人长期性需要的社会保护(即种族歧视,背景调查 /许可证验证和保险要求),协调变得非常重要。
在没有强制要求保险或建立单一认证机构的情况下,共享汽车的驾驶员可能没有商业能力驾驶所需的保险;个人出租自己的房子几个晚上可能没有适当的房主保险; 个人本身可能没有适当的医疗保险、养老金或其他长期保护卖家和用户的受监管的保险,
总之,虽然这些新兴技术为社会带来巨大的利益,但它们本质上带来了新的和更复杂的风险,其中将导致财产和生命的严重损失。分散的监管框架、缺乏责任和缺乏统一标准阻碍了保险公司通过开发新产品来管理这些风险的能力。但通过共同努力,在未来这些风险不仅可以消除,我们甚至可以预防它的发生。
我们可能永远不会像在电影中那样回到未来,但至少我们要回到一个有适当的风险保障和责任的世界。
4. 人工智能侵权责任是如何认定的
人工智能应用范围的日益普及,其引发的侵权责任认定和承担问题,是对现行侵权法律制度提出的又一个新的挑战。
“从现行法律上看,侵权责任主体只能是民事主体,人工智能本身还难以成为新的侵权责任主体。即便如此,人工智能侵权责任的认定也面临诸多现实难题。”在清华大学法学院教授程啸看来,侵权发生后,谁是人工智能的所有者,就应当由谁负责,在法律上似乎并不存在争议。“然而人工智能的具体行为受程序控制,发生侵权时,到底是由所有者还是软件研发者担责,值得商榷。”
与之类似的,当无人驾驶汽车造成他人损害侵权时,是由驾驶人、机动车所有人担责,还是由汽车制造商、自动驾驶技术开发者担责?法律是否有必要为无人驾驶汽车制定专门的侵权责任规则?这些问题都值得进一步研究。
“现实中,人工智能侵权责任的归责原则,可能更多涉及危险责任或无过错责任。”程啸认为,例如无人驾驶汽车致害,无论从产品责任还是机动车交通事故责任上看,都可以适用无过错责任。但未来需要考虑的是,人工智能技术的运用,其本身是否属于高度危险作业(如无人机),从而决定了是否适用高度危险作业致害责任。
“当前,人工智能侵权责任中的因果关系、过错等要件的判断也变得日趋复杂。”程啸还举例说,此前曝光的一些APP“大数据杀熟”和“算法歧视”,由于代码的不透明,加之算法本身的自我学习和适应能力,使得“将算法歧视归责于开发者”变得很困难。
5. 自动驾驶出事算谁的锅沃尔沃:我负责
如果计划顺利实施,那将是沃尔沃在汽车安全领域的又一次创举。
上周三,沃尔沃汽车宣布将与硅谷的激光雷达制造商Luminar合作,用其产品来装备沃尔沃计划于2022年开始推出的、基于SPA 2模块化架构的下一代系列车型。
什么是激光雷达?
激光雷达(Light Laser Detection and Ranging,以下简称LiDAR)是一种通过激光对外界物体进行探测和测距的传感器系统,包括发射机、天线、接收机、信号处理机等部分,它是激光和雷达技术相结合的产物。
相比在汽车ADAS领域常用的另外两种传感器:雷达和摄像头,LiDAR不仅看得更清楚(定位和测距精度高)、更全面(可获取目标的3D信息),而且看得更远——尤其是后者对于高速行驶这样的应用场景极为重要。
Luminar的LiDAR有什么不同?
总的来说,用于汽车的LiDAR分为三种技术路径:机械式、混合式和全固态LiDAR。
机械式LiDAR通过旋转发射天线来实现激光的扫描,但复杂的结构和较多的活动部件影响了其成本和可靠性。
混合式LiDAR则是依靠微机电系统(MEMS)控制的微型反射镜来对激光进行偏转,主要优势是可以调整扫描模式对关键区域进行聚焦,从而提高该区域的空间分辨率。另外,还有通过调整信号相位实现电子扫描的相控阵全固态LiDAR和工作原理类似摄像头的Flash LiDAR。
Luminar的LiDAR名为Iris(虹膜),采用的是先进而较为成熟的MEMS技术。与众多采用波长905纳米激光不同的是,Iris采用的是波长1550纳米的激光,这种激光的波长距离可见光更远,也就是说眼睛对它更不敏感、更难被伤害,因此安全的发射功率可以大大增加,据说提高了几十倍。
更高的功率让Iris可以在250米的距离上探测到人体四肢的动作,而现有产品通常只能在三四十米的距离上获得这样的效果。Luminar的创始人和CEO奥斯汀?拉塞尔甚至透露,Iris的最远探测距离可以达到500米。
他还说:“500米的探测距离意味着15秒的行驶距离,即便是250米也对应着7.5秒,而现有系统则只能覆盖1秒钟的行驶距离,所以在像德国Autobahn之类的高速公路上行驶时,这样的探测距离至关重要。
配备LiDAR的沃尔沃意味着什么?
各种LiDAR曾经相当昂贵,而拉塞尔认为在数以十万计的量产之后,Iris的单价可以降低到1000美元以下,这让沃尔沃得以在SPA 2车型中标配其硬件,用户需要通过付费选装获得控制软件。
系统只有在符合条件的场景下,才能够启动工作。有关场景的判断,并不完全由用户主观决定。而是系统根据网络和传感器获得的信息进行最终判断。一旦启用,责任将由制造商承担,用户无需为后果担负责任。
以Iris为核心传感器,再加上未来一段时间算法和运算能力的改进升级,SPA 2的自动驾驶系统将能够实现在高速公路上的L3级别的自动驾驶。
别看L2甚至L2+级自动驾驶现在并不罕见,但是从L2或L2+到L3有本质上的提高——L3级别第一次允许驾驶者在某些场景下不用注视路面的情况,解放了双眼。而这种叫Iris的LiDAR正是代替了我们肉眼的那只火眼金睛。
拉塞尔认为,通过Iris的应用,自动驾驶系统能够将汽车的安全性提高2~3倍,是一种完全可以与安全带和安全气囊相提并论的巨大飞跃。他还说:“从长远来看,因为系统能够主动接管车辆从而避免事故,所以将几乎不再有车祸发生,这一定能够实现。”
本文作者为踢车帮 阿来
本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。
6. 我就想问问,自动驾驶中出事故了撞死人了,特斯拉 华为会因此承担法律责任吗
自动驾驶如果出了事故的话,是车子的机自动驾驶系统的问题,那么肯定是有车子的制作方面负责,因为是车子存在质量问题,如果是华为提供的系统,那么使用方用它来制造汽车,那么就由他来负担
7. 无人驾驶汽车事故责任该怎么划分
这几年汽车发展很迅速,买车的人也越来越多了,交通事故也随之上升,有大有小。在新闻里看到,某某高速公路发生重大交通事故,现场一片狼藉,损失惨重。是的,在高速公路上发生交通事故往往后果很严重,造成很大的人身伤害,造成的损失也很大。普通城市道路的磕磕碰碰那就不计其数了。
我们呼吁,不管是无人驾驶汽车还是普通汽车,在路上行驶时,都要严格按照交通规则行驶,遵守交通信号灯,按照规定车道行驶,不超速,拒绝酒驾,文明驾驶,这样既可以减少交通的拥堵,更关键的是减少交通事故的发生,保障路途中的人身安全。
8. 自动驾驶汽车事故责任怎样划分
据北京时间3月31日报道,日本计划让车主承担自动驾驶汽车发生的交通事故责任——像普通汽车一样,减轻汽车厂商对承担自动驾驶汽车交通事故责任的担忧,可能加快自动驾驶汽车的商业化。
这一政策是日本政府未来投资委员会星期五公布的与自动驾驶汽车有关的方针的一部分。这一方针最早将于2019年提交日本国会讨论。
与普通汽车一样,车主将对汽车处于自动驾驶模式时的交通事故担责,可以由政府强制购买的汽车险理赔。只有在车辆存在缺陷的情况下汽车厂商才需要担责。保险公司将开发针对自动驾驶汽车的新险种。
为了有助于查清事故责任,自动驾驶汽车将要求安装相关设备,能记录位置,以及自动驾驶系统运行状态等信息。
只要车主采取了恰当的安全措施——例如更新汽车各种系统,汽车遭到黑客攻击造成的损失,将按照汽车被盗窃的情况处理。
还有诸多问题——例如交通事故的刑事责任——是日本政府的方针所没有解决的。日本道路交通法规,可能与自动驾驶问题存在不“兼容”,因为它们是基于《日内瓦道路交通公约》的,假定道路交通离不开人的参与。这一公约修改的可能性不大,承担刑事责任的可能性对汽车厂商影响相当大。
判断无人驾驶的运行环境——例如速度限制、时间和天气,也是至关重要的。政府还必须制定控制系统和防御黑客攻击的标准,它计划今年夏季制定自动驾驶汽车安全方针。
本月早些时候,一名亚利桑那州女性在公路上被一辆Uber自动驾驶测试车撞上身亡。这一事件引发了有关自动驾驶汽车交通事故责任的争论。
9. 自动驾驶出现的事故,将由谁来承担责任
自动驾驶实现的终极目标是:零事故。相关机构预计,到2050年这个行业的产值将达到5.5万亿英镑。
自动驾驶如果不能提供完美的服务,它就会像自主驾驶技术一样,存在各种缺陷,受到各种道德、情感和法律的挑战。
支持自动驾驶的人认为:如今被贴上乐观标签的"自动驾驶"技术已经证明了它的价值——事故的发生率远低于人们不使用这些技术时的发生率。这也正是特斯拉掌门人埃隆-马斯克之前所坚持的观点,尽管他的数据受到了质疑。
也有人认为,为了长期更快地推进技术的发展,短期内的伤亡成本是值得的。这是一个合乎逻辑的论点,但对于那些因为车载电脑故障而丧生的孩子的父母来说,这并不能起到任何安慰作用。
在一定程度上,很多新车司机在使用自适应巡航控制或车道保持辅助时,已经体验到了自主驾驶科技的能力。虽然这些通常会让驾驶变得迟钝和不稳定,但是条件比较好的时候,它可以让车辆在公路上畅行,几乎不需要任何干预。
在理想条件下工作的技术没问题,但当它受到损害时,比如说受到天气或泥土的影响,会发生什么?或者当前方发生不可预知的事情,而汽车却高速在公路上行驶时,会发生什么?电脑真的能像人类一样读懂这个场景吗?
即使能,它又该如何应对?那些以安全为核心的品牌,会不会让自己的方案比那些以驾驶快感为优先的品牌更有智慧?比如说,沃尔沃会不会一出现问题就停车,而宝马会不会多等一会儿?如果它们都提供同样的东西,为什么要选择这一个而不是另一个?
还有一个问题,如果真的出了问题是谁的责任?是创造系统的技术开发者,还是销售技术的汽车制造商,还是选择关闭或开启技术的驾驶员?还是保险公司要背这个锅,即使在过渡阶段,有些车可能会运行系统,有些车不会运行?
本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。