BBS

  • 注册
  • 登录
  • 搜索
  • 标签
  • 帮助
BBS » 科学、生活、常识、益智 » 人类,谷歌无人驾驶汽车的天敌 » 发表回复

预览帖子

游客


发表回复

用户名 游客 [会员登录]
  (可选)
  • Html 代码 可用
  • 表情 可用
  • Discuz!代码 可用
  • [img] 代码 可用
B I U | 字体 大小
| Align Left Align Center Align Right | Url Email Image | Quote Code
Rremove Format Unlink Undo Redo | Ordered List Unordered List Outdent Indent Float Left Float Right | Table Free Hide | flyflashmp3mtvmusicmusic2
flvmtv2music3
简单功能
  • 仿宋_GB2312
  • 黑体
  • 楷体_GB2312
  • 宋体
  • 新宋体
  • 微软雅黑
  • Trebuchet MS
  • Tahoma
  • Arial
  • Impact
  • Verdana
  • Times New Roman
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
收缩编辑框扩展编辑框
上传附件 描述
文件尺寸: 小于 25000 kb
  [完成后可按 Ctrl+Enter 发布]    恢复数据

主题回顾

匿名 发表于 2015-9-7 09:32

扑街, 我想坐无人驾驶的自动车辆。

looloo 发表于 2015-9-7 09:15

目前的无人驾驶技术使车主更容易受伤,呵呵~果然遵守规则的都要吃亏啊。

skytale 发表于 2015-9-7 09:14

引用:
原帖由 Guest from 150.60.56.x 于 2015-9-6 16:50 发表
如果按照那种死板的设计的话以后那些赶时间的人都要提早一个小时以上出门!
不,如果所有汽车都是自动驾驶,效率将会非常高

seaxin 发表于 2015-9-6 17:28

没错,是人的问题,是程序设计者与现实驾驶员之间的思想不协调的问题。
反正这个以安全致上的程序设计协议本身就不太适当,只有所有路上行驶的车都是无人驾驶车辆,这样按照安全驾驶协议设计的行驶程序才得到有效的发挥。[32]
总的来说,这个无人驾驶汽车还有很长一段路要走,不过可以设计半自动无人驾驶汽车那样的程序来先试用一下。~

匿名 发表于 2015-9-6 16:50

如果按照那种死板的设计的话以后那些赶时间的人都要提早一个小时以上出门!

匿名 发表于 2015-9-6 16:35


[attach]135999[/attach]

加利福尼亚州山景城——作为无人驾驶汽车研发领域的领头羊,谷歌(Google)遇到了一个奇怪的安全难题:人类。

上月,当谷歌的一辆自动驾驶汽车来到人行横道前时,它像设想的那样放慢速度让一名行人先行,促使“安全驾驶员”启动刹车。那个行人没事,但谷歌那辆车却没那么幸运。它被后面的一辆由人驾驶的轿车追尾了。

按照设计,谷歌的自动测试车会严格遵守法律条文。但如果拘泥于规则,上路可能都会变得困难。在2009年的一次测试中,谷歌的车没能通过一个十字路口,因为它的传感器一直在等着其他(人类)司机彻底停下来,让它过去。但其他司机一直在向前蹭,寻找有利时机。这种情况让谷歌的机器人陷入了瘫痪。

这不仅仅是谷歌面临的问题。自动化车辆这一新兴领域的研究人员称,自动车面临的最大挑战之一是让它们融入一个人类不照章行事的世界。“真正的问题是,这些车太追求安全了,”研究自动车辆的加州大学圣迭戈分校设计实验室(Design Lab at the University of California, San Diego)主任唐纳德·诺曼(Donald Norman)说。

“它们得学会适度强硬,而什么叫做适度则取决于不同的文化。”

正如一些研究人员预言的那样,世界上如果没有驾驶员,交通事故造成的伤亡会大大减少。然而,广泛使用自动驾驶汽车仍是多年后的事,测试人员仍在应对像黑客这种假设的风险和现实世界里的挑战,比如自动驾驶车辆在公路上出故障了应该怎么办。

目前,让机器人和人类同时上路这个问题更紧迫。多家汽车生产商的车辆已经掌握了警告或是代替驾驶员的技术,不管是通过先进的巡航控制,还是可以自行启动的刹车。Uber正在研发自动驾驶汽车技术,谷歌也于今年7月把测试扩展到了德克萨斯州的奥斯汀。

谷歌汽车通常会迅速采取回避操作,或是谨慎行事。后者立即会变成最谨慎的应对方式,但同时也将导致与路上其他车辆格格不入。

“它永远都会遵守规则,我是说,几乎到了坐在车里的人类驾驶员会想‘这车干嘛那么做?’的地步,”汤姆·苏普莱(Tom Supple)说。最近,谷歌在其位于硅谷的总部附近的街道上进行了一次试驾,而苏普莱正是当时的安全驾驶员。

自2009年以来,谷歌汽车发生了16次撞车事故,大部分是轻微碰撞。谷歌称,每次碰撞都是人的错,包括公司今天上午通报的发生在8月20日的那起追尾。当时,谷歌的车因为行人放慢了速度,安全驾驶员随后手动刹车。接下来,车子被追尾,导致此人因颈椎轻微受伤而进了急诊室。

谷歌有关这起事故的报告揭示了另一个问题:尽管安全驾驶员启动刹车的行为是正确的,但如果让自动汽车独自行驶,它的刹车力度可能不会那么强,因此会行驶到离人行横道更近的地方,给后车留出稍微多一点的刹车空间。这样能避免撞车吗?谷歌表示无从得知。

谷歌称,只有一次撞车事故责任在自己身上。那是2011年8月,谷歌的一辆车与另一辆正在行驶中的车相撞。但需要注意的是,当时谷歌的车是由一名工作人员操控的。所以,错还是在人。

前不久载着《纽约时报》的记者出行时,谷歌的无人驾驶车采取的两次避让操作,既显示出了它因过于谨慎而出错的情形,也表明了那种经历会令人多么恼火。一个操作是,它为了避开一辆车而在一个住宅区急转弯。那辆车停得很糟糕,以致于谷歌的传感器无法识别它会不会开到车道上来。

对车里的乘客来说,车子行驶到一处红灯前时采取的操作更是令人气恼。当时,车流量属中等。安装在那辆无人驾驶车顶部的激光系统检测到,反方向的一辆车正在以高于安全水平的车速朝着红灯开来。于是,谷歌的车猛地右拐,以防撞车。但其实,那辆车的行为不过是人类驾驶员通常会做的:遇到红灯时不够小心,但司机还是很及时地停了下来。

谷歌无人驾驶车项目的发言人考特妮·霍恩(Courtney Hohne)说,当前的测试是为了“理顺”车的软件和人之间的关系。比如,在十字路口,程序允许车像我们其他人可能会做的那样,慢慢向前蹭,在寻找其他车让自己过的迹象时果断转弯。

威斯康星大学(University of Wisconsin)的工业与系统工程教授、驾驶员安全与自动化问题专家约翰·李(John Lee)说,遇到这种情况时,人类通常会“进行眼神交流。在行进中,他们会对谁有先行权达成协议”。

“那么自动车辆的眼睛在哪里呢?”他接下来问道。


当前时区 GMT+8, 现在时间是 2026-4-6 06:16

清除 Cookies - 联系我们 - BBS - WAP - TOP - 界面风格

  • 默认风格
  • 喝彩奥运
  • 深邃永恒
  • 粉妆精灵
  • 诗意田园
  • 春意盎然
  • 黑色

Discuz!

Powered by Discuz! 6.0.0 © 2001-2007 Comsenz Inc.

Processed in 0.012672 second(s), 5 queries, Gzip enabled.