安防行业的视觉建党伟业百度云人车云有哪些优势?

#LINC2015#车云网创始人程李:用数据和服务搭建汽车行业最大创新平台
对我们的未来而言,车云不仅仅要做一家汽车科技媒体,更要做汽车行业的数据服务平台。
12月22日,由车云网主办的「智·享第三空间」吉利博越2015LINC汽车创业大赛于北京鸟巢举行,车云网创始人兼董事长程李在现场发表了题为《链接汽车未来—成为中国汽车行业创新助推器》的演讲,以下为演讲实录。▲车云网董事长程李程李:各位创业者、投资人,各位嘉宾和媒体朋友们,大家上午好!非常荣幸大家能够来到鸟巢,来到智·享第三空间暨吉利博越2015LINC汽车创业大赛决赛的现场,我首先代表车云网,代表我们的合作伙伴一同欢迎大家的到来。应该说汽车是一个非常独特的领域,实际上我认为它一直处在一个不断变革的阶段,这对我们创业者来说,既是突破也是挑战。车云网从2014年开始搭建为创业者和投资人搭建这样一个服务平台,也就是LINC创业大赛。这个创业大赛是基于行业需求,因为我们看到很多汽车领域的创业者、从业人员大部分来自传统领域,而融资经验相对匮乏缺乏使得这个平台的价值更得以凸显,毕竟真正懂汽车的投资人相对来说还是较少。此外,我们认为汽车相关的创业项目大部分是资金需求相对比较高的项目,因此不管资金还是资源,对创业者来说都至关重要。基于这样的目的,我们创办了「LINC汽车创业大赛」这样一个能够为投资人和创业者牵线搭桥的平台,让资金和资源以及我们的创业项目能够很好地对接起来,为双方服务的同时,也完成了车云网的自身外部诉求。&车云网自日创立的那一刻开始,我们整个团队的目标就是希望一起努力,推动整个汽车行业的创新变革,所以我们一开始搭建的是媒体平台。两年半时间里,我们一直在这个领域深耕细作。从用户角度来看,车云网每年活跃用户数达300多万人次,微信端订阅用户是15万,第三方客户端日均阅读量80万。我们在专业领域的原创文章数达到1600多篇,调研报告有60余篇,车型评测50个,创业报道100多篇。此外,我们还在一些领域深耕细作,目前推出了一本叫做《车联网-决战第四屏》的非学术专著。该书在京东和线下多家书店有售,总发行量达到1.2万册。&此外,除线上报告和其他线上传播形式之外,我们在线下,还搭建了沙龙和论坛这样的交流平台。我们在年上海车展期间举办的“汽车+互联网论坛”应该是行业内规格最高的,无愧于车联网领域,特别是汽车科技的第一大媒体。这是我们的第一板块业务。车云的第二板块业务就是我们为创业者服务的创投创业服务。去年的第一届LINC创业大赛,共有120个项目参赛,囊括全国各地近50家投资机构;而2015年LINC大赛报名项目是130个,参与投资机构90家,分站赛有北京、上海、广州、深圳、杭州、武汉、成都。LINC汽车创业平台创业项目数据500个,我们建立起合作和对接方式的机构数据100家,行业资源信息3000家,项目融资对接20个。车云网已经成为国内最大的汽车创业项目对接平台。&对我们的未来而言,车云不仅仅要做一家汽车科技媒体,更要利用数据和服务推动汽车行业创新。在此基础之上,我们还计划明年组建汽车行业最大的创新资源支持平台,为整个产业链的从业人员服务,是车云网成立以来一直坚持的使命。今天这个创业大赛也得到了我们合作伙伴的支持,包括今天来到现场的各位媒体朋友,还有我们投资人,还有我们的创业者,在此表示衷心的感谢。在这里我特别感谢吉利汽车的大力支持,同时我也感谢包括寰球汽车等机构的给予我们的大力帮助。应该说今年汽车产业进入到一个非常特殊的阶段,资本市场也经历了寒冬,包括我们在内所有的汽车从业者都经历了一次壮烈洗礼,我们应该为在座的各位鼓掌加油。再次感谢莅临本次大赛现场的嘉宾和媒体朋友,希望我们共同推动整个产业的变革,一起推动这个行业的创新,让我们一起加油!
相关标签:无人驾驶汽车的真正智能,体现在连接之中?
未来的智能汽车有两大方向,第一是汽车自身的智能化。汽车能够像人一样,应对道路上的各种突发状况。第二是智能+互联。
这篇文章是作者2月份写的,车云菌眼拙才看到,今天转载并做个讨论。【作者引子】在对物联网介绍的相关课件中,我经常会拿物联网冰箱和车联网来作为重要案例来说明。有关物联网冰箱的话题,我2012年曾撰写了一篇博文“畅想物联网冰箱带来的数字化生活”进行了介绍。一直也想写一篇有关无人驾驶汽车和车联网的文章,谈谈我自己的畅想,但一直被其他话题所冲淡了。前几天刚一口气读完一本书《车联网:决战第四屏》(我对该书用很大篇幅谈论在其他方面已经非常成熟应用的电子商务的内容不以为然,这并非车联网的特色和革命性变化,我觉得更多应该讨论其他方面并不具备而只有汽车连接起来才有的新特性),昨天又看到Nature中有篇介绍无人汽车的文章。看完这些资料,发现许多其中认识与我原本遐想的许多内容相当一致。现在终于忍不住将这些在课堂上重复了多遍的遐想整理出来了,一方面算是附和一下这本书和这篇文章,另一方面也总结一下我的思考。由于人类的固有弱点,比如容易疲劳,分心,或碰到紧急情况时因激动而导致应对失误,道路交通事故约有90%是由驾驶员的错误动做引起的。如果将这种控制权交给电脑,的确是很惬意的一件事儿。多少年来,不需要人掌握方向盘、或者压根就没有方向盘的无人驾驶是人们所向往的。汽车运行过程中,乘坐人可以围坐在一起,喝茶、喝酒、聊天、上网,打瞌睡也行。无人驾驶汽车中的惬意生活(引自Nature)几乎所有的汽车制造商和电子产品公司都想在这个领域有所作为,面对2010年10月跨界进入汽车领域的谷歌公司,他们感觉充满了挑战。目前,谷歌的无人驾驶测试车已行驶了20多万公里。由于公众对此充满了期盼,许多汽车制造商和各国政府都在这个领域注入了大量资金,希望能加速这个进程。连美国运输部的官员Richard Bishop都感叹“我从来没有见过从概念到产品发展如此迅速的”。尽管许多技术挑战依然存在,但开发商都信心满满地说他们可以清晰地看到光明的前途,大部分问题或全部问题都有了解决途径。如今的谷歌无人驾驶汽车,工作中需要配备全球定位系统(GPS)接收器和电子地图,即导航系统。同时还需安装一些雷达侦测障碍物、激光三维扫描对周边环境的测距的设备,还有能识别红绿灯、施工信号、行人和其他车辆等对象的摄像机等。处理能力相当于几个桌面单元的车载电脑,能集成所有的信息,决定汽车在不同条件下采取何种行为。为了减少驾驶算法的负载,谷歌汽车还装备极其详细的地图,有助于汽车进行非常精确的控制。有人对这个问题提出质疑,也就是说这样的地图要求曾经对这个地方进行过高精度的勘测,限制了其适用范围。但谷歌似乎对此充满了信心,谷歌地图在2013年的汽车项目中就开始了这方面的努力,扩展到世界公路并不是很难的事儿。对于汽车驾驶中非常明确的问题来说,似乎容易解决。比如汽车在十字路口的问题,雨后路面变滑的问题,这些明显的挑战现在已经都很好地得到了解决。但是,汽车在实际驾驶过程中,还有诸多不太常见或不大可能的事件所组成的“长尾”。谷歌汽车测试过程中,记录下了许多古怪而罕见的事件,如塑料袋吹过高速公路或横亘在道路中央的沙发。显然,类似的事件是无法穷尽的。目前,处理这些罕见事件的唯一办法是尽量进行记录,在高性能机器学习算法的帮助下设计应对措施,然后进行模拟测试,或者实际进行路测。这样的工作做得越彻底,软件就越会变得像优秀驾驶员一样安全,而且最后会更安全。这需要花多长时间仍然是一个悬而未决的问题。谷歌估计约需要5年时间。上述这些努力,似乎是致力于让车本身变得更聪明,但如何与实际的场景结合仍然存在许多困难。比如,地图数据采集不完整,汽车无法及时对当下的路况做出自己的判断。谷歌在2012年就表示无人驾驶在技术上已没有什么难度,然而离实现真正的安全、高效的无人驾驶还需要更多的突破。别忘了,我们已经进入了从互联网发展到物联网的时代,是大数据、云计算和物联网三驾马车并进的时代。如果在汽车自身智能的基础上再加上网络互联,让这些交通工具相互之间能沟通交流,那又将是何种情形呢?可以预测,这将会像其他物联网设备一样,让1+1的功能远远大于2,只怕你的想象力不够了。不过,本文还是想尽力想象一下。这种让车与车、车与路、车与基站、车与人、车与传感设备等交互,实现车辆与公众网络进行移动通讯的系统,泛称为车联网(Internet of Vehicle,IOV)。具体到汽车的通讯上,按照与汽车交互的对象,一般分为V2X(Vehicle to X),Vehicle to Infrastructure(V2I)和V2V(Vehicle to Vehicle)。V2X,即车与外界信息的交流,目前成熟的导航系统(包括GPS接受器、路况信息和最佳道路选择等)就是一个重要的雏形。但这个技术目前只是单向接受并独立分析信息,并不存在于其他设备的交互。如果汽车智能终端能将最后决策的行驶计划传递给其他设备,那么就演变成V2I或者V2V了。先来说说V2I吧,这是汽车与交通基础设施之间的交流。由于是双向通讯,汽车不再是仅仅被动接受交通信号灯的指示,也可以主动向智能交通信号灯发布请求,要求调整不同道路的交通密度和红灯的等待时间。V2V技术最早在2006年在通用汽车公司的凯迪拉克上做了展示。那个时候的概念只是想让V2V做驾驶员的第二双“眼睛”,这从理论上可降低驾驶员因注意力分散或能见度低时所造成的交通事故。现在,人们对这个技术提出了更高的要求。如果整个道路系统都安装了这些装置,车辆与车辆之间实现通讯交互,就为汽车行驶带来主动安全性,而且还弥补了像谷歌无人驾驶汽车这类依赖视频分析技术和地图资源的局限。这一技术概念已经在欧盟进行了实测,汽车连接成一串,就像小鸭跟踪它们的母亲一样。前面的车辆在侦测到红灯或行人时能及时通知后面的车辆降速。遇到紧急情况,由于每辆车都几乎在同一时间接受到了这个信号,并几乎在同一时间踩下刹车,就避免了导致灾难的滑行。在许多道路上,我们都会看到一个安全提示牌:“保持距离,注意刹车”,在高速公路上以100公里的速度行驶,就要保持至少100米的距离,下雨的时候还要降低速度或者保持更长的距离。这是因为汽车之间没有连接,相互之间并不知道对方的意图,后者总是要花去不少时间完全理解前车的意图后,才能采取后续的措施,这在很大程度上降低了道路的通行效率,并减少了无端刹车的能耗。相反,如果汽车互联了,那么就能统一部署,不管是从启动到停车,还是从停顿状态再次进入开动状态,它们几乎可以同时进行,就像汽车组成的列车同步进行。再看一个例子,交通拥堵的时候,汽车行驶缓慢,平均每辆车占用道路的时间增加,让拥堵雪上加霜,通行效率越来越低。如果汽车速度加快了,将极大地缓解这个矛盾;如果汽车之间都能够相互通讯,那么它们就不必再开开停停了,几乎总能以最佳的运行速度行驶。如果再考虑汽车行驶的空气动力学问题,可以节省至少10%的燃料消耗。去年9月,通用汽车宣布将在未来的型号中支持V2V技术。美国国家公路交通安全管理局也准备在近10年发布的新汽车中安装V2V的规定。可见,无人驾驶汽车的真正智能,是体现在连接之中的。如果我们将这个连接,特别是V2I再进一步畅想开来:在云的时代,应该有一个云端服务器(这里我们可以称之为“交通调度总管家”),道路上都安装了通讯性能极佳的基站,可以随时与汽车进行高速网络的连接。那么,汽车的运行状况随时受总管家的支配和调度,很明显可以让道路交通更加优化,甚至有没有红绿灯都是次要的。当然,在这种全网络覆盖的道路还没有完全建成之前,上述的V2X和V2V技术应该还有一段时间的过渡期,而且只是过渡期。车云观点:汽车未来的发展方向,是自动化,智能化与互联化,作者的观点其实与车云菌的认识并不矛盾。《车联网:决战第四屏》这本书,是2014年4月车云网诞生一周年时出版的,内容是2013年4月到2014年年初车云网精品内容的集合与总结。但是,作者认为,《车联网:决战第四屏》用很大篇幅谈论在其他方面已经非常成熟应用的电子商务,车云菌不敢苟同。就目前来看,未来的智能汽车有两大方向,第一是汽车自身的智能化,让汽车足够聪明,能够像人一样,应对道路上的各种突发状况。第二是智能加互联。这种方向更加强调于互联化,汽车本身的智能,只需要应付执行层面的工作,“思考”的工作由云端大脑去完成。这两种方式的最大差别,就在于对V2X的依赖性。作者认为后一种方式代表着未来,这当然并不能算错。但必须要认识到的是,在互联交通设施没有准备好之前,具备独立思考的智能化汽车,在现阶段更加具有普及化的前景。要知道,互联交通设施的普及,还并不能意味着无人驾驶时代的到来,毕竟汽车市场的发展是一个渐进的过程,很多现有汽车并不具备联网的能力。而要对这些汽车进行联网化改造,成本又非常高。所以,即便谷歌的无人驾驶汽车还需要五年才能真正走向量产化,在速度上也可能会高于依赖V2X的方式。
相关标签:点击上方车云,接待存眷和置顶哦!导读:对跨学科范畴来说,一个粗略的清点只是方才向门内迈了一步。摄像头是ADAS焦点传感器,比拟毫米波雷达和激光雷达,最大优势在于识别(物体是车仍是人、标记牌是什么颜色)。汽车行业价钱敏感,摄像头硬件成底细对低廉,因为近几年计较机视觉成长敏捷,从摄像头角度切入ADAS感知的创业公司数目也很是可观。这些创业公司可以统称为视觉方案供给商。他们把握焦点的视觉传感器算法,向下流客户供给车载摄像头模组,芯片以及软件算法在内的整套方案。前装模式下,视觉方案供给商饰演二级供给商的脚色,与Tier1共同为OEM界说产物。后装模式里,除了供给整套设备,也存在售卖算法的模式。本文中将对视觉ADAS功能、硬件需求、评价尺度等进行解析,在《【车云陈述】adas视觉方案入门清点(下篇)》内容中将参考Mobileye对国内11家供给商的产物进行具体解读。△视觉ADAS供给链系统一、视觉ADAS可实现功能&因为平安记实、泊车等需要,摄像头在车上的大量应用是行车记实仪、倒车影像等辅助功能。一般经由过程安装在车身各个位置的广角摄像头采集影像,颠末标定和算法处置,生成影像或拼接形成视图弥补驾驶员视觉盲区,不消涉及整车节制,是以加倍注正视频处置,手艺已经成熟并逐渐普及。&今朝在行车辅助功能中,摄像头可用来零丁实现良多功能,而且按照主动驾驶成长纪律逐渐演进。这些功能加倍强调对输入图像的处置,从拍摄的视频流中提取有用方针活动信息做进一步阐发,给出预警信息或直接调动节制机构。比拟视频输出类功能,强调高速下的及时性,这部门手艺正处在成长上升期。二、视觉ADAS软硬需求视觉系ADAS产物由软硬件构成,首要包罗摄像头模组、焦点算法芯片以及软件算法。硬件方面考虑行车情况(震动、凹凸温等),大前提是要合适车规级要求。(一)车载ADAS摄像头模组车载ADAS摄像头模组需要定制化开辟。为了顺应车辆全天候全天时的需要,一般要知足在明暗反差过大的场所(进出地道),很好均衡图像中过亮或太暗部门(宽动态);对光线比力活络(高感光),避免给芯片带来太大压力(并不是一昧追逐高像素)。摄像头模组是根本。比如一张根柢不错的照片才有润色美化的余地,包管拍摄图像够用的根本上,算法才能更好地阐扬效力。别的在参数上,ADAS与行车记实仪对摄像头的需求分歧。用于行车记实仪的摄像头需要看清车头四周尽可能多的情况信息(后视镜位置看向两个前轮,程度视角约要110度)。ADAS的摄像头更讲究为行车时预留更多判定时候,需要看得更远。近似相机镜头广角和长焦,两项参数不克不及兼得,ADAS在硬件拔取时只能取其均衡。(二)焦点算法芯片图像相关算法对计较资本有很高的要求,是以芯片机能讲究。若是在算法上叠加深度进修来帮忙识别率晋升,对硬件机能的要求只增不减,首要考虑的机能指标是运算速度、功耗、以及成本。今朝用于ADAS摄像头的芯片大都被国外垄断,首要供给商有瑞萨电子(Renesas Electronics)、意法半导体(ST)、飞思卡尔(Free scale)、亚德诺(ADI)、德州仪器(TI)、恩智浦(NXP)、富士通(Fujitsu)、赛灵思(Xilinx)、英伟达(NVIDIA)等,供给包罗ARM、DSP、ASIC、MCU、SOC、FPGA、GPU等芯片方案 。ARM、DSP、ASIC、MCU、SOC是软件编程的嵌入式方案,FPGA因为对硬件直接编程,和嵌入式比拟处置速度更快。GPU和FPGA并行处置能力强。图片如许的文本,尤其在利用深度进修算法需要多个像素点同时计较,FPGA和GPU会更有优势。两类芯片的设计思绪近似,都是为了处置大量简单反复的运算。GPU的机能更强但耗能也更高,FPGA因为编程和优化都是直接在硬件层面进行的,能耗会低良多。是以在均衡算法和处置速度,尤其是用于前装而且算法不变时,FPGA被视为一个热点方案。FPGA是个好选择。但同时,FPGA对手艺要求也很高。原因在于计较机视觉算法是C说话,FPGA硬件说话是verilog,两种说话分歧,将算法移植到FPGA的人既要有软件布景,又要有硬件布景。在人才最贵的今天,是笔不小的成本。现阶段可用于传统计较机视觉算法的车规级芯片有多种选择,可是合用于传统算法叠加深度进修算法的低功耗高机能芯片,还没有真正呈现。(三)算法ADAS视觉算法的泉源是计较机视觉。传统的计较机视觉识别物体大致可以分为图像输入、预处置、特征提取、特征分类、匹配、完成识别几个步调。&有两处尤其依靠专业经验:第一是特征提取。在识别障碍时可用特征良多,特征设计尤其关头。判定前方障碍物是不是车,参考特征可能是车尾灯,也可能车辆底盘投在地面的暗影等。第二是预处置和后处置,预处置包罗对输入图像噪声的光滑、对比度的加强和边缘检测等。后处置是指对分类识别成果候选进行再处置。科研中的计较机视觉算法模子运用到现实情况中,纷歧定就能表示得很好。因为科研得出的算法会增添诸如气候、道路复杂环境在内的前提限制,实际世界里除了存眷复杂情况的算法表示,还要考虑各类情况下算法的鲁棒性(是否不变)。算法上比力主要的一个转变是深度进修的渗入。深度进修让计较机模拟人类思虑的神经收集,可以本身进修判定。经由过程直接向计较机输入标定后的原始数据,好比遴选一堆异形车图片,然后丢给计较机让它本身进修什么是一辆车。如许就可以免除计较视觉特征提取、预处置等步调,感知过程可以简化为输入图片-输出成果两步。&业内比力一致的概念认为,在感知方面,深度进修将会弯道超车传统视觉算法。今朝深度进修的算法模子已经开源,并且算法种类不多,是以有降低门槛大量优异成果涌现的可能。可是受限于没有合适的车端平台,离产物化还有一段距离。&业内对深度进修在ADAS应用的观点都比力客观沉着。不少概念认为深度进修算法是一个黑箱(Blackbox)算法,近似人感性决议计划的过程,可以很快输出一个成果,很难在发闹事故后反查原因,是以在利用深度进修时要插手理性决议计划部门,而且分区块设计。也有概念认为传统计较机视觉算法比我们想象的“智能”,在不竭寻找车辆图片共性和差别的过程中,也能检测出一些异形车辆。而且在叠加深度进修算法后,传统计较机视觉算法也可以帮忙削减深度进修神经收集的层数,简化算法。&可以必定的是,无论哪种算法,数据都是用来练习测试的贵重资本,并且不是纯真的越多越好,而是越有用越好(合适现实用车情况并包管多样化)。(四)分歧摄像头平台1、单目和双目&视觉方案要完成ADAS使命,一般要实现测距(本车与前方障碍物距离)和识别(障碍物是什么)两项工作。按照车载摄像头模组的分歧,今朝主流ADAS摄像头可以分为单目和双目两种手艺路线。&单目摄像头的算法思绪是先识别后测距:起首经由过程图像匹配进行识别,然后按照图像巨细和高度进一步估算障碍与本车时候。在识别和估算阶段,都需要和成立的样本数据库进行比力。想要识别各类车,就要成立车型数据库,想要识别麋鹿,就要成立麋鹿数据库。&双目摄像头的算法思绪是先测距后识别:起首操纵视差直接测量物体与车的距离,道理和人眼近似。两只眼睛看统一个物体时,会存在视差,也就是别离闭上摆布眼睛看物体时,会发现感官上的位移。这种位移巨细可以进一步测量出方针物体的远近。然后在识别阶段,双目仍然要操纵单目一样的特征提取和深度进修等算法,进一步识别障碍物到底是什么。因为视差越远越小的缘故,业内有概念认为,双目在20米内有较着的测距优势,在20米距离外,视差减小测距存在难度,可以用高像素摄像头和更优异的算法来晋升测距机能,该处是难点也是焦点竞争力。双目镜头间距和测距是两个此消彼长的参数,镜头间距越小,检测距离越近,镜头间距越大,检测距离越远。考虑车内美观和ADAS需要,小尺寸远距离双目产物更受接待。因为增添了一个镜头,带来更多运算量,整个摄像头模组的机能要乞降成本都更高了。并且在两者都有的标定工作上,双目要比单目加倍复杂。&并且选择双目方案切入市场并不克不及完全绕开单目方案的难点,在第二个阶段,你依然要需要一个复杂的数据库,依然需要打磨算法。△单双目比力2、多摄像头方案除了单双目之外,还有多摄像头构成的平台。有的方案中选用长焦和广角摄像头于ADAS主摄像头共同,兼顾四周情况与远处物体探测。好比Mobileye方案,鄙人文会介绍。也有在环顾平台上叠加ADAS功能的环境。例如对于环顾做车道偏离预警(LDW),与单目实现该功能比有必然优势。在大雨气候或者前方强光源的环境下,前视摄像头有可能看不清车道线,环顾摄像头斜向下看车道线且可以供给多个角度,根基不会受到地面积水反光的影响,功能可以比前视做得更不变。但同时也要考虑侧向无车灯照射时,摄像头的夜间表示。这几种方案在手艺路线上和单目没有素质不同,更多是基于分歧平台,阐扬分歧类型摄像头模组的优势分派使命,或者供给更多视角来解决一些复杂情况中单目势单力薄的环境。三、视觉系ADAS产物测试与评价今朝没有同一的ADAS测试评价尺度。常规的测试一般分为两个阶段:在算法库测试,库中包含了各类工况下收集的行车场景视频,经由过程用库中的场景视频跑分,测试算法识别率。今朝测试库由各家自采自测,因为采集所用的传感器分歧,分歧企业间的测试单看成果没有可比性。由德国卡尔斯鲁厄理工学院和芝加哥丰田手艺研究所结合开办的KITTI,是国际上权势巨子性较高的灵活车辅助驾驶应用手艺评估的算法评测平台。今朝有部门公司在该网站测试算法,成果公开可查。分歧公司跑分的用时存在差别,是以在看成果排名时,也不克不及忽略多个参数比力。在实车测试阶段,将产物DEMO安装到车上测试,按照漏报、误报判定算法靠得住性,对发现问题进行频频调试。现阶段高质量的实车测试大多由主机厂和零部件供给商把握,精确测量需要借助激光雷达等设备,在彼此校验的过程中完成测量,成本略高,检测周期也略长。业内助士暗示,测试产物能力70-90分的区分更多利用算法库测试,区别90-95分,甚至是95-98分时,必需进行实车定量测试。而今朝ADAS各家拉开差距恰是在于将90分提高到99分。想做到这点必需要经由过程大量的现实道路测试打底,并对算法的精确性和鲁棒性不竭打磨。是以从某种水平上来说,履历过主机厂Tier1严苛练习的方案供给商,产物靠得住性更高,前装经验会成为下一次合作洽商的本钱。今朝企业对外传播鼓吹权衡算法能力的“识别率”指标不克不及说完全没有参考价值。前提是谈论所谓的识别率要把产物放在分歧复杂场景下评估,而且零丁讲识别率指标没有意义,需要把它和其他指标放在一路考量。产物必需确保在分歧的路况、气候、车型,对分歧姿态的人、分歧的车道线,算法都能不变工作(鲁棒性)。四、一哥Mobileye讲视觉系ADAS不得不提一家以色列公司Mobileye,1999年成立,2007年推出首款产物,号在纽交所上市。公司首要从事汽车工业的计较机视觉算法和驾驶辅助系统芯片手艺的研究。Mobileye的产物笼盖了全球50个国度,据官方资料显示,截至2015年末,Mobileye在全球有1000万的装载量,到2016年末会有273款车的SOP的合同。&(一)公司定位前装营业中,这家以色列公司作为二级零部件供给商向Tier1供给产物,涉及车辆应用的部门会和主机厂共同。经由过程一级供给商供给集成、个性化开辟以及测试工作。后装采纳代办署理发卖的体例。(二)产物功能今朝可用安装在后视镜后的单颗彩色摄像头(非尺度RGB Sensor)对方针物进行检测、识别和分类,同时还会对物体的活动轨迹进行跟踪、阐发,并阐发道路状况。实现功能包罗车道检测、车辆检测、行人检测、动物检测、交通标记识别、红绿灯识别、灯光节制。&Mobileye具有自立研发设计的芯片EyeQ系列,由意法半导体公司出产供给。此刻已经量产的芯片型号有EyeQ1、Eye Q2、EyeQ3,EyeQ4正在开辟进行中,估计将于2018年推出,其工程样本有望在2016年第四时度发布。2016年5月Mobileye颁布发表将与意法联手合作研发下一代将用于主动驾驶的EyeQ5芯片,2018年起头供给工程样品。&今朝Mobileye后装产物的终端售价约为8000元摆布,前装价钱会低良多。Mobileye分歧芯片可以实现分歧的ADAS功能。此中EYEQ2撑持产物级的AEB,EyeQ3是撑持full AEB。EyeQ2品级只能做到ASIL-B,EyeQ3可以做到ASIL-D品级。(ASIL,Automotive&Safety&Integration&Level,汽车平安完整性品级,是ISO26262中的系统风险风险品级指标,从A到D产物的平安品级依次增添。)△Mobileye EyeQ1-EyeQ3产物地图&2007年在沃尔沃上实现了摄像头+雷达集成防撞预警的功能。(EyeQ1)2008年在宝顿时实现了单摄像头车道偏离预警、交通标记识别等功能。(EyeQ1)2010年在沃尔沃上做到了行人防撞检测,首个行人检测AEB。(EyeQ2)在宝马、通用、欧宝上,用单摄像头实现了拥堵环境下车道内跟车行驶。(EyeQ2)2013年在宝马和尼桑上用一个摄像头实现AEB功能(部门)&。(EyeQ2)操纵EYEQ2实现了宝马量产的基于摄像头的自顺应巡航(ACC)和交通拥堵辅助(Traffic Jam Assistant)。(EyeQ2)2015年在奥迪上实现了基于摄像头的全AEB功能。(EyeQ3)在特斯拉车型上实现了交通等检测、操纵深度神经网路判定自由空间和路径规划。(EyeQ3)&在Mobileye的过往演媾和介绍中,提到了一些前车识别算法上的细节:畴前车识别来看,一般单目有两种算法来进行预估,一种是THW(Time Headway),一种是TTC(Time to Collision)。THW计较公式中时候t=两车距离/本车速度;TTC公式中时候t"=辆车距离/两车相对速度。TTC对于计较要求也更高一些,因为除了本车速度之外,还要及时测算出前车的速度,计较方式是经由过程两车之间的距离转变以及自己速度进行估算。Mobileye将两种算法用在分歧场景。前向碰撞检测(FCW)方面采用TTC,尤其是高速行驶前车急刹的环境,可以很较着发现,TTC的算法更合适现实环境。Mobileye检测规划路径中会碰到的前车后(不仅仅是识别本车道车辆)用图像的转变快慢来做TTC,以此判定碰撞可能,采纳干涉干与、节制、刹车操控。今朝 Mobileye 的后装产物 TTC时候设定为 2.7 秒,官方给出的FCW精准度大约在99.99%。前装方面,对离本车比来的本车道车辆来计较TTC做AEB,AEB一般在1秒上下的区间里起感化。Mobileye采用THW算法,将来加上节制,可以做到用单个摄像头做ACC或低速Traffic Jam Assistant。今朝市道上这两个功能都是毫米波雷达来实现,若是用摄像头完成,可以融合视觉检测到的车道、静止障碍物、车辆横向活动、限速牌,汇总多个信息来做ACC决议计划,节制会更精准。Mobileye后装产物THW时候设置可以从2.5秒到0.1秒。(三)主动驾驶规划关于主动驾驶若何实现,Mobileye一共会涉及三个方面:感知、地图与驾驶策略。感知方面,按照Mobileye的规划,单用摄像头方案实现主动驾驶功能且不考虑冗余的环境下,需要8个摄像头来知足360度全方位感知的需要。2015年Mobileye发布了三路摄像头做ADAS功能。三个摄像头分工分歧:中心的主摄像头可以实现大部门功能,检测距离可以达到150米,检测到之后跟踪距离可以达到250米。还有一枚小角度摄像头探测更远距离,一枚广角镜头探测更宽视野。算法上首要实现四项内容,而且对深度进修的要求逐项增添:1.识别道路上移动/固定的物体;2.识别出道路朋分线以及其他交通标识;3.在道路上没有朋分线或者朋分线不清楚的环境下,分辩出哪些是可以经由过程的空间,并勾勒出可经由过程空间与其他部门的隔离线;4.可驾驶的路径:在识别出可经由过程空间之后,找到一条可供于驾驶的路线。地图方面是对感知系统的冗余设计,包含Roadbook、高精度定位、可行驶路径三个方面。Mobileye筹算器具备深度进修功能的图像识别系统建造高精度地图。数据采集上会与车企合作,用众包体例获得和更新数据。&驾驶策略方面,车企可以经由过程供给的SDK拜候Mobileye预先练习的收集应用层,让节制单位很快计较并得出可通行的路径方案。车企在其供给的算法根本之上,再以自身在车辆节制上的经验进行优化或者再次开辟。这一功能会基于Eye实现。Mobileye打算2016年推出半主动汽车手艺,筹办研发的系统可以让汽车阅读交通、街道各类旌旗灯号,从而与其它车辆连结恰当车距。公共、宝马和通用采办了2018 年出产的系统,该系统可使车辆在高速上主动行驶。2016年5月Mobileye与两家保密车企已经告竣和谈,将在2019年为后者供给全主动驾驶汽车系统。在2016年7月,Mobileye和宝马、英特尔配合开辟无人驾驶汽车手艺。2016年8月颁布发表和德尔福汽车公司配合开辟SAE(美国汽车工程协会)4/5级主动驾驶全套解决方案。(四)团队介绍创始人之一是耶路撒冷希伯来大学计较机科学系传授阿姆农?沙书亚(Amnon Shashua)。Mobileye在美国、德国、日本、西班牙也有分部或研究部分,此刻公司员工约600多人,研发人员占比为70%-80%。今朝在中国仅有面向后装的发卖团队,办公地址位于上海,没有研发人员。(五)投融资2006年5月,获得1500美金投资。2007年10月,高盛投资的1亿美金投资。2013年7月Mobileye向5家自力的金融投资方出售4亿美元股份。投资方包罗黑石、Fidelity、Wellinton、恩特租车公司以及中国投资公司赛领国际投资基金。这笔买卖对Mobileye的除现金外估值达到15亿美元。预告:《【车云陈述】adas视觉方案入门清点(下篇)》将参考Mobileye对国内11家供给商产物进行具体解读,敬请等候!车云菌说【车云陈述】智能网联大变化下的全球政策阐发【车云陈述】激光雷达与主动驾驶,最佳CP初养成点击下方【阅读原文】,车云菌带你“亲临”瑞典探秘吉利欧洲研发中间行业交流、每日资讯、勾当直播扫码存眷小我号↓↓↓“车云菌”(cheyunjun2016)错过我就如同错过一段姻缘……点击下方阅读原文,进入车云网获取更多出色内容!

我要回帖

更多关于 湖南视觉伟业 的文章

 

随机推荐