贵州品骏快递骏淹电子工程有限公司

谢邀。初学者容易有这方面的困惑,但是这个问题的层次还不够深入。尽管VerilogHDL是数字IC入门的基础和工程师的基本技能,但是还是需要掌握一定的知识后才能精通,注意是&b&“精通”&/b&。“精通”应该达到什么样的能力呢?&br&1、看到电路功能需求后知道何种电路结构是最优的。&br&2、设计出电路结构后,知道如何使用VerilogHDL进行描述。&br&3、设计电路和使用
VerilogHDL 描述的时候能够从性能、面积、功耗、可测性等方面去考虑。&br&4、能够精确理解“RTL”的含义。VerilogHDL和电路是相通的,看到代码之后能够知道电路结构是怎么样的?包含多少个寄存器?&br&5、在第4条的基础上,看到VerilogHDL代码后能够大致推断出电路的性能、功耗、面积等,包括关键路径在何处、关键路径大约包含多少级逻辑链路、那部分对功耗、面积、性能等影响最大(当然,这些在设计电路结构的时候就应该考虑好,从verilog反推也应该能达到这样的能力)。&br&(大概是这些吧,想到了其他项再补充。)&br&先来看Synopsys公司的一个tool:LEDA。LEDA在做coding style审查时,主要包括Synthesis、simulation、DFT、design style等等很多个方面,这些都是对设计人员书写VerilogHDL的全面约束和指导,从而在项目初始就保证Verilog code在style方面是有一定质量保证的。这些约束和上面说到的5条技能是息息相关和一一对应的。从上面的技能要求可知,达到精通VerilogHDL需要有以下的基础知识(默认以学过VerilogHDL基本语法):&br&1、VerilogHDL与电路结构的一一对应:&br&Synopsys DesignCompiler的workshop和关于HDL Compiler for Verilog User Guide。&br&2、VerilogHDL与电路性能等一一对应:&br&这方面涉及到的知识比较多,主要包括Standard Cell Library、STA等,参考书有(1)Static Timing Analysis for
Nanometer Designs: A Practical Approach. J. Bhasker, Rakesh Chadha. Springer
Science Business Media, LLC 2009. (2)DC和PT手册中关于timing的 User Guide。&br&同步学习1-2理论基础的同时,需要学习、熟悉、精通相对应的EDA tool,即:LEDA、DC、PT、Primepower等。&br&学习以上知识之前,应该具备数字集成电路基本知识,这样才能对以上的知识有更深入的理解。除了基础知识外,还需一定项目开发的历练,即可达到“精通”的目的了。
谢邀。初学者容易有这方面的困惑,但是这个问题的层次还不够深入。尽管VerilogHDL是数字IC入门的基础和工程师的基本技能,但是还是需要掌握一定的知识后才能精通,注意是“精通”。“精通”应该达到什么样的能力呢? 1、看到电路功能需求后知道何种电路结构…
这个问题要解释清楚非常麻烦。需要先把JPEG的整个压缩算法以及涉及到相关知识都解释一遍,然后才能说明白“颜色”和压缩参数究竟是如何影响JPEG压缩结果的。&br&&br&但简单地说,就是&b&这两张图用了不同的压缩参数&/b&,也就是很多回答所说的“品质”参数,&b&导致压缩率不一样,所以体积不同。&/b&这是其中最主要的原因。&b&其次就是图像的颜色不同,导致就算用相同的参数压缩,产生的文件大小也不一样。(请注意这里是结论)&/b&&br&&br&下面的内容是失眠时写的,语句有很多不通顺的地方,内容上稍微详细的解释了一下前面说的两点。更主要想说的是,很多人对于JPEG的“品质”这个参数有误解。很多软件里,这个参数并不是一个有精确意义的东西。更多的就像你描述一家饭店饭菜做的“一般”“还行”“挺好”这种比较模糊的词语。从数值上去比较不同软件的这个参数意义不大。&br&&br&以下是原有内容:&br&&br&&br&这两张图像除了长宽一样以外,在计算机眼里几乎没有相同的地方。它们压缩为JPEG的时候,使用的参数不同,导致两者文件体积的巨大差异。图像本身内容上的不同也会使JPEG压缩的结果大小不一样。所以大小不同是非常正常的。&br&&br&大部分软件都是用一个参数来控制压缩后JPEG图像的品质。这个参数是来控制JPEG压缩过程中,“量化”步骤所使用的量化参数矩阵的。&br&&br&使用和红色图像完全相同参数重新保存暗色图像后,大小约为30M。如果以暗色的参数为准,那么红色图像将变为25M。两者相差约10M。这个差别就是因为它们图像本身的不同引起的。暗色图像在变换到频率域,同时做了量化以后,产生了更多的重复数据。导致最后做霍夫曼编码压缩时压缩率比红色的高。&br&&br&如果都按照暗色图的参数存储:&br&&div class=&highlight&&&pre&&code class=&language-text&&Filename: [暗色.jpg]
Filesize: [] Bytes
Compression stats:
Compression Ratio:
Bits per pixel:
Filename: [红色.jpg]
Filesize: [] Bytes
Compression stats:
Compression Ratio:
Bits per pixel:
&/code&&/pre&&/div&暗色图的压缩比要高一些&br&&br&而且,两张图压缩过程中所使用的质量因子确实不同。这是两幅图压缩中所用的量化表:&br&红色:&br&&div class=&highlight&&&pre&&code class=&language-text&&Destination ID=0 (Luminance)
DQT, Row #0:
DQT, Row #1:
DQT, Row #2:
DQT, Row #3:
DQT, Row #4:
DQT, Row #5:
DQT, Row #6:
DQT, Row #7:
Approx quality factor = 100.00 (scaling=2.99 variance=6.13)
&/code&&/pre&&/div&&br&暗色:&br&&div class=&highlight&&&pre&&code class=&language-text&&Destination ID=0 (Luminance)
DQT, Row #0:
DQT, Row #1:
DQT, Row #2:
DQT, Row #3:
DQT, Row #4:
DQT, Row #5:
DQT, Row #6:
DQT, Row #7:
Approx quality factor = 98.11 (scaling=3.79 variance=4.10)
&/code&&/pre&&/div&&br&&br&这里只取了亮度的量化表。量化表是8x8的,JPEG压缩的时候图像被分为8x8的小块,一块块处理。至于表中的数值,你可以简单地理解为数值越大的项,对应的数据就会被砍的越多。其中的Approx quality factor是用Independent JPEG Group(IJG)发布的算法算的,里面的98.11是Photoshop中“存储为”12品质JPG对应在IJG算法里的参数。但就算是用标准量化表(IJG参数是100),产生的数据也是有损失的,而不是完全的无损。&br&&br&另外“质量因子”是一个人为设定的参数,它代表删减图像所依据的量化表与“标准”量化表的差距。量化表是用来做有损压缩中的“有损”这一步的。这个参数从数值上没什么意义,除了用IJG算法的以外,剩下的都是软件开发人员自己定的。基本上都是越大就越接近标准量化表,被删减的数据就越少,体积越大,品质越高。比如Photoshop在生成Web用图像的时候最大是100,存储到磁盘时最大值是12,它只是代表有12挡可调。实际上生成Web用图的效果要比存储成12品质JPG好那么一点点。而相比Photoshop,美图秀秀或者说它使用的库,用的是IJG的算法,所以最高品质图像压缩损失掉的数据要比PS的少,当然文件也就更大。
这个问题要解释清楚非常麻烦。需要先把JPEG的整个压缩算法以及涉及到相关知识都解释一遍,然后才能说明白“颜色”和压缩参数究竟是如何影响JPEG压缩结果的。 但简单地说,就是这两张图用了不同的压缩参数,也就是很多回答所说的“品质”参数,导致压缩率不…
图中效果的学名是“文字云”或者“标签云”。&br&如果不是非要使用Photoshop,我推荐一款文字云在线编辑软件&a href=&///?target=http%3A//& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Tagxedo Creator&i class=&icon-external&&&/i&&/a&。&br&这里有其他的几款。&a href=&///?target=http%3A///lhb25/p/10-amazing-word-cloud-generators.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&超好玩!10款神奇的字符图案 & 词汇云生成工具&i class=&icon-external&&&/i&&/a&&br&~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~&br&&b&更详细的内容&/b&可以参见问题: &a href=&/question/& class=&internal&&胡歌的这张图是怎么做成的?&/a&&br&~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~&br&&img src=&/4d7d8a0d7b4a59ac436004_b.jpg& data-rawwidth=&389& data-rawheight=&557& class=&content_image& width=&389&&&br&&img src=&/f8a8f94e0f6a86dba647e3f16afd6d2c_b.jpg& data-rawwidth=&440& data-rawheight=&440& class=&origin_image zh-lightbox-thumb& width=&440& data-original=&/f8a8f94e0f6a86dba647e3f16afd6d2c_r.jpg&&盗图,侵删。
图中效果的学名是“文字云”或者“标签云”。 如果不是非要使用Photoshop,我推荐一款文字云在线编辑软件。 这里有其他的几款。 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~…
你的老师错了,但是他只是犯了一个所有不懂计算机的人常犯的错误。&br&&br&请问,操作系统不是软件吗?图形界面不是软件吗?搜索引擎不是软件吗?编程语言不是软件吗?数据库不是软件吗?然后这些技术领域的难度之大,以致于我们一直落后于世界领先水平而迟迟没有自己知识产权的可商用成果。其中包含的理论知识点之多,设计和开发难度之大是计算机初学者和没有经过科班训练的人无法想象的。&br&&br&那么既然这些技术难度如此之大,但通常不被人察觉呢?&br&因为,&b&这些领域的积淀之深,产品之成熟,以致于我们反而觉得这是理所当然、稀松平常的事情&/b&。&br&&br&我们觉得打开电脑电源按钮,然后呈现出五颜六色的操作系统界面而不是一串看不懂的黑白命令行(Linux真是太SB了,连图形界面都要自己装),这是理所应当的事。&br&我们觉得鼠标在软件图标上点击,然后在桌面上弹出一个正方形的顶端标题透明的窗口是理所应当的事。&br&我们觉得在搜索框输入一个有错别字的关键词,搜索引擎猜到我其实真正想要的网页,也是理所当然的事(百度连我想要的这么简单的东西都搜不到,真是太SB了)。&br&编程语言就是要人性化,就是要跟我们的自然语言差不多(为什么还没有人发明真正好用的中文编程语言,这么简单的事都没人来做),这也是理所应当的事。&br&数据库就是要像Excel那样,我想在哪里加一行数据,就可以随便加(什么?关系型数据库必须按照事先设定的数据类型?这种设计太SB了吧!)&br&&br&然而,&b&这些越是理所应当的事情,背后的逻辑和实现技术就越是复杂&/b&,以致于中国在这些方面一直落后于世界领先水平。然而对于大部分EE转CS的人来看,CS最复杂的事情不过就是打开VS写个冒泡排序、二叉树而已(反正公司面试就考这些)。&br&&br&有的人认为,学计算机不需要什么基础的物理数学知识,想转就能转。确实,和大部分工科不同,学习计算机,几乎不需要任何的基础知识,因此看似任何专业背景的学生只要想转CS都是轻而易举的事。但是,他们不知道,想要精通计算机,需要的是极为强大和严密的逻辑思维,而这恰恰是无法靠《编程宝典》和《21天学会XXX》学到的。精通计算机,需要的是70%的先天逻辑思维能力和30%的后天逻辑思维训练。&br&&br&这就是为什么有十岁的计算机神童/天才黑客,而没有十岁的物理/化学/生物/电子/机械/土木/神童。&br&这就是为什么我们能看到高龄EE的PhD为了糊口转CS却长时间不得门道,找工作却被还没毕业的CS本科生完爆。&br&&br&计算机的本质,就是人类逻辑思维的具象化,而在某个计算中集成的人类逻辑越多,实现越复杂,这项产品就越显得稀松平常。而要实现这些显而易见的产品,花费的精力只有这个行业中的人才能够理解。&br&计算机科学家在追求让计算机无限逼近人类思维逻辑的道路中,就诞生了让计算机产生人工智能的想法。人工智能也是软件对吧?但是人工智能在关键领域一直进步缓慢,是因为其中的涉及到的难题已经触及到人类当前掌握数学知识的极限。无数天才的数学家、统计学家乃至物理学家(最新发现证明,人工智能的最前沿技术深度神经网络竟然和量子物理中的重整粒子群严格映射)都参与到这项人类的世纪挑战当中,题主还会觉得计算机软件是一件简单的事情吗?&br&&br&最后,题主可以告诉你EE的老师:“轻视别人的工作,往往是因为自己的无知。”
你的老师错了,但是他只是犯了一个所有不懂计算机的人常犯的错误。 请问,操作系统不是软件吗?图形界面不是软件吗?搜索引擎不是软件吗?编程语言不是软件吗?数据库不是软件吗?然后这些技术领域的难度之大,以致于我们一直落后于世界领先水平而迟迟没有…
醒醒吧,题主,天亮了。&br&举个简单点的例子——&br&&img src=&/0c1e4b79196e2eac3cf5a8_b.jpg& data-rawwidth=&1920& data-rawheight=&1080& class=&origin_image zh-lightbox-thumb& width=&1920& data-original=&/0c1e4b79196e2eac3cf5a8_r.jpg&&&br&&img src=&/eac8ba83cd9cd21d4ccdef6d93775ba2_b.jpg& data-rawwidth=&1920& data-rawheight=&1080& class=&origin_image zh-lightbox-thumb& width=&1920& data-original=&/eac8ba83cd9cd21d4ccdef6d93775ba2_r.jpg&&我在日常工作中经常会使用这两个软件,那么请给我找出这两个软件的iOS/安卓版……&br&Windows X86发展了二十多年,有着数以亿计的应用软件——尤其是生产力工具层面。而iOS和安卓这两个典型的以ARM为主的操作系统到现在为止也不过几百万软件(里面还有不少是所谓的“XX网站客户端”),生产力软件从量到质都完全被碾压。而且,这个情况永远得不到改观——因为Windows X86是一个稳定、强大、成熟可靠的系统,迁移到ARM平台需要巨大的成本,却几乎看不到什么收益,这样就没有人会做这样的移植,进而也不会有人在生产力平台领域引入ARM。事实上,别说跨架构了,哪怕同样是X86架构,OS X和Linux也一样无法在软件层面跟上Windows。&br&至于性能嘛,一图打脸&br&&img src=&/ff6c1a043f_b.jpg& data-rawwidth=&624& data-rawheight=&362& class=&origin_image zh-lightbox-thumb& width=&624& data-original=&/ff6c1a043f_r.jpg&&X86阵营里SP3使用的HaswellULV i5性能顶多也就相当于桌面i3,已经能吊打ARM全家了,更高端的i5,i7呢?&br&更吓人的还有这个&br&&img src=&/eacbbd405a51_b.jpg& data-rawwidth=&550& data-rawheight=&458& class=&origin_image zh-lightbox-thumb& width=&550& data-original=&/eacbbd405a51_r.jpg&&&img src=&/498ad1eb1dd04a10c51ff7_b.jpg& data-rawwidth=&550& data-rawheight=&458& class=&origin_image zh-lightbox-thumb& width=&550& data-original=&/498ad1eb1dd04a10c51ff7_r.jpg&&这是15W的Core M 5Y70,最低端的5Y10性能略强于i3Y系列(看i3版SP3),但是功耗低至4.5W,直接可以实现无风扇。Intel拥有全世界最强大的制程和工艺,整个ARM阵营绑一块不够他一家打的——ARM取代X86的唯一可能恐怕就是Intel转行做ARM,把高通之类的厂商全逼得去做低端产品……
醒醒吧,题主,天亮了。 举个简单点的例子—— 我在日常工作中经常会使用这两个软件,那么请给我找出这两个软件的iOS/安卓版…… Windows X86发展了二十多年,有着数以亿计的应用软件——尤其是生产力工具层面。而iOS和安卓这两个典型的以ARM为主的操作系统…
更新:&br&实在抱歉术语有点多。&br&MTBF - Mean Time Between Failure&br&ICG - Integrated Clock Gating&br&S/B/ELCG - 不同 level 的 clock gating&br&Actmon - Activity Monitor&br&PG - Power Gating&br&DVFS - Dynamic Voltage Frequency Scaling&br&&br&--------------------------------&br&&br&谢邀。唉,又好久没有答题了,邀请我基本就是坑,答不答完全没谱。
(??????)&br&&br&我感觉之前大家的答案很多都是学校里的知识。理论、公式、图表该有的基本都有,可是看了总感觉有一丁点别扭。其实说得都对,但真正 SoC 低功耗设计远不止那些,是个做起来很复杂很麻烦,也不容易总结的事情。举个例子,和 ASIC 前端联系最紧密的应该是动态功耗了。看了那公式之后,我决定跟后端商量一下,综合的时候把 max fanout 调小、选好 lib 降压降频、retime 不要太奇葩。前端我负责 switching 多的组合逻辑放后级,是不是就大功告成可以啵一个了呢?现实总是残酷的,这样做综合,report 出来肯定没法看。就算奇迹出现没有 violation,我感觉高频异步逻辑 MTBF 检查也过不了。说白了做出来的都是废品。 &br&&br&那好我们看看有什么别的办法。减少 switching activity,最主流的做法是插 ICG,这招确实挺管用的,但要看你 CG 做到什么程度。前端工程尸说咱代码风格特别好,综合工具自动插。不好意思,这样搞只是一级 FGCG,真的是杯水车薪。在此之上还有 1-2 级的 SLCG、BLCG、ELCG 以及时钟模块的 CG。加上这些就还要做 actmon 以确保各级 ICG 关断正确。这其实给验证带来不少麻烦。而且还有个问题,actmon 也是硬件,也有功耗和面积,多少粒度放一个?ICG 如果做得好,和完全 ungated flops 比起来动态功耗大约能减少 10 到 30 倍,开心。&br&&br&ICG 完了还有 PG,之前大家的答案也有提到。跑 benchmark 应该已经算比较要求性能的 app 了吧?即便如此如果你看跑分时候的整个 SoC,utilisation 能有 50% 已经很不错了。很多特定功能的 accelerator 其实都是闲置的,加上还有大量像 cache 这样的结构导致 I/O 空闲(空闲就对了,越空闲越好)。人家没活干就可以关电源了对吧?(关了意味着静态功耗是 0 哦!)现实是 ELPG 已经普及多年,而且只是一种 PG。现如今好的低功耗设计已经在用 firmware 里的算法区分 power state,根据特定硬件模块使用的 cell、实时的电压、频率、温度、工作状态等信息计算出来下一刻的 state 以及对应的 perf/watt sweet spot。这样硬件几乎时刻处在最优状态。相信 Apple A8 这种玩大游戏都不怎么 thermal throttling 的肯定下了不少功夫。其实基本原理还是 DVFS,但复杂很多。而且既然有了软件参与,可以做很多更 fancy 的事情,比如 active power management。另外 PG 是有 overhead 的,power down 之前很多握手动作,硬件软件要配合。电源也不是说关就关的,电压要 staggered cut-off,否则 di/dt noise 大,功耗又上去了。。。又回到那个问题,多少粒度做一个 PG 才最合适?写到这感觉又给验证带来不少麻烦,不敢继续写了。
更新: 实在抱歉术语有点多。 MTBF - Mean Time Between Failure ICG - Integrated Clock Gating S/B/ELCG - 不同 level 的 clock gating Actmon - Activity Monitor PG - Power Gating DVFS - Dynamic Voltage Frequency Scaling ------------------------…
先找个女朋友比较好
先找个女朋友比较好
很有意思的观点。之前有从这个角度思考过这个问题,稍微说一下自己的想法吧。&br&&br&&General Purpose AI&一直是每个研究AI人的梦想。但是到目前为止都没有任何“阶段性”的研究成果清晰地指向机器主动思考的可能性。&br&&br&这个结论有两个互相纠缠的前提,即这个问题“有一个正确的答案”,和“主动思考有明确的定义”。 题主你的问题大概是前者,即“有没有一个算法,或系统,或一个理论体系可以直接或间接的指向机器主动思考的可能性&。以下为我的答案:&br&______________________________&br&简洁的答案:&br&据我所知,这个问题所对应的命题尚未有证明或证伪。(以及很多reference懒得贴了)&br&&br&______________________________&br&不那么简洁的答案:&br&考跪了midterm来答题。&br&&br&大堆的AI史话略过不表。根据我的理解现在AI的大方向(approach)分四种,而这四种方式分别代表了现在人们对人类大脑运作方式的不同理解。&br&&br&首先是楼主所提到的模式识别。模式识别大体来讲就是统计学习(Statistical Learning)。由很多很多很多的数据来对一个现实世界或虚构的系统建模。这个系统可以非常非常简单,比如观察一个伪随机数生成器(pseudo-random number generator)。一个简单的机器学习程序可以很快的从取得的随机数中找到模式并建成一个数值分布(gaussian, poisson, chi-square, etc)。这个系统也可以非常复杂,比如基于机器学习的天气与灾害预报。在一个不仅看似混沌(chaotic)而且真的很混沌的系统里寻找模式对于现代计算机几乎是不可能完成的任务,不过还是有人在坚持不懈地做这件事情而且赚了很多很多钱发了很多很多paper... (&a href=&///?target=http%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&RenaissanceRe&i class=&icon-external&&&/i&&/a&)。&br&&br&而这个approach的思想本源(or analogy from human brain, either way)就是人类的模式识别能力。举个简单的栗子:一个人出生的时候并不知道这个世界的物理定律,比如看到一辆车和另一辆车相互迎头行驶,一个生活在现代社会切智力正常的人会马上会想到这两辆车会相撞并且脑补出各种液体横流的惨状。而一个相同智力(思维能力,非知识)的刚出生的人(咦?)却不会想到这些。为什么呢?以为那个正常的人已经有了一系列的模式识别能力,例如车不会在那么短的距离停下来,车的方向不会突然发生很大的改变,一个物体不会凭空消失,驾车的人受到那么大冲击肯定会受伤等等等等。那么人类到底是怎样完成模式识别的呢?一些人人为人类的模式识别其实是基于贝叶斯模型为首的统计学模型的(&a href=&///?target=http%3A//en.wikipedia.org/wiki/Bayesian_approaches_to_brain_function& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Bayesian approaches to brain function&i class=&icon-external&&&/i&&/a&),也就是说模式识别主要依赖观察相同类型(category)的事件发生多次而产生的,也就是现在大部分机器学习采取的方式,俗一点就是大数据。。。(喂&br&&br&而另一些人则不这么想。他们认为虽然这个世界是连续的(continuous),但是人类的思维方式确实基于逻辑 (这里指广义的logic即reason而非数学上的logic)的,即离散的(discrete)。理由同样也很简单,一个栗子: “最然没有亲眼看到过地球是圆的,人们还是相信它是圆的。” 而之前提到的模式识别也并非观察相同事件多次那么简单,而是理性思考中的总结归纳(categorization)这一功能。基于这个想法所产生的AI approach就是Symbolic Reasoning(符号处理)。把英文解释放前面是因为感觉这个的中文名很有误导性。从AI这个领域诞生开始对于Symbolic Reasoning的研究就没有停止过。经过数十年的努力,至今没有很大的突破所以到上世纪八十年代这个领域就逐渐没落了。这个领域中一个非常著名的体系是First Order Logic(一阶逻辑,这什么烂翻译...),有兴趣可以去看看。&br&插一句:个人认为这个approach,即人类思维是由逻辑主导的是有理论及实际依据的。不谈康德休谟一系列哲学家对于这个问题上千年的探索,Noam Chomsky对于语言学的研究在这个领域其实很有借鉴意义。他提出的Universal Grammar就是在探索为什么虽然不同文化的发源地不同且互相没有交流,它们的语言有一些最核心的结构是相同的。这代表了人类对于这个世界的认知的方法很大一部分是prior的(找不到合适的中文词)而不是后天习得的。如果撇开灵魂这种虚无的东西不谈,这些先天具备的东西更像是由人类的生物构造产生的。&br&&br&这里说生理构造其实就是大脑的构造。对于大脑运行方式的研究带来了第三种AI的approach,即用软硬件模拟大脑在生理层面上的运行方式以期带来智能。模拟大脑的运行方式是一个经久未衰的研究题目。尝试从未停止过。近些年来随着科技的发展,我们已经能很细致的观察到生物大脑在微观层面上的运行方式,这为完整复制大脑带来了理论依据。之前模拟大脑很大的一个困难其实是大脑运行方式本身,因为大脑其实就是一个超多核CPU,每个神经元都是独立运作而不是靠一个”中央处理器指挥的“。而用现代计算机模拟如此数量极的并行计算几乎不可能。随着电子元件的普及化,现今用极小极便宜的单片机堆成一个类大脑的超多核处理器也不是不可能的事 (有兴趣请戳这个研究项目:&a href=&///?target=http%3A///spinnaker& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&/sp&/span&&span class=&invisible&&innaker&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&)。虽然这是个看似非常可行而且有依据的approach,但是我认为它也是最不着边际的方法。理由如下:即使能够用电子元件构造大脑完整的生理结构,难道要插上电源之后等着智能有一天在电子的碰撞中产生出来吗?当然不能,所以要有与这种处理器相应的算法。谁来想出这些算法呢?人类自己。人类要想出能运行如此复杂计算机以期模拟自己思考的算法?。。。我觉得不大可能。当然啦还是有很多人觉得这个是一个非常可行的方法的,包括高通&a href=&///?target=http%3A///p/208762.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&高通将于明年推出民用神经形态处理器——仿生设计像人脑一样根据实时信息调整算法&i class=&icon-external&&&/i&&/a&,以及Google &a href=&///?target=http%3A//www.solidot.org/story%3Fsid%3D38177& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Solidot | Google收购人工智能公司Deep Mind&i class=&icon-external&&&/i&&/a&。各路大神也在nature上对这个方法有过评价:&br&(请戳 &a href=&///?target=http%3A//www.gatsby.ucl.ac.uk/%7Edemis/TuringSpecialIssue%28Nature2012%29.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&gatsby.ucl.ac.uk/~demis&/span&&span class=&invisible&&/TuringSpecialIssue(Nature2012).pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&)&br&另黑一句:虽然深度学习用的算法叫神经网络,它跟真正大脑里的神经网络关系却没多大。上周LeCun还来学校里做了演讲,黑的deep learning是&a great fake&...&br&&br&最后一个方法其实不算一个方法,却是至今为止成效最大的方法,即站在巨人的肩膀上(Stand on the shoulder of giants)。。。 : D&br&&br&好吧我是指IBM的Watson。作为目前世界上最有效的人工智能系统,它所采用的方法包括了之前所概括的所有方法以及各种各样其它的方法。它的数据采集部分包括了模式识别和符号计算,决策部分和语义分析部分包括了专家系统(Expert System)以及其它算法(好吧其实我也没有细看有哪些其他算法)。Watson的成功给我们带来了一个全新的角度:没准真正的人工智能是又很多很多复杂或简单的算法堆起来的呢~\(^o^)/~。&br&&br&啊第一次写这么长的答案呢。&br&&br&其实还有个总结,今天没空写了。改天有空来补完。
很有意思的观点。之前有从这个角度思考过这个问题,稍微说一下自己的想法吧。 "General Purpose AI"一直是每个研究AI人的梦想。但是到目前为止都没有任何“阶段性”的研究成果清晰地指向机器主动思考的可能性。 这个结论有两个互相纠缠的前提,即这个问题“…
谢邀&br&同意&a class=&member_mention& data-editable=&true& data-title=&@阏男秀& data-hash=&8d9fb9a5ce8d4e9f275e& href=&///people/8d9fb9a5ce8d4e9f275e& data-hovercard=&p$b$8d9fb9a5ce8d4e9f275e&&@阏男秀&/a&说的,做电子、嵌入式研发,是看重经验的。在招聘网站上搜搜ARM、嵌入式之类的字眼就能发现招聘多数要求有研发经验。但学历,却没要求多高,大部分是大专或本科。&br&&br&学历或许会是你进好企业(如研究所什么的都要硕士及以上),但考研不一定就能让你深入研究。那要看你读研跟的老板是什么样的人。我毕业于一个二本学校,因为拿过设计比赛奖而得到学校推研的机会。但推的不是我希望跟的老板,所以放弃。其实读研两三年其实就是在实验室给老板打工(所以导师才被成为老板),老板有项目你帮着做,在实战中获得研发经验。&br&我之后工作的单位和一个211大学的老师合作搞项目,所以我就被外派在大学实验室里工作。在那里印证了我之前放弃推研的想法:有个研究生,跟了院长。但这个院长一心搞行政,他整天没项目可做,天天在宿舍DOTA,最后毕业除了捞个毕业证,技术一点没进步(有次跟我说,他写C最喜欢大量使用goto语句了……)。毕业论文我看了,拿来做本科毕业论文深度都不够。但人家就是毕业了,然后院长推荐留校了。&br&&br&所以,如果想从事这个行当而考研,最好找个有项目干的老板。但说实话,做自动化、电子行业的读到硕士研究生就够了,硕士毕业且在校期间做过项目或得过什么挑战杯奖那是最perfect,是最惹HR眼球的。读博的话,你要出来反而就业面窄了。博士论文讲求的深度,硕士论文是无法比拟的,而工科又恰恰不像理科那样容易做深度研究。读到博士,那基本上不是做嵌入式了,而是做控制理论什么的算法了。&br&&br&嵌入式研发没这么简单。嵌入式、电子设计不是没什么研究,而是现代自动化、电子工程领域发展越来越集成智能化了。八十年代学自动化毕业的人能对照《无线电》杂志的电路图自己焊个电视机出来。现在发展到电路都几乎被集成到芯片了。所以给人感觉做嵌入式就是跟计算机一样写点程序就完事。&br&&br&但不管是软件的裸奔或上linux的调试,还是硬件的模数电路调试,设计看起来好像没什么,但等到设计出来调试的时候。要想调试出能用的产品,能够你忙了。不说&a class=&member_mention& data-hash=&a2e12c397a4a13eae444b616d78b6e8d& href=&///people/a2e12c397a4a13eae444b616d78b6e8d& data-hovercard=&p$b$a2e12c397a4a13eae444b616d78b6e8d&&@汤德息&/a&提到的那些linux上莫名其妙的bug,单单bootloader or 底层驱动程序就够忙好几个月(虽然一般都有BSP,但有些规范化流程是要求研发团队自己写)。&br&如果你想做算法,有的是算法让你做,PID玩好了还有神经网络算法、鲁棒控制。嵌入式的算法基本是自控原理的。还有数字信号处理、信号噪声、傅里叶变换、小波分析神马的够你玩好几年了。(可以在招聘网站搜“DSP算法”,但这一般是招聘硕士研究生,因为本科生的《信号系统》普遍学得较浅)&br&或者来做嵌入式硬件设计把。现在工控类的产品多数还是专一的设备,不同场合的硬件设备都不同。都要重新研发设计硬件电路。有什么可做的呢?高速电路的信号完整性分析好玩不?阻抗匹配、EMC整改,绝对是每设计一个电路就是一个新思维。调CAN、TCP甚至485通信都能让你天天加班纠结半年。&br&还有,估计你没学到或是没深入学的的FPGA……&br&所以,嵌入式的世界,大着呢。
谢邀 同意说的,做电子、嵌入式研发,是看重经验的。在招聘网站上搜搜ARM、嵌入式之类的字眼就能发现招聘多数要求有研发经验。但学历,却没要求多高,大部分是大专或本科。 学历或许会是你进好企业(如研究所什么的都要硕士及以上),但考研不一定就…
从数学的角度说,是在RGB三基色三通道的基础上增加了阿尔法通道。阿尔法通道的数值是透明度的加权,在同一图层并不对三基色通道的数值进行改变,而是在显示的时候把图层和下层图片加权相加,达到透明的感觉。&br&&br&用实例来说,【R G B】代表个像素点三基色的数值。&br&假设两个像素点叠加,假设上层为【3 3 3】,下层为【1 1 1】。&br&在上层透明度为0的时候,显示为【3 3 3】,在上层透明度为1(完全透明)的时候,显示为【1 1 1】。但是在透明度为0.5的时候,显示的颜色就是【2 2 2】,显示为上下两层各x0.5的结果。&br&&br&&br&透明度的物理学意义是颜料中色素的浓度决定的。相同的色素,色素的浓度越高,散射越高,单位厚度颜料可以遮盖底层颜色的能力越强。
从数学的角度说,是在RGB三基色三通道的基础上增加了阿尔法通道。阿尔法通道的数值是透明度的加权,在同一图层并不对三基色通道的数值进行改变,而是在显示的时候把图层和下层图片加权相加,达到透明的感觉。 用实例来说,【R G B】代表个像素点三基色的数…
首先声明,本人不是计算机专业,也没读过计算机图形学的课程。但我是在高中开始自习计算机图形学,比较熟悉实时渲染在游戏中的应用。&br&&br&计算机科学可以分开理论计算机科学及应用计算机科学。应用计算机科学以开理论计算机科学为基础,发展出可以在实际需求中使用的专门技术,在维基百科(&a href=&///?target=http%3A//en.wikipedia.org/wiki/Computer_science& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Computer science&i class=&icon-external&&&/i&&/a&)中列出一些应用计算机科学的分支:&br&&ul&&li&&a href=&///?target=http%3A//en.wikipedia.org/wiki/Computer_science%23Artificial_intelligence& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Artificial intelligence&i class=&icon-external&&&/i&&/a&&br&&/li&&li&&a href=&///?target=http%3A//en.wikipedia.org/wiki/Computer_science%23Computer_architecture_and_engineering& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Computer architecture and engineering&i class=&icon-external&&&/i&&/a&&br&&/li&&li&&a href=&///?target=http%3A//en.wikipedia.org/wiki/Computer_science%23Computer_graphics_and_visualization& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Computer graphics and visualization&i class=&icon-external&&&/i&&/a&&br&&/li&&li&&a href=&///?target=http%3A//en.wikipedia.org/wiki/Computer_science%23Computer_security_and_cryptography& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Computer security and cryptography&i class=&icon-external&&&/i&&/a&&br&&/li&&li&&a href=&///?target=http%3A//en.wikipedia.org/wiki/Computer_science%23Computational_science& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Computational science&i class=&icon-external&&&/i&&/a&&br&&/li&&li&&a href=&///?target=http%3A//en.wikipedia.org/wiki/Computer_science%23Computer_Networks& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Computer Networks&i class=&icon-external&&&/i&&/a&&br&&/li&&li&&a href=&///?target=http%3A//en.wikipedia.org/wiki/Computer_science%23Concurrent.2C_parallel_and_distributed_systems& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Concurrent, parallel and distributed systems&i class=&icon-external&&&/i&&/a&&br&&/li&&li&&a href=&///?target=http%3A//en.wikipedia.org/wiki/Computer_science%23Databases& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Databases&i class=&icon-external&&&/i&&/a&&br&&/li&&li&&a href=&///?target=http%3A//en.wikipedia.org/wiki/Computer_science%23Health_Informatics& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Health Informatics&i class=&icon-external&&&/i&&/a&&br&&/li&&li&&a href=&///?target=http%3A//en.wikipedia.org/wiki/Computer_science%23Information_science& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Information science&i class=&icon-external&&&/i&&/a&&br&&/li&&li&&a href=&///?target=http%3A//en.wikipedia.org/wiki/Computer_science%23Software_engineering& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Software engineering&i class=&icon-external&&&/i&&/a&&br&&/li&&/ul&可见计算机图形学(computer graphics)是应用计算机科学的一门分支。&br&&br&计算机图形学较多应用于娱乐方面,包括游戏、动画、电影特技产业,而相关的可视化(visualization)则主要应用在其他科学上。但图形学的应用其实是更广泛的,例如平面设计、建筑设计、产品设计等也涉及计算机图形学。&br&&br&对于应用性的分支来说,其重要性可与相关工业的发展拉上关系。以计算机图形学而言,它的需求来自娱乐,而娱乐对人类的重要性在不断提升,单看游戏市场可看到这个趋势:&br&&img src=&/b23ae81d7842e6_b.jpg& data-rawwidth=&690& data-rawheight=&518& class=&origin_image zh-lightbox-thumb& width=&690& data-original=&/b23ae81d7842e6_r.jpg&&来源:&a href=&///?target=http%3A//www.hd./eng/docs/TGSForum_2011_1.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Outline of Tokyo Game Show 2011 Keynote Speech held on September 15, 2011&i class=&icon-external&&&/i&&/a&&br&&br&这里欠缺其他应用计算机科学的横向对比,只能说明与计算机图形学相关的产品市场规模在不断上升。&br&&br&对于学习计算机科学的同学而言,除了要学习基础的理论计算机科学,应该选择一些应用计算机科学,以备未来的工作所需。&br&&br&相关问题:&br&&ul&&li&&a href=&/question//answer/?group_id=& class=&internal&&哪些工作与图形学相关?&/a&&/li&&/ul&
首先声明,本人不是计算机专业,也没读过计算机图形学的课程。但我是在高中开始自习计算机图形学,比较熟悉实时渲染在游戏中的应用。 计算机科学可以分开理论计算机科学及应用计算机科学。应用计算机科学以开理论计算机科学为基础,发展出可以在实际需求中…
如果没有拿破仑,他的角色将由另一个人扮演。——恩格斯
如果没有拿破仑,他的角色将由另一个人扮演。——恩格斯
无他,主要是我国社会对“计算机”专业的认知还停留在“操作”计算机的层次上。随着大数据、云计算、人工智能等概念的炒作和普及,这两年计算机专业明显变热了。&br&&br&其实热不热有什么重要呢,还是希望更多同学在大学找到自己的人生志趣,而不是跟着社会热点随波逐流。
无他,主要是我国社会对“计算机”专业的认知还停留在“操作”计算机的层次上。随着大数据、云计算、人工智能等概念的炒作和普及,这两年计算机专业明显变热了。 其实热不热有什么重要呢,还是希望更多同学在大学找到自己的人生志趣,而不是跟着社会热点随…
(多图慎入)日更新:&br&本次更新直接原因就是Anandtech放出了820工程机的相关跑分。&br&先贴图:&br&首先是MSM8996的正式发布规格以及与前代的对比:&img src=&/a97e544d2cbbb00a3bd026d_b.jpg& data-rawheight=&306& data-rawwidth=&560& class=&origin_image zh-lightbox-thumb& width=&560& data-original=&/a97e544d2cbbb00a3bd026d_r.jpg&&&br&以下是工程机跑分:&br&&img src=&/9c30cebf5d416f68ad41d_b.jpg& data-rawheight=&290& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/9c30cebf5d416f68ad41d_r.jpg&&&br&&img src=&/0aa632b0e2_b.jpg& data-rawheight=&290& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/0aa632b0e2_r.jpg&&&br&&img src=&/14b272c20b18f81af86d_b.jpg& data-rawheight=&241& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/14b272c20b18f81af86d_r.jpg&&&br&&img src=&/5aff38d80ed3ade1c2cd0b_b.jpg& data-rawheight=&290& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/5aff38d80ed3ade1c2cd0b_r.jpg&&&br&&img src=&/fecccce9ffaad_b.jpg& data-rawheight=&290& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/fecccce9ffaad_r.jpg&&&br&&img src=&/b33e5d5ea8e3adb62a3c8_b.jpg& data-rawheight=&290& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/b33e5d5ea8e3adb62a3c8_r.jpg&&&br&&img src=&/e04cf89efa460a38b050f5e_b.jpg& data-rawheight=&290& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/e04cf89efa460a38b050f5e_r.jpg&&&br&&img src=&/ea8_b.jpg& data-rawheight=&241& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/ea8_r.jpg&&&br&&img src=&/9f5d976f6d5a7cdd5cc613_b.jpg& data-rawheight=&241& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/9f5d976f6d5a7cdd5cc613_r.jpg&&&br&&img src=&/6a7ba120aca515ffb8e7b8_b.jpg& data-rawheight=&241& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/6a7ba120aca515ffb8e7b8_r.jpg&&&br&&img src=&/cba913e01c7dccd517a2_b.jpg& data-rawheight=&241& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/cba913e01c7dccd517a2_r.jpg&&&br&&img src=&/d21c63db4e85fc908253dbb_b.jpg& data-rawheight=&241& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/d21c63db4e85fc908253dbb_r.jpg&&&br&&img src=&/f276b4b10a_b.jpg& data-rawheight=&241& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/f276b4b10a_r.jpg&&&br&&img src=&/342d098a304ab9b54bf396a22c4b077d_b.jpg& data-rawheight=&290& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/342d098a304ab9b54bf396a22c4b077d_r.jpg&&&br&&img src=&/494d7bbe45befade55e5858f_b.jpg& data-rawheight=&290& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/494d7bbe45befade55e5858f_r.jpg&&&br&&img src=&/b0a0ec470acf5_b.jpg& data-rawheight=&290& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/b0a0ec470acf5_r.jpg&&&br&&img src=&/babdf283f3ea374a18f643dcb351f211_b.jpg& data-rawheight=&290& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/babdf283f3ea374a18f643dcb351f211_r.jpg&&&br&&img src=&/c662aa72eda28f80f7d0_b.jpg& data-rawheight=&290& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/c662aa72eda28f80f7d0_r.jpg&&&br&&img src=&/6be35461adbee73b70e62b86eef3b981_b.jpg& data-rawheight=&290& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/6be35461adbee73b70e62b86eef3b981_r.jpg&&&br&&img src=&/93b505cc10c2f07d702deb_b.jpg& data-rawheight=&290& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/93b505cc10c2f07d702deb_r.jpg&&&br&&img src=&/c6cf85a0aec53bf87ec5_b.jpg& data-rawheight=&403& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/c6cf85a0aec53bf87ec5_r.jpg&&&br&&img src=&/af39476a96aeeb2de8355f84aace5eed_b.jpg& data-rawheight=&451& data-rawwidth=&560& class=&origin_image zh-lightbox-thumb& width=&560& data-original=&/af39476a96aeeb2de8355f84aace5eed_r.jpg&&&br&&img src=&/dd851bfe8_b.jpg& data-rawheight=&732& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/dd851bfe8_r.jpg&&&br&&img src=&/58abded8e8_b.jpg& data-rawheight=&660& data-rawwidth=&559& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/58abded8e8_r.jpg&&&br&&br&挑个别点说一下下:&br&1,CPU部分性能依旧不尽人意&br&还是被A9吊打的货(虽然也是意料之中)&br&这次的kryo与公版架构(A57/A72)比较也是互有胜负吧,在geekbench3的总分中,820以2200+的单核力压kirin950的1800+,不敌A9的2500+,但是不要高兴太早,820的总分高很大程度上得益于其高得离谱的内存分,而在CPU性能的整数以及浮点得分方面只能是小超7420的的水平,同频大概与A57相当(这里修正一下:在geekbench3的子项目中,820的同频性能是超过A72的,ipc仅次于A9,但是在其余的benchmark中就没这么好看了)。&br&应该说kryo也是很有krait当年的风范,跑geekbench还是挺虎的(krait也是内存分偏高),跑其他的就一般般了。当然,客观讲,这个性能还是可以的,而且超高的内存分很可能是得益于其高效的新总线,不知道对体验是否有质的提升。&br&2,GPU还可以&br&在目前已公布成绩的手机soc中排名第一&br&高通官方号称A530相比430提升40%,看样子是没吹牛。(从成绩看已经达到60%左右的提升了)高通还是保持了GPU谦虚的风格。&br&取t-rex2.0/manhanttan3.0成绩对比当下以及未来竞品和前代来看&br&S820:。。。。 90/45(Andreno530)&br&A9:。。。。 。80/40(GT7600)&br&S810:。。。 。57/29(Andreno430)&br&Exynos7420:。 56/26(mali t760mp8)&br&A8: 。。。。。45/20(G6450)&br&S805: 。。。。45/20(Adreno420)&br&kirin950: 。。。42/18(mali t880mp4)&br&Exynos5433:。 38/18(mali t760mp6)&br&S808: 。。。。37/17(Adreno418)&br&Helio X20:。。。未知&br&Exynos8890:。。未知(mali t880mp12)&br&&br&从对手看,唯一有可能威胁到820的就只有Exynos8890了,三倍于kirin950的GPU规格,频率未知,能否超过820还不好说。&br&&br&但是这里提一下,高通量产机的GPU跑分往往会得益于驱动更新或者厂家优化会更高一些(比如810从工程机manhattan3.0的22提升到量产机的28~29)&br&而且根据S620上的Adreno510跑分来看,它的manhattan3.0跑出了13~14帧,而A530与它同代同系,规格上alu刚好又是四倍(manhattan3.0侧重alu),所以理论上Adreno530的manhattan3.0应该可以到50+。&br&这些只是推测,等后续测评。&br&3,周边附加值很高&br&包括基带,isp,dsp等等(详见高通官网)&br&这部分我编不下去了(?????)っ&br&4,功耗表现待定&br&虽说采用了三星的最新的14lpp工艺,不过实际表现还得看高通的设计功底啦,经过810的滑铁卢,高通能否挽回尊严,摘掉火龙的帽子,就看820了。&br&&br&&br&最后我评价下:S820可能是高通继S801以来的又一款经典的soc,回归四核,强大的GPU,周边附加值高,这些都与当年801类似,而且很多厂商等820都快憋死了,有些厂商由于忌惮810的发热功耗甚至不得不砍掉一年一更旗舰机,出现了旗舰断代现象,高通也因为810颜面扫地。可以说,820这次的表现不仅决定了高通能否一雪前耻,也影响了大部分手机厂商的旗舰去路。&br&同时高通面对的对手也越来越强大,抛开以往的苹果不谈,三星在自主soc的进度上也进步神速,旗舰级soc丝毫不怵高通,甚至靠着自家晶圆厂打造的7420以制程优势碾压了810,而mtk又占据了高通很大的中低端市场。形式上高通已经没有两年前那么乐观了。&br&&br&&br&&br&&br&。。。。。。。。分界线。。。。。。。。。&br&&br&&br&&br&&br&以下是日的原答案(当时820还未正式发布):&br&820的具体参数还没出吧&br&网上倒是有曝光的(真假未知):&br&MSM8996&br&64bit&br&2Kryo@2.2GHz-2Kryo@1.7GHz big little&br&Adreno530@650MHz&br&cat10&br&14/16nm&br&这个参数是完全看不出性能几何的。&br&如果是真的,那么有一点比较好的就是:高通没有盲目堆核心。对于Kryo的单核性能还是值得期待的,Adreno530的话自然不用操心。制程也终于赶上来了,应该不至于再出现810被7420制程碾压的尴尬境地。&br&但是我个人对于这个参数有很大的质疑:&br&既然同为Kryo架构,何必要搞大小核?像krait那样搞同频大核不就行了吗?(krait400/450的低频下功耗控制很好,没有必要再搞大小核)&br&我的猜想是:&br&要么参数是错的(这个也很正常,在正式发布前,媒体经常会脑洞大开)&br&假如参数没错,有两种可能:&br&1,这两个Kryo不是一样的架构,只是同一个系列命名,可能有Kryo+和Kryo-的区别(脑补)。前者高性能,后者低功耗。&br&2,假如这两个Kryo是完全一样的架构,那就不是好事了,说明这套大小核是被迫搞出来的,高频下的Kryo很可能功耗难以控制,而低频Kryo性能不足以抗衡竞品。(这个可能性应该很小)&br&当然以上都是根据这个不负责任的曝光参数进行的不负责猜想。&br&&br&&br&谈谈个人对820的期待吧:&br&1,要有足够强的单核性能。&br&这几年安卓阵营的单核性能一直被苹果碾压(除了那个只能上平板的denver)安卓阵营的单核性能迄今为止最高也仅仅持平苹果2013年发布的的iphone5s上搭载的Apple A7。如果比同频性能,安卓阵营没有一个能正面干Cyclone的……所以我希望高通下一代820要大幅提高单核性能,不要惨败给Apple A9。&br&2,最好不要拼核心数。&br&其实现在8核10核什么的,本质上是为了功耗控制,这点是无可厚非的,但是核心多真的没什么卵用,不仅软件很难利用,反而要牺牲面积和晶体管数量,使得很难做出像Cyclone那样的大核心。不过对于营销而言,核心数越多越好卖……(高通也是被mtk带进沟了)苹果可以做出大核心的同时控制好功耗,希望高通820也能。&br&3,最好不要big little。&br&其实第二点隐约就说到这个意思了。big little虽说发展了很长时间,也越来越完善,但是毕竟这是为了妥协功耗而诞生的产物,切换搭配延迟难以避免。其实我很喜欢800/801这样的设计,尽管krait一直被人诟病,不过其纯大核设计+还算过得去的单核性能,使得801的体验往往比同期的大小核要好。820如果能做出很强的单核性能并且不依靠big little就能控制住功耗那就最好了。(Tegra4其实也算这类设计,可是A15实在是太热了,再加上落后的工艺,比krait400还秒射)&br&4,常规升级。&br&最新最好的工艺,GPU性能提升,新的帧缓存压缩技术,新的协处理器,isp性能提升,硬解能力提升,内存控制器提升以及提供更快的闪存接口,全网4G cat9/10。&br&5,能不能尽快出货?&br&回想一下S800,S810的发布时间和实际应用到终端的时间差距……哎,高通还真是擅长画大饼!
(多图慎入)日更新: 本次更新直接原因就是Anandtech放出了820工程机的相关跑分。 先贴图: 首先是MSM8996的正式发布规格以及与前代的对比: 以下是工程机跑分: 挑个别点说一下下: 1,CPU部分性能依旧不尽人意 还是被A9吊打的货(虽然也是意…
跟你说,就这点技能并没有什么卵用,钱少事多。你所描述的熟悉STM32,充其量只能是了解。&br&我STM32开发2年了也就用熟悉形容。&br&&br&还不如学些SI PI EMI的知识,对高频板的需求会越来越多,你看USB3.1都跑10G频率了(现在能画这个频段的板子的人还真不多),还有内存那啥DDR3/4/5。现在无线那么热门,无线也一样朝着高频发展,低频频率都分配完了,免费的2.4G频段已经拥挤不堪,信号干扰特别强(无线鼠标键盘、蓝牙、wifi和以后一堆的物联网设备,单wifi互不干扰的频段就3个,附近路由器多一点直接把这个频段用完),免费的5G频段也不是学校里刚出来的人能画的。&br&&br&性能是可以堆叠的,当初内存条只有1G存储容量的时候不是照样能叠出上百G内存的电脑出来。看看那些超级计算机不都是堆叠出来的。跟你说这些的原因是,未来硬件将会越来越多的被软件代替(软件相对硬件有不可比拟的优势,比如调整上,维护上,体积上和扩展上等等),那些需要CPLD/FPGA写的逻辑因为速度足够快成本也很低,直接一路if
switch就行了。&br&&br&还不如学些SI PI EMI的知识&br&还不如学些SI PI EMI的知识&br&还不如学些SI PI EMI的知识&br&重要的话要说三遍&br&&br&&br&好吧,好像有点偏题(习惯性偏题^-^),回答下你的问题&br&&br&&br&首先ARM是一家只设计CPU内核的公司,上面已经说烂了&br&&br&官网&br&&a href=&///?target=http%3A///zh/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&ARM - The Architecture For The Digital World&i class=&icon-external&&&/i&&/a&&br&&br&你所学的STM32、飞思卡尔(已被NXP收购)只是购买ARM的M系列内核授权加上一些自己公司的特色外设(多少位的ADC、是否带TFT驱动等等)加工封装后的芯片。&br&&br&&br&你心里想像的ARM也许是手机里用的那种性能强悍的CPU,那只是一些购买了ARM公司A系列内核授权的厂商们。。。。。。。。。。封装后的芯片。另一个R系列是应对实时性要求非常高的场合使用的,比如硬盘上,打印机上或者汽车上。&br&&br&&a href=&///?target=http%3A///zh/products/processors/index.php& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&处理器 - ARM&i class=&icon-external&&&/i&&/a&&br&&br&你现在所了解的只是&br&&img src=&/eca228f1b392ee5fd76ee7_b.jpg& data-rawwidth=&523& data-rawheight=&545& class=&origin_image zh-lightbox-thumb& width=&523& data-original=&/eca228f1b392ee5fd76ee7_r.jpg&&&br&这一部分,注意只是了解。&br&&br&&blockquote&想再学一学ARM,有价值吗?&br&&/blockquote&当然有价值,学了当然有价值,只是有多有少。对“性价比”满意就好。&br&&br&&br&最后提示一点:单片机只是工具,学那些通信协议、处理器架构、编译器原理会有用的多&br&PCB绘制软件只是工具,知道什么时候不能走直角、什么时候要考虑线阻抗、用多大的滤波电容(针对无脑IC旁104)比又多学一个一种绘图软件有用的多。还有信号的反射、振铃、串扰、板子的压降、温升都是比较重要的)&br&&br&&b&工具有很多,心里有想法,剩下的只是用你选的工具去实现了(找一找实现想法的按钮在那里的问题
和 在MCU选型表里选外设满足要求的问题)&/b&&br&&br&&br&扯得有点多了,另外有错别字的话将就这看了
跟你说,就这点技能并没有什么卵用,钱少事多。你所描述的熟悉STM32,充其量只能是了解。 我STM32开发2年了也就用熟悉形容。 还不如学些SI PI EMI的知识,对高频板的需求会越来越多,你看USB3.1都跑10G频率了(现在能画这个频段的板子的人还真不多),还有…
我听说,EE里只有两种学生,一种已经成功转CS,一种正在转。&br&&br&一个玩笑。:)&br&&br&当然CS也是博大精深的,EECS不分家,大家都是好姐妹。这里仅限软件工程。&br&&br&怎么说呢。三年足够一个中等智力的人成长为一个登堂入室的程序员。至于电气,以我自己的强电方向为例,我一个舅舅是某大型发电厂的总工,他得知我想转行之后跟我说:你其实一点沉没成本都没有,因为你本科毕业,电气根本没入门。别说本科毕业,当年他硕士毕业依然什么活都干不了。互联网可以接受一个接受数月培训的外行入职,而国家电网的做法是招了人进来后集中培训半年。软件工程好点的应届毕业生基本上都已经做过实际项目了吧?电气行业大概没有哪个师傅会真给一个学生活干,也干不来,经验庞杂,积累缓慢。程序员干到三十岁纷纷想转行。电气老师傅多半会告诉你,三十岁,路还长。大概差别是这样。&br&&br&而且,电气这个坑太大了。大到IEEE内部都是各种山头。从计算机硬件到雷达天线乃至光学都可以扔到EE的框里,我虽然是强电方向,但各种好歹学了一点,结果就是什么也没学。编程面对的环境实在单纯,大多东西定义良好,毕竟本来就是人设计出来的。至于EE的活,很多时候是你不知所以,更多时候是知其所以,但你就是实现不了。
我听说,EE里只有两种学生,一种已经成功转CS,一种正在转。 一个玩笑。:) 当然CS也是博大精深的,EECS不分家,大家都是好姐妹。这里仅限软件工程。 怎么说呢。三年足够一个中等智力的人成长为一个登堂入室的程序员。至于电气,以我自己的强电方向为例,…
哈哈。你一定不知道debug的最高境界是什么,是猜。对于总工程超过五十万行,内部代码上万行的模块,丢到FPGA上跑是不可能有波形看的,只能抓debug信号,通常要看的信号太多,debug接口太少会耗费大量时间进行迭代,逻辑分析仪的操作也很耗时,而且很多信号不在debug接口上,没法看。有时候想用chipscope看,需要编多版bit,每编一版大半天就过去了。所以对于极难调试的问题,一般就靠猜,猜准了再抓。一般来讲,拿FPGA跑,上来20秒内挂掉的都是比较明显的bug,成因不会很复杂,容易解决,真正怕的是那种跑几十分钟或者几小时没事,然后挂掉的。我昨天刚经经历这个过程。我们在用FPGA测SSD读写的heavy loading,开十个线程同时对flash进行读写,然后比较读出来的结果和写进去的结果,结果发现跑半个小时没事,但是此后大约几分钟,传到1KB对齐的末尾地址的时候,有可能会错几个byte,我当时由这个现象,根据对design的了解,开始有了某些怀疑方向,然后就开始想象,各个模块访问我的模块之间是如何交互,在何种情况下可能出现这种错误,想了半天想到在某种极其巧合的情况下可能会存在访问冲突,导致出错,这种冲突只有几个周期的时钟窗口,必须周边的模块恰巧都在那时候按照一定的顺序动作才会出现,于是让firmware临时修改了一个寄存器的配置,果然再跑就没有问题了,接着开始修改design。前几天还是调FPGA,测试power mode,每两秒钟就会进一次睡眠然后再恢复传数据,跑二十多分钟会出现进低功耗出不来,当时我用逻辑分析仪抓了几个状态机,看完之后大概明白了现象,然后就开始看 code,发现一个复位信号可能导致出错,然后一跟踪,发展这个复位居然有七八个源,而且每个源又有五六层逻辑。当时就根据code一点点推断,由于没有波形,所以很多信号是0是1就靠猜和推断,最后我们锁定了一个信号,这个信号没有引出到debug接口,所以编了版bit,用chipscope抓,一看果然是它。hack了一下之后,跑了一晚上没有出错,而且还抓到了一个华硕主机板的bug。这种方法,说起来还是受到我们team leader的启发,他负责的code有八万行以上,因为design太大,所以没有定位之前就抓基本无益,再加上这些design经过的验证不少,相对简单的bug早就修干净了,所以一出问题他就会先猜,好几回都让他直接命中。
哈哈。你一定不知道debug的最高境界是什么,是猜。对于总工程超过五十万行,内部代码上万行的模块,丢到FPGA上跑是不可能有波形看的,只能抓debug信号,通常要看的信号太多,debug接口太少会耗费大量时间进行迭代,逻辑分析仪的操作也很耗时,而且很多信号…
只要你买基带,我们送CPU送GPU送Camera处理芯片送QRC整体解决方案送专利,还会因为触怒发改委而给中国政府送钱。
只要你买基带,我们送CPU送GPU送Camera处理芯片送QRC整体解决方案送专利,还会因为触怒发改委而给中国政府送钱。
有款软件叫getdata.安装文件1M吧..很小巧..&br&&b&真心觉得软件很傻瓜,不需要上图...不过不是不上图骗不了赞嘛...&/b&&br&实例:&br&Step1:从论文中解出需要的曲线图像&br&&img src=&/8b4fb33ada1819cf53cbec1_b.jpg& data-rawwidth=&1600& data-rawheight=&868& class=&origin_image zh-lightbox-thumb& width=&1600& data-original=&/8b4fb33ada1819cf53cbec1_r.jpg&&Step2:用Getdata软件打开,先选坐标系,再选择你要描绘的曲线(好像有手动和自动两种,但对于不止一根曲线的情况,自动就容易出错,我下面使用手动的)&br&&img src=&/c4b11e03129cac7af119fc6c67b1c874_b.jpg& data-rawwidth=&955& data-rawheight=&488& class=&origin_image zh-lightbox-thumb& width=&955& data-original=&/c4b11e03129cac7af119fc6c67b1c874_r.jpg&&PS:蓝色是纵坐标。黄色就是选取的曲线。&br&Step3:将曲线信息导出。(支持在一个Workspace里面有多个曲线的信息,然后同时导出,比如这里就是Line #2的数据)&img src=&/790ac47d4edbd9046b26dea5e39f52e3_b.jpg& data-rawwidth=&1120& data-rawheight=&609& class=&origin_image zh-lightbox-thumb& width=&1120& data-original=&/790ac47d4edbd9046b26dea5e39f52e3_r.jpg&&Step4:用Matlab等等你方式将点画成曲线就好了,或者导入你用于计算的软件、程序&br&&img src=&/caea64be30e4fe4ab42302_b.jpg& data-rawwidth=&1182& data-rawheight=&380& class=&origin_image zh-lightbox-thumb& width=&1182& data-original=&/caea64be30e4fe4ab42302_r.jpg&&PS:这里是用Matlab画的,把坐标系调成和原图一样的情况,就可以看出曲线还是挺像的。当然这里只是取得点来画线,若要实现曲线,肯定就需要用插值了~&br&over
=。=&br&--------------------------------------------------------------------------------------------&br&晚上回去上图…&br&我们用的是一款叫getdata的软件,原理和&a href=&///people/59fcae6ff171& data-hash=&59fcae6ff171& class=&member_mention& data-editable=&true& data-title=&@Kaiser& data-tip=&p$b$59fcae6ff171& data-hovercard=&p$b$59fcae6ff171&&@Kaiser&/a&大神说得一样,就是应该更适用点,不要浏览器~
有款软件叫getdata.安装文件1M吧..很小巧.. 真心觉得软件很傻瓜,不需要上图...不过不是不上图骗不了赞嘛... 实例: Step1:从论文中解出需要的曲线图像 Step2:用Getdata软件打开,先选坐标系,再选择你要描绘的曲线(好像有手动和自动两种,但对于不止一…
&img src=&/c707fa9bbcfc07eb49f9d7db58ab6977_b.jpg& data-rawwidth=&683& data-rawheight=&1024& class=&origin_image zh-lightbox-thumb& width=&683& data-original=&/c707fa9bbcfc07eb49f9d7db58ab6977_r.jpg&&来自 &a href=&///?target=http%3A///products/fork-you-shirt-mens-medium& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&github:shop&i class=&icon-external&&&/i&&/a&
已有帐号?
无法登录?
社交帐号登录

我要回帖

更多关于 贵州骏江实业有限公司 的文章

 

随机推荐