请用决策树法分析哪种方案最好 方案c投资310万元投资项目

&&源码搜搜[中文],大家一起找最好的开源代码。
&&请提交您认为需要收录的源码网站。
决策树剪枝算法Matlab实现决策树与决策森林 收录时间: 资源分类:Matlab 工具:MATLAB 7.10 (R2010a) 该程序实现了决策树与决策森林。 决策树算法是一种逼近离散函数值的方法。它是一种典型的分类方法,首先对数据进行处理,标签:&评论:0条
IHEPFive.rar - 采用极大极小剪枝的博弈算法实现的五子棋游戏,可以工机对弈、人人对弈,设置棋力。-using Minimax Game pruning algorithm of 331 games, players can work for everyone chessboard, chess set标签:Visual C++, Chess Poker games&评论:0条
BWC001.rar - 黑白棋 程序 采用阿尔法 贝塔 剪枝算法,对初学者来说具有一定的学习意义-Othello program using alpha beta pruning algorithm, for beginners to learn with a certain sense标签:Visual C++, Chess Poker games&评论:0条
ACMsearchTREE.rar - ACM竞赛的一些搜索剪枝算法的应用,供大家学习-ACM search tree标签:Visual C++, 算法&评论:0条
2633520_AC_62MS_312K - POJ 1011 经典搜索算法 ,深度有限搜索+强剪枝-POJ 1011 classic search algorithm, depth limited english+ Strong pruning标签:C++, Windows开发&评论:0条
决策树和交叉验证预测模型和ROC分析图 收录时间: 资源分类:Matlab 工具:MATLAB 7.8 (R2009a) 决策树算法是数据挖掘中的一个常用的方法。...mRocTreeSelVarGUI.mTree.mtreeROC.m._BestTree.m 标签: 决策树 交叉验证预测模型 数据挖掘标签:&评论:0条
bwc.rar - 搜索算法部分使用minmax递归,alphabeta剪枝,初期和中期搜索6层,最后部分搜索15层。评估算法主要是最小行动力,加以位置值的相关判断- The search algorithm partially uses the minmax recursion, the alphabeta pruning,标签:Visual C++, 算法&评论:0条
c45_vc.rar - 计算机人工智能方面的决策树方法 c4.5-the decision tree method Bank标签:Visual C++, 其他项目&评论:0条
说明:提供了Alpha-Beta算法的C语言的实现和基于Alpha-Beta算法的黑白棋博弈。标签:Visual C++&评论:0条
它们在数据挖掘领域都产生了极为深远的影响。 1. C4.5 C4.5算法是机器学习算法中的一种分类决策树算法,其核心算法是ID3算法. C4.5算法继承了ID3算法的优点,... 1) 用信息增益率来选择属性,克服了用信息增益选择属性时偏向选择取值多的属性的不足; 2) 在树构造过程中进行剪枝; 3) 能够完成对连续属性的离散化处理; 4) 能够对不完整数据进行处理。 C4.5算法有如下优点:标签:&评论:0条
dtsl_pass.rar - 自主式决策树学习的程序源码,对研究机器学习的同行很有用。-Autonomous Decision Tree learning procedures source, the study machine learning peer useful标签:Visual C++, AI-NN-PR&评论:0条
detectiontreecode.ra - 这是一个决策树代码-This a decision tree code标签:C++, 数据库&评论:0条
UncertainDataClassfi - 数据挖掘决策树,用于非确定性数据的分类,参照国际论文写的-decision tree for uncertain data标签:C++, 其他项目&评论:0条
说明:【作业题目】
编写Alpha_Beta剪枝程序
【问题描述】
对于给定的Alpha_Beta博弈树,使用Alpha_Beta剪枝算法对其进行剪枝,输出剪掉的结点。
标签:Visual C++&评论:0条
NeC45.zip - 决策树算法的实现。对于初学算法的人有一定的帮助。-Decision tree algorithm. Algorithm for beginners who have some help标签:C++, 算法&评论:0条
说明:一个关于alpha-beta剪枝的程序,从tree.txt中读取树,然后输出剪枝结果。标签:Visual C++&评论:0条
C45source.rar - C45决策树工具的源代码,及其使用说明。-Application of C45 decision tree tools of source code, and its use标签:Visual C++, 电子书&评论:0条
说明:彩票问题题解,超强回溯剪枝+dp剪枝+随机化标签:C++&评论:0条
c4.5.rar - 通过C4.5 的实现可以进行构建决策树 来进行有效的分类-Through the realization of C4.5 decision tree can be constructed to carry out an effective classification标签:Visual C++, AI-NN-PR&评论:0条
说明:N皇后剪枝算法 关键字 回溯,剪枝 ,上界,下界,分支限界标签:Visual C++&评论:0条
CopyRight (&)
All Rights Reserved&管理学题目:1.画出决策树 概率 0.7 0.3 方案 投资 畅 滞 A1大车间 200 100 -20 A2小车间 50 40 302.画出网络图点计算工序 A B C D E F G紧前 / / / AB B C ED时间 7 8 10 16 14 20 83.案例分析题和线性规划产品 甲 乙 丙 资源原料A 1/3 1/3 1/3 100原料B 1 4 8 900单位利润 2 3 1 ……1.画出决策树 概率 0.7 0.3 方案 投资 畅 滞 A1大车间 200 100 -20 A2小车间 50 40 30
kisberly001E2
1.画出决策树 概率
滞 A1大车间
-20 A2小车间
为您推荐:
其他类似问题
扫描下载二维码决策树理论、C4.5源码分析及AdaBoost算法的提升改造 - 推酷
决策树理论、C4.5源码分析及AdaBoost算法的提升改造
第一部分 决策树
一、决策树原理
&&&&& 决策树是一种用来表示决策和相应的决策结果对应关系的树。树中每一个非叶节点表示一个决策,该决策的值导致不同的决策结果(叶节点)或者影响后面的决策选择。
&&&&& 示例:
&&&&&&& 决策树可分为分类树和回归树两种。分类树的叶节点对应于一个类别。回归书的叶节点对应于一连续值。
&&&&&&& 经典的决策树有ID3、C4.5、C5.0(由RossQuinlan发明,属于分类树)以及CART(分类回归树)。
&&&&&&& 决策树的基本思想是空间划分,通过递归的方式把关于自变量的m维空间划分为不重叠的矩形。如图所示,决策树首先按X2是否大于0.7将空间划分为两部分,然后再在这两部分分别按X1划分空间。整个空间被划分为四个矩形,各自对应一个分类结果。
&二、属性划分依据
& & & & & & ID3、C4.5、CART进行空间划分的依据分别是信息增益、信息增益率、Gini指标。
&&&&&&&&&&& 香农发明的,用于解决对系统信息的度量量化问题,可以理解为信息量。当系统很纯时,其度量值应为0。一个系统越是有序,信息熵就越低;反之,一个系统越乱,信息熵就越高。所以,信息熵也可以说是系统有序化程度的一个衡量。计算公式是
&&&&&&&&&&&&&
&&&&&&&&&&& 其中,Pi表示第i个类的概率,也即属于类i的样本比例。
2.& 信息增益
&&&&&&&&&& 指期望信息或者信息熵的有效减少量。可理解为前后信息的差值,在决策树分类问题中,即就是决策树在进行属性选择划分前和划分后的信息差值。
&&&&&&&&&& 条件熵:计算当一个特征t不能变化时,系统的信息量是多少。
&&&&&&&&&&&&&
&&&&&&&&&&&& 其中,v是特征T的多种取值,p(v)是每个特征取值的概率,Pvj是指定特征取值时各类的概率。
&&&&&&&&&&&& ID3选择最大的信息增益属性来进行划分。
3. 信息增益率
&&&&&&&&&&&& 使用信息增益的划分方法,存在由划分个数引起的偏置问题。假设某个属性存在大量的不同值,在划分时将每个值成为一个结点。最终计算得到划分后的信息量为:
&&&&&&& 。因为
&&&&&&& ( 或
,只含一个纯结点。这样决策树在选择属性时,将偏向于选择该属性,但这肯定是不正确(导致过拟合)的。因此有必要使用一种更好的方法,那就是C4.5中使用的信息增益率(Info Gain Ratio),其考虑了分支数量和尺寸的因素,使用称为内在信息(Intrinsic Information)的概念。
&&&&&&&&&&&& 内在信息(Intrinsic Information),可简单地理解为表示信息分支所需要的信息量,其计算公式如下:
&&&&&&&&&&&& 信息增益率则计算如下:
&&&&&&&&&&&&& 实际上可以看出,属性的重要性会随着其内在信息(Intrinsic Information)的增大而减小。 信息增益率作为一种补偿(Compensate)措施来解决信息增益所存在的问题,但是它也有可能导致过分补偿,而选择那些内在信息很小的属性,这一点可以尝试:首先,仅考虑那些信息增益超过平均值的属性,其次再比较信息增益。
4. Gini系数
&&&&&&&&&&&& 用来度量数据集的不纯度:
&&&&&&&&&&&&
&&&&&&&&&&&& 其中,
是类j在T中的相对频率,当类在T中是倾斜的时,gini(T)会最小。
&&&&&&&&&&&& 将T划分为T1(实例数为N1)和T2(实例数为N2)两个子集后,划分数据的Gini定义如下:
&&&&&&&&&&&& 然后选择其中最小的
作为结点划分决策树。
三、建树和剪枝
&&&&&&&&&&& ID3选择具有最高信息增益的属性作为测试属性。算法如下:
&&&&&&&&&&
&&&&&&&&&&&&& C4.5选择最高信息增益率的属性作为测试属性。
&&&&&&&&&&&&& 连续值属性的离散化处理:把需要处理的样本(对应根节点)或样本子集(对应子树)按照连续变量的大小从小到大进行排序;假设该属性对应的不同的属性值一共有N个,那么总共有N-1个可能的候选分割阈值点,每个候选的分割阈值点的值为上述排序后的属性值中两两前后连续元素的中点;用信息增益率选择最佳划分。
&&&&&&&&&&&&& 处理缺失值:为属性的每个可能值赋予一个概率。例如,给定一个布尔属性Fi,如果结点t包含6个已知Fi_v=1和4个Fi_v=0的实例,那么Fi_v=1的概率是0.6,而Fi_v=0的概率是0.4。于是,实例x的60%被分配到Fi_v=1的分支,40%被分配到另一个分支。这些片断样例(fractionalexamples)的目的是计算信息增益,另外,如果有第二个缺少值的属性必须被测试,这些样例可以在后继的树分支中被进一步细分。
&&&&&&&&&&&& 剪枝方法采用基于错误剪枝EBP(Error-BasedPruning)。
&&&&&&&&&&&&
&&&&&&&&&&&&&&&&&& 思想:加入Boosting算法框架
&&&&&&&&&&&&&&&&&& 特点:
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& –更快
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& –内存使用更有效
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& –更小的决策树
&&&&&&&&&&&&&&&&&& 商业机密
&&&&&&&&&&&&&&&&& 二叉树不易产生数据碎片,精确度往往也会高于多叉树,所以在CART算法中,采用了二元划分。
&&&&&&&&&&&&&&&&& 分类目标:Gini指标、Towing、orderTowing
&&&&&&&&&&&&&&&&& 回归目标:最小平方残差、最小绝对残差
&&&&&&&&&&&&&&&&& 用独立的验证数据集对训练集生长的树进行剪枝。
&&&&&&&&&&&&&&&&& 标记节点 t 的类:
&&&&&&&&&&&&&&&&&
&&&&&&&&&&&&&&&&& 若对于除i类外的所有类j都都成立,则将N标记为类i。
&&&&&&&&&&&&&&&&& 其中,Pi是类i的先验概率,Ni是总数据集中类i的样本数,Ni(t)是t 的数据集中类i的样本数,cost(j | i)是误分类成本。
& &&&&&&&&&&&&&
&&&&&&&&&&&&&& 节点t内的平方残差最小化(squaredresiduals minimization algorithm):
&&&&&&&&&&&&&
&&&&&&&&&&&&& 划分(属性)F将t划分成左右节点tL和tR,phi值:&&&&&&&&&&&&&
&&&&&&&&&&&&
&&&&&&&&&&&&&& 能最大化上式的就是最佳的(属性)划分。&&&&&&
&&&&&&&&&&&&
剪枝方法主要有
&&&&&&&&&&&&&&&& 降低错误剪枝 REP (Reduced Error Pruning)
&&&&&&&&&&&&&&& 悲观错误剪枝 PEP(Pessimistic Error Pruning)
&&&&&&&&&&&&&&& 基于错误剪枝 EBP(Error-Based Pruning)
&&&&&&&&&&&&&&& 代价-复杂度剪枝 CCP(Cost-Complexity Pruning)
&&&&&&&&&&&&&& 最小错误剪枝MEP(Minimum Error Pruning)
&&&&&&&&&&&&&& 最小期望误判成本MECM(Minimum Expected Costof Misclassification)
&&&&&&&&&&&&&& 最小描述长度MDL(Minimum Description Length)
第二部分& C4.5源码分析
&&&&&&&&&&&&& C4.5的源码来源于&&
一、数据结构
&&&&&&&&&&&&& defns.i 声明一些常量,如Eof、Nil、Epsilon;函数的宏定义,如Random()、Log(x)、ForEach(v, f, l)、Verbosity(d)、Check(v, l, h)
&&&&&&&&&&&&& types.i 声明一些变量,如Boolean、ItemNo(样本编号)、ItemCount(样本权重)、ClassNo(类编号)、Attribute、AttValue
&&&&&&&&&&&&&&&&&&&&&&&&&&&& *Tree,TreeRec: NodeType&&&&&&&&&&& 0,1,2,3
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& Leaf&&&&&&&&&&&&&&&&&&&&& 最可能的类
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& Items&&&&&&&&&&&&&&&&&&& 样本数量(权重)
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& *Branch&&&&&&&&&&&&&&& 子树
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& ........
&&&&&&&&&&&&&&& extern.i 声明外部变量
&&&&&&&&&&&&&&& buildex.i 声明建树用的外部变量,对于build.c中的声明
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& ItemCount& *Weight,&&&&&&&&&&&&& 样本权重
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& **Freq,&&&&&&&&&&&&&&&& 属性值的类的频率
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& *ValFreq,&&&&&&&&&&&& 属性值的频率
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& *ClassF&&&&&&& 类值的频率
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& float& *Gain,&&&&&&&&&&&&&&&&& 各属性的增益
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& *Info,&&&&&&&&&&&&&&&&&& 各属性的内在信息
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& *Bar,&&&&&&&&&&&&&&&&&&& 连续属性的最佳上界
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& *UnkownR&& 未知属性的比例
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& Boolean&& *Tested,&&&&&&&&&&& 属性是否已被测试
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& MultiV&&&&&&&&&&& 属性是否有多个值
&&&&&&&&&&&&&&&& 重要声明:C4.5.c中& MaxItem(样本的最大编号)、MaxAtt、MaxClass、*Item(样本数组)、*ClassResult(分类结果数组)、*MaxAttVal(每个属性的值的个数)、*ClassName(类名数组)、*AttName(属性名数组)、**AttValName(属性值名数组)、*Pruned(剪枝树)。
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& besttree.c中 *Raw(未剪枝树)
二、建树逻辑
bestTree.c&
GetNames()读类名、属性
GetData()读样本数据
OneTree()建一棵树/BestTree()试验多棵树取最佳
InitialiseTreeData()
InitialiseWeights();初始1.0
Tree FormTree()
ClassFreq=统计各类的频率
NoBestClass=最大频率的类
计算每个属性的增益和内在信息
EvalDiscreteAtt() &
EvalContinuousAtt()
Freq=统计属性值的类的频率
Quicksort()
ValFreq=统计属性值的频率
找最好的SplitGain[i]
ComputeGainComputeGain()
TotalInfo()
找最好属性:Gain/Info
清除Unknow属性
递归调用FormTree()或Leaf()
第三部分 AdaBoost算法的改造
一、AdaBoost算法
&&&&&&&&&&&&&&&&&& AdaBoost是一种典型的boosting算法。AdaBoost 算法的主要思想是在训练集上维护一套权重分布,初始化时,Adaboost 为训练集的每个训练例指定相同的权重 1/m。接着调用弱学习算法进行迭代学习。每次迭代后更新训练集上不同样本的权值,对训练失败的样本赋以较大的权重,也就是让学习算法在后续的学习过程中集中对比较难的训练例进行学习。
&&&&&&&&&&&&&&&&&& 每次循环:
&&&&&&&&&&&&&&&&&& 1)依据带权值的样本集训练基分类器G(x)
&&&&&&&&&&&&&&&&&& 2)计算G(x)的错误率
&&&&&&&&&&&&&&&&&& 3)计算G(x)的系数&
&&&&&&&&&&&&&&&&&&&
&&&&&&&&&&&&&&&&&& 4)更新样本集的权值分布
&&&&&&&&&&&&&&&&&&&&&&&
&&&&&&&&&&&&&&&&&&&&&&&& 其中Zt是规范化因子,为所有权值之和。
&&&&&&&&&&&&&&&&&&&& 经过T次循环,得到T个基分类器。
&&&&&&&&&&&&&&&&&&&& 分类测试时,采用线性组合(加权投票)的方式决定最终分类:
&&&&&&&&&&&&&&&&&&&&&&&&&&
二、使用C4.5基分类器的AdaBoost算法实现
&&&&&&&&&&&& Boosting算法对每个样本都赋予一个变化的权值,这就存在基分类器如何使用带权的样本训练的问题。有两种方式:一种是直接使用带权的样本,基分类器需要能直接使用带权样本训练;另一种是将样本权值看作其出现的概率,每次按概率重新采样,然后对采用使用基分类器训练。
&&&&&&&&&&&& C4.5分类器中,通过第二部分源码分析可知,Weight数组代表的即是样本权重。AdaBoost算法的实现中只需更新该数组即可。但该源码中对样本权重的精度支持不够,可能和Epsilon常量有关。实际作者将样本初始仍设为1.0,而不是1/m,Zt规范化因子取所有值之最大值,而非之和。
已发表评论数()
请填写推刊名
描述不能大于100个字符!
权限设置: 公开
仅自己可见
正文不准确
标题不准确
排版有问题
主题不准确
没有分页内容
图片无法显示
视频无法显示
与原文不一致一种基于C5.0决策树的客户流失预测模型研究--《统计与信息论坛》2015年01期
一种基于C5.0决策树的客户流失预测模型研究
【摘要】:客户流失是企业面临的一项突出问题。防止客户流失、尽力维系与挽留客户已成为企业经营与发展的一项重要课题。本文利用C5.0决策树算法建立了一种客户流失的预测模型,并利用中国邮政短信服务的400多万条实际业务数据,对模型的有效性进行了实证研究。研究结果表明,该模型提供了较高的命中率和覆盖率,具有良好的预警功能,可帮助企业及时发现有可能流失的客户,最大程度减少客户流失。
【作者单位】:
【关键词】:
【分类号】:F626;F274;F224【正文快照】:
一、前言近年来,随着电信行业的迅猛发展,各运营商之间的竞争逐渐加剧,客户可选择的运营商和产品日益增多,客户流失问题是困扰运营商的一大难题。客户是企业的利润之源,有效防止客户流失,提高客户忠诚度,对于企业的生存与发展有非常重要的意义。研究表明,客户流失率减少5%,能
欢迎:、、)
支持CAJ、PDF文件格式,仅支持PDF格式
【参考文献】
中国期刊全文数据库
王雷;陈松林;顾学道;;[J];电信科学;2006年09期
邓森文;马溪骏;;[J];合肥工业大学学报(自然科学版);2010年11期
蒋国瑞;司学峰;;[J];计算机应用研究;2009年02期
于小兵;曹杰;巩在武;;[J];计算机集成制造系统;2012年10期
何跃;何正林;周欣胤;;[J];软科学;2012年01期
徐燕妮;刘欣颖;范方;;[J];中国科技信息;2012年01期
崔永哲;;[J];延边大学学报(自然科学版);2008年02期
顾光同;王力宾;费宇;;[J];云南财经大学学报;2010年06期
【共引文献】
中国期刊全文数据库
孔令信;;[J];才智;2012年04期
罗彬;邵培基;夏国恩;;[J];管理学报;2012年09期
曹国;许娟;沈利香;;[J];财会通讯;2012年33期
单海燕;张薇薇;;[J];系统工程;2013年07期
王锐;王斌;;[J];工业工程;2014年02期
黄婉秋;;[J];北京交通大学学报;2014年03期
邓森文;马溪骏;;[J];合肥工业大学学报(自然科学版);2010年11期
王颖;陈治平;;[J];佳木斯大学学报(自然科学版);2010年02期
陈治平;;[J];计算机应用;2008年06期
邝涛;张倩;;[J];计算机仿真;2011年07期
中国博士学位论文全文数据库
罗彬;[D];电子科技大学;2010年
郭勇;[D];哈尔滨工业大学;2010年
巩建光;[D];哈尔滨工程大学;2012年
时建中;[D];南京理工大学;2012年
迟准;[D];哈尔滨工程大学;2013年
中国硕士学位论文全文数据库
李丽;[D];哈尔滨工程大学;2010年
董雪;[D];天津财经大学;2010年
胡媛帅;[D];南京大学;2011年
郑伟涛;[D];北京邮电大学;2011年
杨智;[D];西南交通大学;2011年
张韬;[D];哈尔滨工业大学;2010年
石瀚凌;[D];重庆大学;2011年
张琦;[D];吉林大学;2011年
王春玉;[D];浙江大学;2011年
贾江鹏;[D];北京邮电大学;2011年
【二级参考文献】
中国期刊全文数据库
,李景福;[J];电脑开发与应用;2004年04期
李阳;刘胜辉;赵洪松;;[J];电脑知识与技术;2010年03期
王雷;陈松林;顾学道;;[J];电信科学;2006年09期
邓松;王汝传;张羽;张建风;;[J];电子学报;2009年02期
梁协雄,雷汝焕,曹长修;[J];重庆大学学报(自然科学版);2004年03期
应维云;蔺楠;李秀;;[J];系统工程;2008年11期
陈明亮;[J];管理工程学报;2004年01期
肖进;贺昌政;;[J];管理工程学报;2010年04期
夏国恩;;[J];管理学报;2010年06期
罗彬;邵培基;罗尽尧;刘独玉;夏国恩;;[J];管理学报;2011年02期
【相似文献】
中国期刊全文数据库
潘振明;;[J];印刷经理人;2003年09期
,陈松青;[J];中国质量;2004年12期
张莉;;[J];北方牧业;2004年10期
李竞明,尹柳营;[J];江苏商论;2005年05期
,婉懿;[J];中国质量与品牌;2005年04期
周文涛;[J];企业改革与管理;2005年08期
叶孝明;梁祺;;[J];物流科技;2006年06期
夏国恩;陈云;金炜东;;[J];科技管理研究;2006年12期
杨天林;;[J];山西财经大学学报;2007年S1期
夏国恩;邵培基;;[J];计算机应用研究;2009年06期
中国重要会议论文全文数据库
司学峰;蒋国瑞;李英毅;;[A];第三届中国智能计算大会论文集[C];2009年
李红霞;;[A];中国企业运筹学[C];2009年
张俊巍;;[A];黑龙江省通信学会学术年会论文集[C];2005年
段巍巍;;[A];第十届中国科协年会信息化与社会发展学术讨论会分会场论文集[C];2008年
张海波;赵焕成;;[A];21世纪数量经济学(第11卷)[C];2010年
苏小龙;;[A];中国创新与企业成长(CI&G)2013年度会议论文集[C];2013年
余力涛;党延忠;杨光飞;;[A];第六届(2011)中国管理学年会——商务智能分会场论文集[C];2011年
李保升;陆炜颖;吕廷杰;;[A];2006中国控制与决策学术年会论文集[C];2006年
柳炳祥;盛昭翰;;[A];2002年中国管理科学学术会议论文集[C];2002年
李萍;齐佳音;舒华英;;[A];全国第八届工业工程与企业信息化学术会议论文集[C];2004年
中国重要报纸全文数据库
冰蓝;[N];电脑商报;2005年
;[N];计算机世界;2005年
吴喆;[N];通信产业报;2004年
吴喆;[N];通信产业报;2004年
张闯;[N];通信产业报;2004年
訾惠博;[N];医药经济报;2005年
柳原;[N];中国花卉报;2005年
;[N];民营经济报;2006年
中国电信广州研究院
黄宇芳 全波
李磊;[N];通信产业报;2007年
郭志明;[N];中国企业报;2008年
中国博士学位论文全文数据库
迟准;[D];哈尔滨工程大学;2013年
夏国恩;[D];西南交通大学;2007年
罗彬;[D];电子科技大学;2010年
中国硕士学位论文全文数据库
常晓宁;[D];同济大学;2007年
卿财源;[D];暨南大学;2009年
张少辉;[D];北京大学;2007年
刘伟汉;[D];湘潭大学;2010年
杨洪伟;[D];电子科技大学;2013年
刘杨;[D];电子科技大学;2013年
司学峰;[D];北京工业大学;2009年
冉建荣;[D];电子科技大学;2009年
郑为益;[D];华南理工大学;2011年
王海丰;[D];重庆大学;2006年
&快捷付款方式
&订购知网充值卡
400-819-9993
《中国学术期刊(光盘版)》电子杂志社有限公司
同方知网数字出版技术股份有限公司
地址:北京清华大学 84-48信箱 知识超市公司
出版物经营许可证 新出发京批字第直0595号
订购热线:400-819-82499
服务热线:010--
在线咨询:
传真:010-
京公网安备75号

我要回帖

更多关于 10万元投资 的文章

 

随机推荐