为什么支持向量机需要有arrested developmentt set

支持向量机在中医指症数据挖掘中的应用研究--《华东师范大学》2003年硕士论文
支持向量机在中医指症数据挖掘中的应用研究
【摘要】:
中医药作为中华民族特有的文化和科学遗产,对世界有着重大的贡献。但由于不同的社会背景和研究方法,中医还未得到现代医学的广泛承认,中医药的有效性和科学性还需要用实际数据来证明。面对大量的数据和数据间复杂的关系,传统的分析手段已无能为力。
数据挖掘作为一种融合了人工智能、数据库和数理统计等学科特点的新兴技术,却善于从这种大量的、复杂的数据中迅速获取新颖、有效的知识。能够弥补传统的分析方法在中医药研究方面的不足。相应地,寻找一种快速有效的数据挖掘算法就变得非常必要。支持向量机作为一种新兴的统计学习算法,以其优秀的理论基础(结构误差理论,条件二次优化理论和核空间理论)脱颖而出。
本文首先讨论了数据挖掘的基本概念,关键技术,挖掘任务,挖掘方法,基本过程以及发展状况。然后在研究了支持向量机的理论基础及基本概念和要解决的关键技术问题之后,又对当前各种比较通用的支持向量机训练算法进行了研究,比较了各种算法的优劣,尤其深入研究了Platt等人的SMO(Sequential Minimal Optimization)算法,指出这种SMO算法低效的主要原因是采用了单一的阈值参数,然后参考Keerthi等人的思想,提出了一种使用两个阈值参数的改进的SMO算法,在UCI数据集和我们的IGA肾病数据集上的试验结果表明,这种改进的SMO算法在训练速度上有一定的提高。
本文还针对中医样本数据特征多的特点,提出了一种新的方法,将粗糙集(RoughSet)应用于中医指症数据挖掘的预处理阶段,在不影响分类精度的前提下,对样本数据进行属性约简,这样经过约简以后的样本在样本训练阶段可以明显地提高训练速度。
最后给出一种以支持向量机为核心的中医指症数据挖掘方案。基本设计完成了中医指症数据挖掘原型系统。
【学位授予单位】:华东师范大学【学位级别】:硕士【学位授予年份】:2003【分类号】:TP311.13
欢迎:、、)
支持CAJ、PDF文件格式
【引证文献】
中国期刊全文数据库
丁卫平;管致锦;顾春华;;[J];计算机工程与应用;2008年07期
中国硕士学位论文全文数据库
邹伟伟;[D];东华大学;2012年
李园;[D];哈尔滨工程大学;2005年
【参考文献】
中国期刊全文数据库
王珏,王任,苗夺谦,郭萌,阮永韶,袁小红,赵凯;[J];计算机学报;1998年05期
张学工;[J];自动化学报;2000年01期
【共引文献】
中国期刊全文数据库
赵彦辉;张乐文;邱道宏;仲晓杰;;[J];四川建筑科学研究;2011年02期
吕俊;任雪萍;;[J];安徽电气工程职业技术学院学报;2011年01期
徐文婷;李承鹏;;[J];合肥师范学院学报;2011年03期
蔡莉;胡学钢;;[J];安徽大学学报(自然科学版);2007年06期
王东霞;张楠;路晓丽;;[J];安徽大学学报(自然科学版);2009年04期
周玉华;李景杰;;[J];安徽大学学报(自然科学版);2009年04期
杨萍,杨明;[J];安徽工程科技学院学报(自然科学版);2003年01期
杨绪兵,韩自存;[J];安徽工程科技学院学报(自然科学版);2003年04期
杨萍,万上海,陈耿;[J];安徽工程科技学院学报(自然科学版);2004年02期
陶秀凤,唐诗忠,周鸣争;[J];安徽工程科技学院学报(自然科学版);2004年02期
中国重要会议论文全文数据库
尹宗成;;[A];现代农业理论与实践——安徽现代农业博士科技论坛论文集[C];2007年
;[A];中国科学院地质与地球物理研究所第11届(2011年度)学术年会论文集(下)[C];2012年
危前进;董荣胜;孟瑜;崔更申;;[A];广西计算机学会25周年纪念会暨2011年学术年会论文集[C];2011年
李林;方家;梁小滨;刘中勇;;[A];江西省第八次中西医结合活血化瘀学术研讨会暨心脑血管病培训班论文集[C];2009年
朱文娟;李映霞;牛敏芬;何慈胜;程光宇;薛汉荣;吴海桂;;[A];江西省中西医结合学会呼吸病专业委员会首次学术会议论文集[C];2009年
李林;方家;刘中勇;邓鹏;赖小美;;[A];江西省中医药学会2011年学术年会论文集[C];2011年
宋海鹰;桂卫华;阳春华;;[A];第二十六届中国控制会议论文集[C];2007年
;[A];第二十六届中国控制会议论文集[C];2007年
;[A];第二十六届中国控制会议论文集[C];2007年
;[A];第二十六届中国控制会议论文集[C];2007年
中国博士学位论文全文数据库
赵莹;[D];哈尔滨工程大学;2010年
母丽华;[D];哈尔滨工程大学;2010年
梁洪;[D];哈尔滨工程大学;2010年
殷志伟;[D];哈尔滨工程大学;2009年
朱广平;[D];哈尔滨工程大学;2009年
孔凡芝;[D];哈尔滨工程大学;2009年
于翔;[D];哈尔滨工程大学;2010年
姜延吉;[D];哈尔滨工程大学;2010年
李晚龙;[D];哈尔滨工程大学;2010年
杨宁;[D];中国海洋大学;2010年
中国硕士学位论文全文数据库
展慧;[D];华中农业大学;2010年
杜二玲;[D];河北大学;2007年
朱杰;[D];河北大学;2007年
李金华;[D];山东科技大学;2010年
徐芳芳;[D];山东科技大学;2010年
朱耿峰;[D];山东科技大学;2010年
安文娟;[D];辽宁师范大学;2010年
姜成玉;[D];辽宁师范大学;2010年
李海清;[D];辽宁师范大学;2010年
岳海亮;[D];辽宁师范大学;2010年
【同被引文献】
中国期刊全文数据库
宋宝珠,程钊,孙立友,徐经生,高逢生;[J];安徽中医学院学报;1987年04期
曹元大,蒋怒涛;[J];北京理工大学学报;1998年06期
张鸿宾,孙广煜;[J];电子学报;2000年11期
郭红,黄永亨;[J];福州大学学报(自然科学版);1994年03期
裴道武;[J];工程数学学报;2004年02期
王建生;[J];甘肃中医学院学报;1992年02期
李凯述;陈建荣;蔡映云;;[J];国外医学(内科学分册);2005年12期
朱咏华;朱文锋;;[J];湖南大学学报(自然科学版);2006年04期
杨连初,朱文锋;[J];湖南中医药导报;1999年05期
孙德保,程良铨,吕汉兴,瞿坦,徐木林,王秋琴;[J];华中理工大学学报;1989年05期
中国博士学位论文全文数据库
秦中广;[D];华南理工大学;2002年
【二级引证文献】
中国期刊全文数据库
丁卫平;顾春华;石振国;陈建平;管致锦;;[J];计算机科学;2009年10期
张臻;陈婕;丁卫平;;[J];计算机工程与科学;2009年10期
齐丙娟;丁世飞;;[J];微电子学与计算机;2011年10期
中国硕士学位论文全文数据库
张清;[D];北京交通大学;2011年
朱家群;[D];南京理工大学;2007年
任晋滔;[D];华东理工大学;2012年
王立文;[D];华东理工大学;2013年
【二级参考文献】
中国期刊全文数据库
卢增祥,李衍达;[J];清华大学学报(自然科学版);1999年07期
【相似文献】
中国期刊全文数据库
张新光,王建华;[J];齐齐哈尔大学学报;2000年03期
丁纪云,蔡春娥;[J];湖南广播电视大学学报;2001年02期
任承业,罗伟其;[J];计算机工程与应用;2003年13期
王艳;[J];情报科学;2003年02期
邵红全,赵茜;[J];电脑开发与应用;2003年04期
耿庆鹏,卢子芳;[J];电信快报;2003年10期
蒋良孝,蔡之华;[J];计算技术与自动化;2003年03期
叶静,蔡之华;[J];计算机与现代化;2003年10期
黄解军,万幼川,潘和平;[J];计算机工程与设计;2003年07期
崔强,朱卫东;[J];铁路计算机应用;2003年01期
中国重要会议论文全文数据库
郭学军;陈晓云;;[A];第十六届全国数据库学术会议论文集[C];1999年
徐慧;;[A];第十七届全国数据库学术会议论文集(技术报告篇)[C];2000年
孙迎;;[A];中华医学会第十次全国医学信息学术会议论文汇编[C];2004年
薛晓东;李海玲;;[A];科技、工程与经济社会协调发展——河南省第四届青年学术年会论文集(下册)[C];2004年
郭建文;黄燕;印鉴;杨小波;梁兆辉;;[A];中华医学会第十三次全国神经病学学术会议论文汇编[C];2010年
薛鲁华;张楠;;[A];北京市第十三次统计科学讨论会论文选编[C];2006年
朱扬勇;黄超;;[A];第二十届全国数据库学术会议论文集(技术报告篇)[C];2003年
陈涛;胡学钢;陈秀美;;[A];全国第21届计算机技术与应用学术会议(CACIS·2010)暨全国第2届安全关键技术与应用学术会议论文集[C];2010年
王星;谢邦昌;戴稳胜;;[A];北京市第十二次统计科学讨论会论文选编[C];2003年
郭建文;黄燕;印鉴;杨小波;梁兆辉;;[A];2010中国医师协会中西医结合医师大会摘要集[C];2010年
中国重要报纸全文数据库
李开宇 黄建军
田长春;[N];中国国防报;2009年
华莱士;[N];国际金融报;2003年
记者 晏燕;[N];科技日报;2006年
□中国电信股份有限公司北京研究院 张舒博
□北京邮电大学计算机科学与技术学院 牛琨;[N];人民邮电;2006年
张立明;[N];网络世界;2003年
中圣信息技术有限公司
李辉;[N];中国计算机报;2001年
田红生;[N];中国经济时报;2002年
王广宇;[N];中国计算机报;2004年
周蓉蓉;[N];计算机世界;2004年
张舒博;[N];首都建设报;2009年
中国博士学位论文全文数据库
孙丽;[D];大连交通大学;2005年
胡志坤;[D];中南大学;2005年
刘革平;[D];西南师范大学;2005年
刘寨华;[D];黑龙江中医药大学;2006年
王川;[D];中国科学院研究生院(上海生命科学研究院);2004年
王涛;[D];华中科技大学;2006年
郭斯羽;[D];浙江大学;2002年
李旭升;[D];西南交通大学;2007年
刘东升;[D];浙江工商大学;2008年
余红;[D];华中科技大学;2007年
中国硕士学位论文全文数据库
廖赛恩;[D];湖南中医药大学;2010年
李坤然;[D];中南林业科技大学;2008年
郑宏;[D];西安电子科技大学;2010年
杜金刚;[D];北京邮电大学;2010年
徐路;[D];电子科技大学;2009年
梁小鸥;[D];华南理工大学;2011年
王浩;[D];华东理工大学;2012年
黎卫英;[D];福建师范大学;2009年
张煜辉;[D];上海交通大学;2009年
刘华敏;[D];安徽大学;2011年
&快捷付款方式
&订购知网充值卡
400-819-9993干货 | 详解支持向量机(附学习资源)
选自The Yhat
作者:Greg
机器之心编译
参与:Jane W、蒋思源
支持向量机(SVM)已经成为一种非常流行的算法。本文将尝试解释支持向量机的原理,并列举几个使用 Python Scikits 库的例子。本文的所有代码已经上传 Github。有关使用 Scikits 和 Sklearn 的细节,我将在另一篇文章中详细介绍。
什么是 支持向量机(SVM)?
SVM 是一种有监督的机器学习算法,可用于分类或回归问题。它使用一种称为核函数(kernel)的技术来变换数据,然后基于这种变换,算法找到预测可能的两种分类之间的最佳边界(optimal boundary)。简单地说,它做了一些非常复杂的数据变换,然后根据定义的标签找出区分数据的方法。
为什么这种算法很强大?
在上面我们说 SVM 能够做分类和回归。在这篇文章中,我将重点讲述如何使用 SVM 进行分类。特别的是,本文的例子使用了非线性 SVM 或非线性核函数的 SVM。非线性 SVM 意味着算法计算的边界不再是直线。它的优点是可以捕获数据之间更复杂的关系,而无需人为地进行困难的数据转换;缺点是训练时间长得多,因为它的计算量更大。
牛和狼的分类问题
什么是核函数技术?
核函数技术可以变换数据。它具备一些好用的分类器的特点,然后输出一些你无需再进行识别的数据。它的工作方式有点像解开一条 DNA 链。从传入数据向量开始,通过核函数,它解开并组合数据,直到形成更大且无法通过电子表格查看的数据集。该算法的神奇之处在于,在扩展数据集的过程中,能发现类与类之间更明显的边界,使得 SVM 算法能够计算更为优化的超平面。
现在假装你是一个农夫,那么你就有一个问题——需要建立一个篱笆,以保护你的牛不被狼攻击。但是在哪里筑篱笆合适呢?如果你真的是一个用数据说话的农夫,一种方法是基于牛和狼在你的牧场的位置,建立一个分类器。通过对下图中几种不同类型的分类器进行比较,我们看到 SVM 能很好地区分牛群和狼群。我认为这些图很好地说明了使用非线性分类器的好处,可以看到逻辑回归和决策树模型的分类边界都是直线。
重现分析过程
想自己绘出这些图吗?你可以在你的终端或你选择的 IDE 中运行代码,在这里我建议使用 Rodeo(Python 数据科学专用 IDE 项目)。它有弹出制图的功能,可以很方便地进行这种类型的分析。它也附带了针对 Windows 操作系统的 Python 内核。此外,感谢 TakenPilot(一位编程者 /TakenPilot)的辛勤工作,使得 Rodeo 现在运行闪电般快速。
下载 Rodeo 之后,从我的 github 页面中下载 cows_and_wolves.txt 原始数据文件。并确保将你的工作目录设置为保存文件的位置。
Rodeo 下载地址:/products/rodeo
好了,现在只需将下面的代码复制并粘贴到 Rodeo 中,然后运行每行代码或整个脚本。不要忘了,你可以弹出绘图选项卡、移动或调整它们的大小。
# Data driven farmer goes to the Rodeoimportnumpy asnpimportpylab asplfromsklearn importsvmfromsklearn importlinear_modelfromsklearn importtreeimportpandas aspddefplot_results_with_hyperplane(clf,clf_name,df,plt_nmbr):x_min,x_max =df.x.min()-.5,df.x.max()+.5y_min,y_max =df.y.min()-.5,df.y.max()+.5# step between points. i.e. [0, 0.02, 0.04, ...]step =.02# to plot the boundary, we're going to create a matrix of every possible point# then label each point as a wolf or cow using our classifierxx,yy =np.meshgrid(np.arange(x_min,x_max,step),np.arange(y_min,y_max,step))Z =clf.predict(np.c_[xx.ravel(),yy.ravel()])# this gets our predictions back into a matrixZ =Z.reshape(xx.shape)# create a subplot (we're going to have more than 1 plot on a given image)pl.subplot(2,2,plt_nmbr)# plot the boundariespl.pcolormesh(xx,yy,Z,cmap=pl.cm.Paired)# plot the wolves and cowsforanimal indf.animal.unique():pl.scatter(df[df.animal==animal].x,df[df.animal==animal].y,marker=animal,label="cows"ifanimal=="x"else"wolves",color='black')pl.title(clf_name)pl.legend(loc="best")data =open("cows_and_wolves.txt").read()data =[row.split('t')forrow indata.strip().split('n')]animals =[]fory,row inenumerate(data):forx,item inenumerate(row):# x's are cows, o's are wolvesifitem in['o','x']:animals.append([x,y,item])df =pd.DataFrame(animals,columns=["x","y","animal"])df['animal_type']=df.animal.apply(lambdax:0ifx=="x"else1)# train using the x and y position coordiantestrain_cols =["x","y"]clfs ={"SVM":svm.SVC(),"Logistic":linear_model.LogisticRegression(),"Decision Tree":tree.DecisionTreeClassifier(),}plt_nmbr =1forclf_name,clf inclfs.iteritems():clf.fit(df[train_cols],df.animal_type)plot_results_with_hyperplane(clf,clf_name,df,plt_nmbr)plt_nmbr +=1pl.show()
SVM 解决难题
在因变量和自变量之间的关系是非线性的情况下,带有核函数的 SVM 算法会得到更精确的结果。在这里,转换变量(log(x),(x ^ 2))就变得不那么重要了,因为算法内在地包含了转换变量的过程。如果你思考这个过程仍然有些不清楚,那么看看下面的例子能否让你更清楚地理解。
假设我们有一个由绿色和红色点组成的数据集。当根据它们的坐标绘制散点图时,点形成具有绿色轮廓的红色圆形(看起来很像孟加拉国的旗子)。
如果我们丢失了 1/3 的数据,那么会发生什么?如果无法恢复这些数据,我们需要找到一种方法来估计丢失的 1/3 数据。
那么,我们如何弄清缺失的 1/3 数据看起来像什么?一种方法是使用我们所拥有的 80%数据作为训练集来构建模型。但是使用什么模型呢?让我们试试下面的模型:
逻辑回归模型
支持向量机
对每个模型进行训练,然后用这些模型来预测丢失的 1/3 数据。下面是每个模型的预测结果:
模型算法比较的实现
下面是比较 logistic 模型、决策树和 SVM 的代码。
importnumpy asnpimportpylab asplimportpandas aspdfromsklearn importsvmfromsklearn importlinear_modelfromsklearn importtreefromsklearn.metrics importconfusion_matrixx_min,x_max =0,15y_min,y_max =0,10step =.1# to plot the boundary, we're going to create a matrix of every possible point# then label each point as a wolf or cow using our classifierxx,yy =np.meshgrid(np.arange(x_min,x_max,step),np.arange(y_min,y_max,step))df =pd.DataFrame(data={'x':xx.ravel(),'y':yy.ravel()})df['color_gauge']=(df.x-7.5)**2+(df.y-5)**2df['color']=df.color_gauge.apply(lambdax:"red"ifx &=15else"green")df['color_as_int']=df.color.apply(lambdax:0ifx=="red"else1)print"Points on flag:"printdf.groupby('color').size()printfigure =1# plot a figure for the entire datasetforcolor indf.color.unique():idx =df.color==color pl.subplot(2,2,figure)pl.scatter(df[idx].x,df[idx].y,color=color)pl.title('Actual')train_idx =df.x &10train =df[train_idx]test =df[-train_idx]print"Training Set Size: %d"%len(train)print"Test Set Size: %d"%len(test)# train using the x and y position coordiantescols =["x","y"]clfs ={"SVM":svm.SVC(degree=0.5),"Logistic":linear_model.LogisticRegression(),"Decision Tree":tree.DecisionTreeClassifier()}# racehorse different classifiers and plot the resultsforclf_name,clf inclfs.iteritems():figure +=1# train the classifierclf.fit(train[cols],train.color_as_int)# get the predicted values from the test settest['predicted_color_as_int']=clf.predict(test[cols])test['pred_color']=test.predicted_color_as_int.apply(lambdax:"red"ifx==0else"green")# create a new subplot on the plotpl.subplot(2,2,figure)# plot each predicted colorforcolor intest.pred_color.unique():# plot only rows where pred_color is equal to coloridx =test.pred_color==color pl.scatter(test[idx].x,test[idx].y,color=color)# plot the training set as wellforcolor intrain.color.unique():idx =train.color==color pl.scatter(train[idx].x,train[idx].y,color=color)# add a dotted line to show the boundary between the training and test set# (everything to the right of the line is in the test set)#this plots a vertical linetrain_line_y =np.linspace(y_min,y_max)#evenly spaced array from 0 to 10train_line_x =np.repeat(10,len(train_line_y))#repeat 10 (threshold for traininset) n times# add a black, dotted line to the subplotpl.plot(train_line_x,train_line_y,'k--',color="black")pl.title(clf_name)print"Confusion Matrix for %s:"%clf_name printconfusion_matrix(test.color,test.pred_color)pl.show()
在 Rodeo 中复制和运行上面的代码。
从这些图中可以清楚地看出 SVM 更好。为什么呢?如果观察决策树和 GLM(广义线性模型,这里指 logistic 回归)模型的预测形状,你会看到预测给出的直边界。因为它们的输入模型没有任何变换来解释 x、y 以及颜色之间的非线性关系。给定一组特定的变换,我们绝对可以使 GLM 和 DT(决策树)得出更好的结果,但寻找合适的变换将浪费大量时间。在没有复杂的变换或特征缩放的情况下,SVM 算法 5000 数据点只错误地分类了 117 点(98%的精度,而 DT 精确度为 51%,GLM 精确度为 12%)。由于所有错误分类的点是红色,所以预测的结果形状有轻微的凸起。
不适用的场合
那为什么不是所有问题都使用 SVM?很遗憾,SVM 的魅力也是它最大的缺点。复杂数据变换以及得到的决策边界平面是很难解释的。这就是为什么它通常被称为「黑箱」的原因。GLM 和决策树恰恰相反,它们的算法实现过程及怎样减少成本函数得到优良结果都很容易理解。
更多学习资源
想了解更多关于 SVM 的知识?以下是我收藏的一些好资源:
初级——SVM 教程:基础教程,作者是 MIT 的 Zoya Gavrilov
链接地址:http://web.mit.edu/zoya/www/SVM.pdf
初级——SVM 算法原理:Youtube 视频,作者是 Thales SehnK?rting
链接地址:https://youtu.be/1NxnPkZM9bc
中级——支持向量机在生物医学中的简要介绍:纽约大学 & 范德堡大学提供的课件
链接地址:https://www.med.nyu.edu/chibi/sites/default/files/chibi/Final.pdf
高级——模式识别下的支持向量机教程:作者是贝尔实验室(Bell Labs)的 Christopher Burges
链接地址:/en-us/um/people/cburges/papers/SVMTutorial.pdf
原文链接:/posts/why-support-vector-machine.html
(C)本文为机器之心编译,转载请联系本公众号获得授权。
?------------------------------------------------
加入机器之心(全职记者/实习生):
投稿或寻求报道:
广告&商务合作:
责任编辑:
声明:本文由入驻搜狐号的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。
今日搜狐热点 上传我的文档
 下载
 收藏
该文档贡献者很忙,什么也没留下。
 下载此文档
正在努力加载中...
支持向量机及其应用研究
下载积分:2498
内容提示:支持向量机及其应用研究
文档格式:PDF|
浏览次数:4|
上传日期: 13:12:26|
文档星级:
全文阅读已结束,如果下载本文需要使用
 2498 积分
下载此文档
该用户还上传了这些文档
支持向量机及其应用研究
关注微信公众号当前位置: >>
基于粗糙集和支持向量机的标准农田地力等级评价
第 26 卷 第 12 期 2011 年 12 月自然资源学报JOURNAL OF NATURAL RESOURCESVol. 26 No. 12 Dec., 2011基于粗糙集和支持向量机的标准农田地力等级评价赖红松,吴次芳( 浙江大学 公共管理学院, 杭州 310029 )摘要: 标准农田是耕地的精华 , 是确保国家粮食安全的关键 。 科学评价标准农田地力等级对标 RS ) 理论和支持向量机 ( Support 准农田培肥和土壤改良有着重要意义 。 将粗糙集 ( Rough Set, Vector Machine, SVM) 相结合, 提出了基于 RS 和 SVM 的标准农田地力等级评价方法 , 同时, 利用 遗传算法的并行搜索结构和模拟退火的概率突跳特性 , 提出了 GASA 优化 SVM 参数算法。 该 方法首先在确定标准农田地力等级评价指标的基础上 , 利用地力调查样本数据及传统的指数和 应用 RS 穷尽算法对决策表进行约简 , 剔除冗余的评价指标, 然后 法评价结果构建 RS 决策表, 用约简后的评价指标作为 SVM 的输入, 运用 GASA 优化 SVM 参数算法对 SVM 进行训练, 建立 SVM 评价模型。 应用该方法对温州市鹿城区标准农田地力等级进行 标准农田地力等级的 RSSVM 模型和 BP 神经 评价, 与未用 RS 约简的 SVM 模型和 BP 神经网络模型评价结果进行对比 , SVM 模型的输入指 网络模型的输入指标数均为 15 个, 其评价正确率分别为 100% 和 90% ; RSSVM 评 标数为 14 个, 其评价正确率分别为 100% , 结果表明, 该方法通过 RS 约简评价指标后, 但降低了 SVM 输入向量维数和计算复杂度 , 提高了训练效率; SVM 用于标 价精度并没有降低, 准农田地力等级评价, 具有比 BP 神经网络更高的评价精度 , 可有效用于标准农田地力等级评 价, 为耕地地力评价提供了新方法 。 关 键 词: 耕地地力评价; 标准农田; 粗糙集; 支持向量机; 鹿城区 文献标志码: A 文章编号: 1000 - 3037( 2011) 12 - 2141 - 14 中图分类号: S158; TP18标准农田是通过土地整理、 农业综合开发等方法建成的田成方、 渠相通、 路相连, 林成 网、 灌得进、 排得出的稳产农田, 是耕地中的精华, 是现代农业发展的基础。标准农田地力等 级评价是加强标准农田质量建设的基础 , 是制订标准农田保护、 培肥、 改良、 利用规划的主要 是推进标准农田土壤改良, 确保粮食生产能力的重要举措。随着计算机和信息技 科学依据, 近年来, 国内外利用地理信息系统技术, 采用数值法进行耕地地力评价研究较多 , 术的发展, [17 ] [8 ] 如指数和法 和人工神经网络法 等。传统的指数和法是在确定评价因子及其权重和隶 属度( 评分值) 的基础上, 采用加法模型计算评价单元的综合地力指数, 然后根据综合地力 划分地力等级。该方法步骤复杂, 工作量大, 且易受人为主观因素 指数分布确定分级方案, 影响。人工神经网络处理非线性关系的能力虽然较强 , 但存在网络结构难以确定、 局部最优 [910 ] 。支持向量机( Support Vector Machine, SVM) 是于 和泛化能力差等一些难以克服的缺陷 20 世纪 90 年代中期由 Vladimir N. Vapnik 等提出的, 基于统计学习理论的一种新的机器学 习方法。它通过寻求结构风险最小化来实现经验风险最小化 , 较好地解决了神经网络的固 有问题, 已被成功应用于模式识别、 回归分析、 时序预测等领域[1113 ]。 和其他学习算法一收稿日期: 2011- 03- 15 ; 修订日期: 2011- 08- 15 。 第一作者简介: 赖红松( 1967- ) , 男, 江西赣县人, 博士后, 主要从事土地利用规划、 土地资源评价和土地资源管理 mail: maplhs@ 163. com 等研究。E- 2142自然资源学报26 卷SVM 的性能依赖于学习机的参数, 样, 但是, 目前 SVM 参数的选择主要依靠经验和试算, 还 SVM 。 ( Rough Set , RS ) Z. Pawlak 没有指导 参数选择的好方法 粗糙集 理论是由波兰数学家 于 1982 年提出的一种处理不完整性和不确定性的数学工具 , 它不需要预先给定关于数据的 任何附加信息, 在保留关键信息的前提下对数据进行化简并求得知识的最小表达 , 识别并评 估数据之间的依赖关系, 从经验数据中获取最小规则, 从而在机器学习、 决策分析、 过程控制 [1415 ] 。本文将 RS 理论和 SVM 相结合, 等领域得到了广泛应用 提出基于 RS 和 SVM 标准农 田地力等级评价方法, 同时针对 SVM 参数的选择问题, 利用遗传算法 ( Genetic Algorithms, [16 ] [17 ] GA) 的并行搜索结构和模拟退火 ( Simulated Annealing,SA ) 的概率突跳特性, 提出 GASA 优化 SVM 参数算法, 实现 SVM 参数的自动优化选择。该方法首先在建立标准农田地 力等级评价指标体系的基础上, 利用地力调查样本数据及传统的指数和法评价结果构建 RS 决策表, 用 RS 属性约简方法进行属性约简, 剔除冗余的评价指标, 然后将约简后的指标作 SVM 评价模型, 运用 GASA 优化 SVM 参数算法训练 SVM, 建立 RS进行标 为 SVM 的输入, 准农田地力等级评价。尝试将该方法用于温州市鹿城区标准农田地力等级评价, 并将其结 果与未用 RS 约简的 SVM 和 BP 神经网络方法的评价结果进行比较分析, 验证该方法的可 , 。 行性和有效性 以期为耕地地力评价提供一种新方法1粗糙集属性约简属性约简是粗糙集理论的核心内容之一 。它是在保持信息系统的分类或决策能力不变 C ∪ D) , 的前提下, 删除不相关或不重要的冗余属性 。信息系统表示为一个决策表 S = ( U, C 是条件属性集, D 是决策属性集, 其中 U 是有限对象集, 属性约简是在保持 C 与 D 之间的 D) 不变的前提下, D ) = γ ( C, D) , 依赖度 γ( C , 删除 C 中的冗余属性。 子集 P ? C , 若 γ ( P, D) ≠γ ( P , D) , 且?P' ?P , γ( P' , 称 P 是 C 的一个 D 约简。 hard 问题。 目前, 约简通常不惟一, 已经证明寻找属性的所有约简或最小约简都是 NP[18 ] [19 ] [20 ] Johnson 贪婪算法 、 粗糙集属性约简方法主要有穷尽算法 、 属性重要性启发式算法 、[21 ] [22-23 ] [24 ] [25 ] [26 ] 、 互信息约简算法 、 遗传算法 复合系统约简 、 扩展法则 、 动态约简 、 二维约简 [27 ] [28 ] 算法 、 概念格 等。穷尽算法是通过构造分辨矩阵导出分辨函数 , 并应用吸收律对分辨函数进行化简, 使之成为最小析取范式 ( 其中每个主蕴涵均为约简 ) , 进而求得数据属性集 。 , , 的约简 穷尽算法虽然算法复杂度高 只适用于较小的数据集 但可以求出所有的约简。本 文选用 Rosetta 数据分析软件穷尽算法约简标准农田地力等级评价指标 。22. 1支持向量分类机标准 SVM 分类算法 y1 ) , ( x2 , y2 ) , …, ( xl , yl ) } , 支持向量分类的基本思想是对于给定的样本集 T = { ( x1 , 其n y i ∈{ 1 , - 1} , 中 x i ∈R , 通过一个非线性映射 ?( ?) 将 x i 映射到一个高维特征空间( Hilbert 空间) , 并在这个特征空间中构建一个能将训练样本集中的两类点完全正确地分开 , 而且要使分类间隔 2 / ‖ w ‖ 最大的最优分类超平面, 即 w ? ? ( x ) + b = 0 。 标准 SVM 通过求解 式( 1 ) 优化问题来确定 w 和 b: min s. t. 1 2 ‖w ‖ + C ∑ ξ i 2 i =1 y i[ w ??( x i ) + b]≥ 1 - ξ il 12 期赖红松等: 基于粗糙集和支持向量机的标准农田地力等级评价2143…, l) ξi ≥ 0 , ( i = 1 , C 为惩罚参数。 式中: ξ i 为松弛变量, 式( 1 ) 的对偶形式为l( 1)max∑ α i -i =1 l1 2llxj ) αi αj ∑ ∑ y i y j K( x i , i =1 j =1 = 0s. t.yi αi ∑ i =10 ≤ αi ≤ C ( i = 1 , …, l) ( 2) K( x i , x j ) = ?( x i ) ??( x j ) 为核函数。 由于局部性核函数学习能力强、 式中, 泛化性能较弱, 、 , 而全局性核函数泛化性能强 学习能力较弱 为获得学习能力和泛化能力较强的核函数, 本 文选用局部性核函数高斯径向基核和全局性核函数 4 阶多项式核组合构成的混合核函数, x j ) = r( x i ?x j + 1 ) 4 + ( 1 - r ) exp ( - ‖ x i - x j ‖2 / σ2 ) , 即 K( x i , 其中 σ 为高斯径向基核宽 r( 0 ≤r ≤1 ) 为调节高斯径向基核和多项式核作用大小系数。 求解式 ( 2 ) 得最优解为 度,* * * * * …, xj ) , 0 < α* α = ( α1 , αl ) , 计算 b = y j - ∑ y i α i K ( x i , 从而求得决策函数 f ( x ) = j < C, i =1 lsgn 2. 2[ ∑ yi α* ii =1lK( x i , x) + b * ] 。类别补偿 SVM 在实际应用中, 训练样本集中的正负两类点个数往往不均衡, 这时用标准 SVM 分类算 对正类点集和负类点集应用相同的惩罚参数 C 将导致样本数量多的类别分类 法进行分类,[29 ] 误差小, 样本数量少的类别分类误差大 。为使正负两类之间得到平衡的误差率 , 令 C+ = l+ l- C ,C - = C ,l + 和 l - 分别为正类和负类的样本个数, 此时, 标准 SVM 优化问题即式 ( 1 ) l l变为 min s. t. 其对偶形式为l1 2 ‖w ‖ + C + 2ξi ∑ y =1+ C-y = -1∑ ξi( 3)y i[ w ??( x i ) + b]≥ 1 - ξ i …, l) ξi ≥ 0 , ( i = 1 ,max∑ α i -i =1 l1 2llxj ) αi αj ∑ ∑ y i y j K( x i , i =1 j =1 = 0 ( 4)s. t.yi αi ∑ i =10 ≤ αi ≤ C + , yi = 1 0 ≤ αi ≤ C - , yi = - 1 2. 3 SVM 多类分类算法 SVM 原型是处理两类问题的, 而标准农田地力等级评价属于多类分类问题 , 因此, 需采 SVM 多类分类方法主要 有 一 类 对 一 类 法[30]、 一类对余类 用 SVM 多类分类方法。 目前, [31 ] [32 ] [33 ] [34 ] [35 Mary 法 ]等。 一类 法 、 决策二叉树法 、 决策导向无环图法 和纠错输出编码法 、 对余类法对于 M 类分类问题只需求解 M 个两类分类机, 训练时间较短, 可用于大规模数据。 但是, 其缺点是当类别数较大时, 某一类的训练样本将大大少于其他类训练样本的总和, 这 2144自然资源学报26 卷种训练样本间的不均衡将影响分类精度。 处理这种训练样本间不平衡, 可采用类别补偿 SVM 解决。本文采用一类对余类法, 其算法步骤如下:n ( 1 ) 给定 M 类分类问题的训练集 T = { ( x1 , y1 ) , …, ( xl , yl ) } , yi ∈ { 1, …, 其中 x i ∈ R ,M} 。 ( 2) 对 j = 1, …, M 进行如下运算: 把第 j 类看作正类, 把其余的 M - 1 类看作负类, 构造l并求解式( 4 ) 得最优解为 α** * * = ( α1 , …, αl ) , 计算 b = y j - lyi α* xj ) , 0 ∑ i K( x i , i =1 + b* 。< α* < jj j j C, 求得决策函数 f ( x) = sgn ( g ( x) ) , 其中 g ( x) =yi α* x) ∑ i K( x i , i =11 ( 3 ) 判定输入 x 属于第 J 类, …, g M ( x) 中最大者的上标。 其中 J 是 g ( x) ,2. 4SVM 参数的 GASA 优化算法 由 2. 1 节可知, 以高斯径向基核和 4 阶多项式核组合构成的混合核函数为核函数的SVM 分类器有 3 个可调参数: 核函数参数 σ、 r 和惩罚参数 C 。 σ 主要影响样本数据在高维 r 决定高斯径向基核和多项式核在混合核函数中的比重 , 而惩 特征空间中分布的复杂程度, 罚参数 C 的作用是在确定的特征空间中调节学习机的置信范围和经验风险的比例核 。 因 SVM 参数选择方 此, 它们的选择将对 SVM 的泛化能力和学习效率产生较大的影响 。 目前, 法主要有试凑法( 穷举法) 传算法[41-42 ] [36 ] 37-38 ] [39 ] [40 ] 、 k 折交叉验证法[11, 、 梯度下降法 、 网格搜索算法 、 遗 [43 ] [44 ] 、 粒子群算法 、 嵌套均匀设计法 等。 GA 是模拟生物进化过程中的自然选择和遗传变异的一种全局性并行随机搜索的优化算法 。 SA 是基于 Mente Carlo 迭代求解的 一种全局概率型搜索算法。GA 虽有较强的全局搜索性能, 但在实际应用中易早熟收敛, 而 改善其性能需增大种群数目或采用高级进化策略 。本文利用 GA 的并行搜索结构和模拟退 r 和惩罚参 火 SA 的概率突跳特性, 提出 GASA 优化 SVM 参数算法, 对 SVM 核函数参数 σ、 数 C 三个参数进行优化, 具体步骤如下: r、 C 取值范围, ( 1 ) 确定优化 SVM 参数 σ、 并用浮点数编码表示该参数向量 V。 ( 2 ) 确定 GA 和 SA 参数, 初始化种群 p0 , 并令 k = 0 。 ( 3 ) 用不同样本具有不同惩罚参数 C 值的改进的序列最小优化算法[13] 求解式 ( 4 ) 最 计算个体适应度 f = 优解, ll。∑[y i - f( x i) ]2i =1( 4 ) 对 p k 中的各个体进行 SA 搜索。 首先, 用 SA 状态产生函数产生新个体 V i ( k ) = V i ( k - 1 ) + ηξ, 其中 η 为扰动幅度参数, ξ 为随机扰动变量; 然后, 计算新、 旧个体的适应度 1, exp ( - ΔC / t k ) , 0, 1] , 之差 ΔC ; 计算接受概率 P r = min[ 若 P r > random[ 用新个体取代旧 个体, 否则, 旧个体不变。 ( 5 ) 对 p k 中个体按适应度由大到小进行排序 , 然后以 srate 淘汰率淘汰掉适应度值低的 个体, 被淘汰掉的个体数为 n( n = int ( popsize × srate ) ) , 再将未被淘汰掉的优良个体保留到 下一代种群 p k + 1 中。 ( 6 ) n 次从 p k 中随机选择两个个体以交叉概率 p c ={0. 9 -0. 3 ( f - f avg ) f max - f min, f≥f avg f < f avg, 进行0. 9 , 12 期赖红松等: 基于粗糙集和支持向量机的标准农田地力等级评价popsize [45 ]2145混合交叉操作, fits ( mate2 ) ) , f avg = 其中 f = max ( fits ( mate1 ) ,fits( x i ) ∑ i =1 popsize, 取适应度值大的新个体填补到 p k +1 中, 以保持种群规模不变。 0. 099 ( f - f avg ) 0. 1 - , f ≥ f avg f max - f min ( 7 ) 以变异概率 p m = 对步骤( 6 ) 产生的新个体进行{0. 1 ,f < f avg[45 ] 高斯变异操作 , 至此产生种群 p k +1 。 ( 8 ) 用退温函数 t k +1 = vt k 进行 SA 退温。( 9 ) 若已达到进化最大代数 maxgen, 则终止算法并输出结果; 否则令 k = k + 1 , 转步 骤( 4 ) 。3基于 RS 和 SVM 标准农田地力等级评价方法首先分析标准农田地力影响因素 , 选取评价指标, 确定评价单元和调查采样点, 进行采 样点调查、 土壤样品采集和分析测试, 制定评价指标作用分值标准, 利用地力调查样本数据 和指数和法评价结果, 构建 RS 决策表, 应用 RS 属性约简方法进行属性约简, 剔除冗余的评 , SVM , RSSVM 价指标 然后将约简后的指标作为 的输入 用样本训练建立 评价模型, 对评价 单元的地力等级进行评价。具体步骤如下: ( 1 ) 选取标准农田地力等级评价指标 。 ( 2 ) 确定评价单元和调查采样点, 采样点调查, 土壤样品采集和分析测试。 ( 3 ) 制定评价指标作用分值标准。 ( 4 ) 应用评价指标作用分值标准, 对地力调查样本原始数据进行离散化 , 利用离散化和 指数和法评价结果, 构建 RS 决策表。 ( 5 ) 运用 Rosetta 数据分析软件穷尽算法对 RS 决策表进行属性约简, 剔除冗余的评价 指标。 ( 6 ) 利用约简后的评价指标数据和指数和法评价结果 , 构造 SVM 样本集, 并将它分成 训练样本集和测试样本集两部分 。 ( 7 ) 运用 GASA 优化 SVM 参数算法用训练样本集对 SVM 进行训练, SVM 评价 建立 RS模型, 并用测试样本集测试其性能。 ( 8 ) 利用 RSSVM 评价模型对待评价单元的地力等级进行评价 。44. 1应用实例研究区概况 27°58'~ 28°09'N ) 地处温州市中部, 鹿城区( 120°42'~ 120°47'E , 瓯江下游内陆南岸, 东 1 接龙湾区、 乐清市, 南临瓯海区, 西连丽水市青田县, 北隔瓯江与永嘉县相望, 辖 16 个街道、 个镇, 是温州市的政治、 经济和文化中心。 全区东西长 41. 43 km, 南北宽 20. 65 km, 呈东 2 南―西北向狭长带状, 土地总面积 294. 38 km 。 地势由西北向东南倾 斜, 海拔介于 2 ~858 m, 地貌类型主要为低山丘陵、 平原滩涂、 岛屿等。 属亚热带海洋季风气候, 日照充足, 气温温和适中, 雨量充沛, 年均日照数 1 850 h, 年均气温 18 ℃ , 最冷月 ( 1 月 ) 平均气温 7. 6 ℃ , 最热月( 7 月) 平均气温 27 ℃ , 极端最高温 41. 3 ℃ , 极端最低温 - 4. 5 ℃ , 年无霜期 2146自然资源学报26 卷280 d, 年均降水量 1 150 mm, 年均蒸发量 894 mm。全区有红壤、 粗骨土、 潮土和水稻土 4 个 , 、 、 、 、 。 2008 土类 主 要 农 作 物 为 水 稻 小 麦 番 薯 柑 橘 甘 蔗 等 截 止 年 底, 全区耕地面积4 2 2 937. 33 hm2 , 占土地总面积的 9. 98% , 总人口 69. 98 × 10 人, 人均耕地 0. 004 2 hm , 地区 8 8 生产总值 ( GDP ) 286. 93 × 10 元, 财政总收入 31. 96 × 10 元, 城镇居民人均可支配收入26 703 元, 农民人均纯收入 11 296 元。 4. 2 标准农田等级评价因子的确定 根据标准农田立地条件、 土壤剖面性态、 理化性状等特点, 综合分析影响标准农田地力 因素, 选取地貌类型 c1 、 坡度 c2 、 冬季地下水位 c3 、 地表砾石度 c4 、 剖面构型 c5 、 耕层厚度 c6 、 pH 值 c9 、 耕层质地 c7 、 容重 c8 、 阳离子交换量 c10 、 水溶性盐总量 c11 、 有机质 c12 、 有效磷 c13 、 速 构建标准农田等级评价指标体系 。 效钾 c14 和排涝( 或抗旱) 能力 c15 十五项指标, 4. 3 评价单元的确定 将标准农田地力调查土壤采样点作为评价单元 , 按照《浙江省标准农田地力调查与分 2 ( 以下简称 《规范》 ) 的要求, 等定级技术规范》 对鹿城区 246. 78 hm 标准农田进行地力调查 取土样共 20 个, 其中多年种植农田 18 个, 溪滩地 2 个。 取样, 4. 4 指数和法评价结果数据 温州市农业局 2008 年利用鹿城区标准农田地力调查土样数据 , 根据《规范 》 确定的各 评价指标生产能力分值( 表 1 ) 和采用专家经验法确定的各指标权重 ( 表 2 ) , 应用指数和法 计算各土样的综合地力指数( 公式为 IFI =∑ ( F i × w i ) ,式中: IFI 为标准农田综合地力指Fi 、 w i 分别为第 i 个评价指标的生产能力评分值和权重 ) , 数, 依据《规范 》 确定的标准农田 评定了鹿城区标准农田地力调查各土样的地力等级 ( 表 4 ) 。 由 地力等级划分标准( 表 3 ) ,2 2 2 表 4 可知, 鹿城区 246. 78 hm 标准农田中 2 级田 85. 46 hm , 占 34. 63% ; 3 级田119. 66 hm , 2 2 占 48. 49% ; 4 级田 25. 33 hm , 占 10. 26% ; 5 级田 16. 33 hm , 占 6. 62% 。4. 5 4. 5. 1粗糙集属性约简数据离散化及 RS 决策表构建 应用评价指标作用分值标准( 表 1 ) , 对各土样原始数据( 表 4 ) 进行离散化, 利用离散化 构建 RS 决策表( 表 5 ) 。 与指数和法评价结果, RS 决策表属性约简 运用由波兰华沙大学和挪威科技大学的科技人员合作开发的 Rosetta 数据分析软件穷 尽算法对 RS 决策表进行属性约简, 剔除冗余指标( 水溶性盐总量 c11 ) 后, 得到地貌类型 c1 、 pH 值 坡度 c2 、 冬季地下水位 c3 、 地表砾石度 c4 、 剖面构型 c5 、 耕层厚度 c6 、 耕层质地 c7 、 容重 c8 、 c9 、 阳离子交换量 c10 、 有机质 c12 、 有效磷 c13 、 速效钾 c14 和排涝( 或抗旱) 能力 c15 14 个关键指标。4. 5. 24. 6 4. 6. 1RSSVM 评价模型的建立 RSSVM 评价模型样本集SVM 评价模型样本 利用 RS 属性约简后的评价指标数据与指数和法评价结果 , 构造 RS其余样本作为负类( 类别标 集。将标准农田地力等级为 2 的样本作为正类( 类别标志为 1 ) , SVM 分类机记为 RSSVM2 , SVM3 、 RS志为 - 1 ) , 构成样本集, 由此构建的 RS同理可得 RSSVM4 和 RSSVM5 的样本集。从 20 个土样中选择 10 个样本( 土样号为 1 、 2、 3、 8、 9、 10 、 14 、 16 、 18 、 20 ) 作为 RSSVM 训练样本( 选择训练样本时各种等级类型应都有, 比较特殊的也应 5、 6、 7、 11 、 12 、 13 、 15 、 17 、 19 ) 作为测试样本, 包括在内) , 其余 10 个样本( 土样号为 4 、 用于测 SVM 模型的性能。 试 RS- 12 期赖红松等: 基于粗糙集和支持向量机的标准农田地力等级评价 表1Table 12147浙江省标准农田地力等级评价指标生产能力分值水网平原 1. 0 <3 1. 0 < 20 0. 1 ≤10 1. 0 AApWC A[ B]C 1. 0 ≤8. 0 0. 3 粘壤土 1. 0 滨海平原 0. 8 3 ~6 0. 8 20 ~ 50 0. 4 10 ~ 25 0. 5 AApPC AApGwG 0. 8 8. 0 ~ 12 0. 6 壤土 0. 9 1. 1 ~ 1. 3 , ≤0. 9 0. 8 5. 5 ~ 6. 5 0. 8 5 ~ 10 0. 4 1 ~2 0. 8 30 ~ 40 0. 9 20 ~ 30 0. 9 100 ~ 150 0. 9 河谷平原 0. 7 6 ~ 10 0. 7 50 ~ 80 0. 7 > 25 0. 2 A[ B]CC 0. 5 12 ~ 16 0. 8 粘土 0. 7 > 1. 3 0. 5 7. 5 ~ 8. 5 0. 7 10 ~ 15 0. 6 2 ~3 0. 5 20 ~ 30 0. 8 > 40 , 15 ~ 20 0. 8 80 ~ 100 0. 7 4. 5 ~ 5. 5 0. 4 15 ~ 20 0. 9 3 ~4 0. 3 10 ~ 20 0. 5 10 ~ 15 0. 7 50 ~ 80 0. 5 > 8. 5 ≤4. 5 0. 2 > 20 1. 0 4 ~5 0. 2 ≤10 0. 3 5 ~ 10 0. 5 ≤50 0. 3 ≤5 0. 2 >5 0. 1 AApC AApG 0. 3 16 ~ 20 0. 9 砂土 0. 5 AC 0. 1 > 20 1. 0 低丘 0. 5 10 ~ 15 0. 4 80 ~ 100 1. 0 高丘 0. 3 15 ~ 25 0. 1 > 100 0. 8Productivity value of productivity evaluation factors of standard cultivated land in Zhejiang Province地貌类型 c1 分值 坡度 c2 / ( ° ) 分值 冬季地下水位 c3 / cm 分值 地表砾石度 c4 / % 分值 剖面构型 c5 分值 耕层厚度 c6 / cm 分值 耕层质地 c7 分值 容重 c8 / ( g / cm ) 分值 pH 值 c9 分值 阳离子交换量 c10 / ( cmol / kg) 分值 水溶性盐总量 c11 / ( g / kg) 分值 有机质 c12 / ( g / kg) 分值 有效磷 c13 / ( mg / kg) 分值 速效钾 c14 / ( mg / kg) 分值 排涝( 或抗旱) 能力 c15 分值30. 9 ~ 1. 1 1. 0 6. 5 ~ 7. 5 1. 0 ≤5 0. 1 ≤1 1. 0 > 40 1. 0 30 ~ 40 1. 0 > 150 1. 0一日暴雨一日排出 一日暴雨二日排出 一日暴雨三日排出 > 70 d 50 ~ 70 d 30 ~ 50 d < 30 d 1. 0 0. 8 0. 6 0. 4 0. 2表2浙江省标准农田地力等级评价指标权重Table 2 Weight value of productivity evaluation factors of standard cultivated land in Zhejiang Province 评价指标 地貌类型 c1 坡度 c2 冬季地下水 位 c3 权重 0. 17 0. 05 0. 05 评价指标 地表砾石度 c4 剖面构型 c5 耕层厚度 c6 权重 0. 06 0. 03 0. 07 评价指标 耕层质地 c7 容重 c8 pH 值 c9 权重 0. 08 0. 04 0. 06 评价指标 阳离子交换 量 c10 水溶性盐总 量 c11 有机质 c12 权重 0. 08 0. 04 0. 07 评价指标 有效磷 c13 速效钾 c14 排涝 ( 或抗 旱) 能力 c15 权重 0. 04 0. 06 0. 10 2148 表3Table 3 等级 一等田自然资源学报26 卷浙江省标准农田地力等级划分标准地力综合指数 1 级田 2 级田 ≥0. 90 0. 80 ~ 0. 90 0. 70 ~ 0. 80 0. 60 ~ 0. 70 0. 50 ~ 0. 60 < 0. 50Determining standard of productivity grade of standard cultivated land in Zhejiang Province二等田3 级田 4 级田三等田5 级田 6 级田表4Table 4温州市鹿城区标准农田地力等级评价指标分值及指数和法评价结果its evaluation results of integrated productivity factors methodIndex value of productivity evaluation of standard cultivated land of Lucheng district of Wenzhou city and 地力 代表面 等级 积 / hm2土样号 标准农田名称 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 岙底底坦畈 岙底呈岸畈 上戍西湾畈 上戍西湾畈 临江前盈畈 临江仁地畈 临江金岙畈 双潮小旦底段畈 双潮小旦畈 藤桥后畈 藤桥后畈 藤桥岸田 藤桥南岸畈 藤桥北岸畈 藤桥底畈 藤桥下庄畈 藤桥油岙畈 藤桥潮济畈 藤桥埭马畈 藤桥山根畈c1c2c3c4c5c6c7c8c9c10c11c12c13c14c150. 3 0. 1 0. 4 0. 5 0. 1 0. 8 0. 5 0. 8 0. 4 0. 6 1. 0 1. 0 0. 8 0. 5 1. 0 5 级 10. 93 0. 5 0. 8 0. 4 0. 5 0. 1 0. 8 0. 5 0. 8 0. 2 0. 4 1. 0 0. 9 0. 8 0. 5 0. 2 5 级 5. 401. 0 0. 8 0. 4 1. 0 0. 8 0. 9 0. 9 1. 0 0. 4 0. 6 1. 0 0. 9 0. 9 0. 7 0. 2 3 级 10. 20 1. 0 0. 8 0. 4 1. 0 0. 8 0. 9 0. 9 1. 0 0. 4 0. 4 1. 0 1. 0 0. 8 0. 9 0. 2 3 级 13. 53 0. 7 0. 8 0. 4 1. 0 0. 8 0. 9 0. 9 0. 8 0. 4 0. 6 1. 0 0. 9 1. 0 0. 7 0. 4 3 级 5. 670. 7 0. 8 0. 4 1. 0 0. 8 0. 9 0. 9 0. 8 0. 4 0. 4 1. 0 0. 8 1. 0 0. 9 0. 2 3 级 14. 20 1. 0 0. 8 0. 4 1. 0 0. 8 0. 9 0. 9 0. 8 0. 4 0. 1 1. 0 0. 8 0. 8 0. 9 0. 2 3 级 21. 73 0. 7 0. 8 0. 4 1. 0 0. 1 0. 9 0. 5 1. 0 0. 4 0. 1 1. 0 0. 9 0. 5 0. 9 0. 2 4 级 25. 33 1. 0 0. 8 1. 0 0. 5 0. 1 0. 9 0. 5 1. 0 0. 4 0. 6 1. 0 0. 9 0. 8 0. 9 0. 2 3 级 0. 801. 0 0. 8 0. 4 1. 0 0. 8 0. 9 0. 9 1. 0 0. 4 0. 4 1. 0 1. 0 0. 7 0. 9 0. 4 3 级 23. 53 1. 0 0. 8 0. 4 1. 0 0. 8 0. 9 0. 9 1. 0 0. 8 0. 4 1. 0 1. 0 0. 7 0. 9 0. 4 2 级 12. 67 1. 0 0. 8 0. 4 0. 2 0. 8 0. 9 0. 9 1. 0 0. 4 0. 6 1. 0 0. 9 0. 5 0. 9 1. 0 3 级 1. 0 0. 8 0. 4 1. 0 0. 8 0. 9 0. 9 1. 0 0. 4 0. 6 1. 0 1. 0 0. 9 0. 9 0. 6 2 级 1. 0 0. 8 0. 4 1. 0 0. 8 0. 9 0. 9 1. 0 0. 8 0. 6 1. 0 0. 9 0. 7 0. 9 0. 6 2 级 8. 47 4. 47 3. 531. 0 0. 8 0. 4 1. 0 0. 8 0. 8 0. 9 1. 0 0. 4 0. 6 1. 0 0. 9 0. 8 0. 9 0. 6 2 级 16. 33 1. 0 0. 8 0. 4 1. 0 0. 8 0. 8 0. 9 1. 0 0. 4 0. 6 1. 0 1. 0 0. 9 1. 0 0. 6 2 级 6. 271. 0 0. 8 0. 4 1. 0 0. 8 0. 9 0. 9 0. 8 0. 4 0. 6 1. 0 1. 0 0. 8 0. 9 0. 6 2 级 11. 53 0. 5 0. 8 0. 4 0. 5 0. 5 0. 6 0. 9 1. 0 0. 8 0. 9 1. 0 0. 5 0. 9 1. 0 1. 0 3 级 21. 53 1. 0 0. 8 0. 4 1. 0 1. 0 0. 8 0. 5 0. 8 0. 8 0. 6 1. 0 0. 9 0. 9 1. 0 0. 6 2 级 7. 131. 0 0. 8 0. 4 1. 0 0. 8 0. 9 0. 9 0. 5 0. 4 0. 6 1. 0 1. 0 1. 0 0. 9 0. 6 2 级 23. 53SVM 评价模型 建立 RS用 Visual C + + 6. 0 编程实现 GASA 优化 SVM 参数算法。算法参数 C 、 σ 和 r 的取值范 [ 1 , 1 000 ] 、 [ 0. 1 , 10 ] [ 0 , 1. 0 ] , popsize = 200 , srate = 0. 9 , t0 = 围分别为 和 其他参数选取为 10 000 , v = 0. 85 , maxgen = 80 。运用 GASA 优化 SVM 参数算法用 RSSVM 训练样本对 SVM SVM2 、 RSSVM3 、 RSSVM4 和 RSSVM5 评价模型, 进行训练, 得到 RS其优化参数 C 、 σ和r 4. 6. 2 的优化值和训练误差 MSE 如表 6 。 12 期赖红松等: 基于粗糙集和支持向量机的标准农田地力等级评价 表5Table 52149RS 决策表Decision table of RS c6 1 1 2 2 2 2 2 2 2 2 2 2 2 2 1 1 2 0 1 2 c7 0 0 1 1 1 1 1 0 0 1 1 1 1 1 1 1 1 1 0 1 c8 1 1 2 2 1 1 1 2 2 2 2 2 2 2 2 2 1 2 1 0 c9 1 0 1 1 1 1 1 1 1 1 2 1 1 2 1 1 1 2 2 1 c10 2 1 2 1 2 1 0 0 2 1 1 2 2 2 2 2 2 3 2 2 c11 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 c12 3 2 2 3 2 1 1 2 2 3 3 2 3 2 2 3 3 0 2 3 c13 2 2 3 2 4 4 2 0 2 1 1 0 3 1 2 3 2 3 3 4 c14 0 0 1 2 1 2 2 2 2 2 2 2 2 2 2 3 2 3 3 2 c15 3 0 0 0 1 0 0 0 0 1 1 3 2 2 2 2 2 3 2 2 d 5 5 3 3 3 3 3 4 3 3 2 3 2 2 2 2 2 3 2 2土样号 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20标准农田名称 岙底底坦畈 岙底呈岸畈 上戍西湾畈 上戍西湾畈 临江前盈畈 临江仁地畈 临江金岙畈 双潮小旦底段畈 双潮小旦畈 藤桥后畈 藤桥后畈 藤桥岸田 藤桥南岸畈 藤桥北岸畈 藤桥底畈 藤桥下庄畈 藤桥油岙畈 藤桥潮济畈 藤桥埭马畈 藤桥山根畈c1 0 1 3 3 2 2 3 2 3 3 3 3 3 3 3 3 3 1 3 3c2 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1c3 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0c4 1 1 2 2 2 2 2 2 1 2 2 0 2 2 2 2 2 1 2 2c5 0 0 2 2 2 2 2 0 0 2 2 2 2 2 2 2 2 1 3 2表6Table 6 参数 SVM2 C σ r MSE 430. 442 7 5. 702 7 0. 000 1 9. 725 8 × 10 - 9 SVM 模型 SVM3 445. 528 4 7. 626 9 0. 000 7 5. 938 1 × 10 - 9SVM 模型和 RSSVM 模型参数优化值RSSVM 模型 SVM5 398. 126 5 6. 311 5 0. 000 0 1. 122 2 × 10 - 8 RSSVM2 439. 967 2 7. 277 8 0. 000 1 6. 337 2 × 10 - 9 RSSVM3 439. 022 7 6. 480 5 0. 000 1 7. 273 5 × 10 - 9 RSSVM4 204. 059 7 4. 896 2 0. 000 0 1. 063 4 × 10 - 8 RSSVM5 476. 534 8 7. 921 7 0. 000 0 1. 088 1 × 10 - 8Optimizing value of SVM model parameters and RSSVM model parametersSVM4 292. 166 6 5. 538 4 0. 000 0 1. 660 1 × 10 - 84. 7RSSVM 评价结果及与单一 SVM 和 BP 神经网络评价结果的比较SVM2 、 RSSVM3 、 RSSVM4 和 RSSVM5 评价模型对 RSSVM 测试 利用已训练好的 RSg ( x ) , g ( x ) RSSVM 7 。 样本进行 值计算 其 计算值和 评价结果见表 SVM 评价模型样本集构造方法, 按 RS利用 RS 约简前 15 个评价指标数据与指数和法 SVM3 、 SVM4 和 SVM5 评价模型样本集。 选用与 RSSVM 评价相同 评价结果, 构造 SVM2 、 土样号样本作为 SVM 训练样本和测试样本。 算法参数 C 、 σ 和 r 的取值范围及 popsize、 srate 、 t0 、 v、 maxgen 参数的取值同 RSSVM 评价模型。运用 GASA 优化 SVM 参数算法用 SVM SVM3 、 SVM4 和 SVM5 评价模型, 训练样本对 SVM 进行训练, 得到 SVM2 、 其优化参数 C 、 σ SVM3 、 SVM4 和 SVM5 评价 和 r 的优化值和训练误差 MSE 如表 6 。利用已训练好的 SVM2 、 模型对 SVM 测试样本进行 g( x) 值计算, 其 g( x) 计算值和 SVM 评价结果见表 7 。 2150 表7Table 7 指数和法 土样号 等级 4 5 6 7 11 12 13 15 17 19 3级 3级 3级 3级 2级 3级 2级 2级 2级 2级 SVM2 - 1. 108自然资源学报26 卷SVM 法和 RSSVM 法评价结果比较Comparison of Evaluation results of SVM method and RSSVM method SVM 法 SVM3 1. 186 SVM4 - 0. 963 - 0. 907 - 0. 839 - 0. 788 - 0. 938 - 0. 792 - 1. 024 - 1. 011 - 1. 031 - 0. 843 SVM5 - 0. 981 - 0. 754 - 0. 700 - 0. 663 - 0. 947 - 0. 551 - 1. 026 - 0. 967 - 1. 005 - 0. 789 等级 3级 3级 3级 3级 2级 3级 2级 2级 2级 2级 RSSVM 法 RSSVM2 RSSVM3 RSSVM4 RSSVM5 - 1. 110 1. 095 - 0. 966 - 0. 916 - 0. 848 - 0. 796 - 0. 946 - 0. 775 - 1. 025 - 1. 015 - 1. 038 - 0. 842 - 0. 931 - 0. 720 - 0. 648 - 0. 612 - 0. 865 - 0. 541 - 1. 020 - 0. 990 - 1. 002 - 0. 656 等级 3级 3级 3级 3级 2级 3级 2级 2级 2级 2级- 0. 303 - 0. 122 - 0. 510 - 0. 632 0. 114 0. 232- 0. 292 - 0. 078 - 0. 515 - 0. 652 0. 058 0. 1410. 075 - 0. 173 - 0. 413 - 0. 066 0. 746 - 0. 721 0. 581 - 0. 618 0. 653 - 0. 712 - 0. 018 - 0. 6780. 099 - 0. 206 - 0. 393 - 0. 206 0. 753 - 0. 710 0. 562 - 0. 619 0. 654 - 0. 676 0. 097 - 0. 437利用 RS 约简前 15 个评价指标数据与指数和法评价结果, 以土样指标分值作为 BP 神 经网络的输入, 以其对应的等级作为 BP 神经网络的输出, 即土样等级, 若为 2 级, 则输出为 ( 1, 0, 0, 0 ) ; 若为 3 级, 1, 0, 0 ) ; 若为 4 级, 0, 1, 0 ) ; 若为 5 级, 则输出为( 0 , 则输出为( 0 , 则输 ( 0 , 0 , 0 , 1 ) , BP 。 RSSVM 出为 构造 神经网络评价模型样本集 选用与 评价相同土样号样本 作为 BP 神经网络的训练样本和测试样本。 利用训练样本, 选择计算结点的激活函数均为 sigmoid 函数, 5-4 , 隐层结点数为 5 , 即网络结构为 15最大训练次数为 7 000 000 ,动量系数[9 ] α 为 0. 95 ,学习率 η 为 0. 4 的改进的 3 层 BP 神经网络 建立 BP 神经网络评价模型。 BP 神经网络训练后误差 MSE 为 0. 000 362 216 3 。 以测试样本指标分值作为训练后网络的输入, 进行其地力等级评价, 结果见表 8 。表8Table 8 指数和法 土样号 等级 4 5 6 7 11 12 13 15 17 19 3级 3级 3级 3级 2级 3级 2级 2级 2级 2级 0. 000 0. 001 0. 000 0. 000 0. 302 0. 000 0. 994 0. 985 1. 000 1. 000 1. 000 0. 985 1. 000 1. 000 0. 730 1. 000 0. 005 0. 013 0. 000 0. 000BP 神经网络法评价结果Evaluation results of BP networks method BP 网络法 输出值 0. 000 0. 000 0. 000 0. 001 0. 001 0. 000 0. 000 0. 000 0. 000 0. 000 0. 000 0. 001 0. 000 0. 000 0. 000 0. 000 0. 000 0. 000 0. 000 0. 000 等级 3级 3级 3级 3级 3级 3级 2级 2级 2级 2级SVM 法、 RSSVM 法与指数和法的评价结果完全相同, SVM 法和 RS从表 7 可看出, SVM 法的评价正确率均为 100% , SVM 评价精度并没有降低, 表明通过 RS 属性约简后, 但 可以减少使用的评价指标, 降低 SVM 计算复杂度, 提高训练速度, 减少训练时间; SVM 用于 BP 神经网络法与指 标准农田地力等级评价是可行有效的 , 且评价精度高。 从表 8 可看出, 12 期赖红松等: 基于粗糙集和支持向量机的标准农田地力等级评价2151BP 神经网络法评价 数和法的评价结果基本一致, 惟有 1 个( 11 号) 土样的评价结果不相同, 90% 。 , BP , SVM 正确率为 由此可见 与 神经网络法相比 法的评价结果更准确可靠, 原因是 SVM 克服了 BP 神经网络易陷入局部极小等缺陷 , 具有比 BP 神经网络更优的性能。 RS 属性约简方法由于能在保持信息系统分类能力 每种方法都有其实用性。综上可知, SVM 法适用于评价指 不变的前提下, 约去不必要的属性, 可用于约简( 筛选) 评价指标。 RS标未筛选的耕地地力评价。SVM 法和 BP 神经网络法均可用于评价指标已筛选的耕地地力 但是 SVM 用于耕地地力评价具有比 BP 神经网络更高的精度。 指数和法步骤复杂, 评价, 工作量大, 且易受专家的知识、 经验等主观因素影响, 可用于少量评价单元的耕地地力评价 , 其评价结果是构建 RS 决策表, 应用 RS 属性约简方法对评价指标进行约简 ( 筛选 ) 的依据, 也是 SVM 法或 BP 神经网络法的训练样本的来源。5结论针对 SVM 参数的选择问题, 利用 GA 的并行搜索结构和 SA 的概率突跳特性, 提出了 GASA 优化 SVM 参数算法, 实现了 SVM 参数的自动优化选择, 避免了人为选择 SVM 参数的 盲目性。基于小样本的统计学习理论的 SVM 有效克服了人工神经网络过学习 、 局部极小等 缺陷, 具有很强的泛化能力, 将 SVM 用于标准农田地力等级评价, 选用少量典型样本训练建 立 SVM 评价模型后, 可简便、 快捷地给出大规模待定评价单元的地力等级。 将 RS 理论和 SVM 相结合, RS 提出了基于 和 SVM 的标准农田地力等级评价方法。 实例研究结果表明, SVM 评价精度并没有降低, 通过 RS 约简评价指标后, 但减少了使用的评价指标, 降低了 SVM 输入向量维数和计算复杂度, 减少了训练时间; SVM 用于标准农田地力等级评价, 具有 比 BP 神经网络更高的精度。 参考文献( References) :[ 1] 王瑞燕, 80. [WANG Ruiyan, 赵庚星,李涛. 山东省青州市耕地地力等级评价研究[J]. 土壤,2004 ,36 ( 1 ) : 76ZHAO Gengxing,LI Tao. Grading and assessment of soil productivity of cultivated land in Qingzhou. Soil, 2004 , 36 ( 1 ) : 76-80. ] [ 2] 鲁明星,贺立源,吴礼树,等. 基于 GIS 的华中丘陵区耕地地力评价研究[J]. 农业工程学报,2006 ,22 ( 8 ) : 96101. [ LU Mingxing, HE Liyuan, WU Lishu, et al. Evaluation of the farmland productivity of hilly region of central China based on GIS. Transactions of the CSAE, 2006 , 22 ( 8 ) : 96-101. ] [ 3] 袁秀杰,赵庚星,朱雪欣. 平原和丘陵区耕地地力评价及其指标体系衔接研究[J]. 农业工程学报, 2008 , 24 ( 7 ) : 65-71. [ YUAN Xiujie,ZHAO Gengxing,ZHU Xuexin. Linkage of evaluation index system for cultivated land productivity evaluation in plain and hill regions. Transactions of the CSAE, 2008 , 24 ( 7 ) : 65-71. ] [ 4] 方灿华,马友华,钱国平,等. 基于 GIS 的明光市耕地地力评价[J]. 中国农学通报,2008 ,24 ( 12 ) : 308-312. [FANG Canhua, MA Youhua, QIAN Guoping, et al. Evaluation of the farmland productivity of Mingguang city based on 2008 , 24 ( 12 ) : 308-312. ] GIS. Chinese Agricultural Science Bulletin, [ 5] 李贤胜,叶军华,杨平,等. 基于 GIS 的广德县耕地地力定量评价[J] . 土壤,2009 ,41 ( 3 ) : 490-494. [LI Xianhua,YANG Ping,et al. Quantitative assessment of cultivatedland capacity in Guangde county based on sheng,YE JunGIS. Soil, 2009 , 41 ( 3 ) : 490-494. ] 6] 刘永文,樊燕,刘洪斌. 丘陵山地耕地地力评价研究[J] . 中国农学通报,2009 ,25 ( 18 ) : 420-425. [LIU Yong[ wen,FAN Yan,LIU Hongbin. Evaluation of cultivated land productivity in hilly area. Chinese Agricultural Science Bulletin, 2009 , 25 ( 18 ) : 420-425. ] [ 7] Dung E J, Sugurnaran R. Development of an agricultural land evaluation and site assessment ( LESA) decision support tool uJ] . Journal of Soil and Water Conservation, 2005 , 60 ( 5 ) : 228-235. sing remote sensing and geographic information system [ 2152自然资源学报26 卷[ 8] 王瑞燕,赵庚星,陈丽丽. 基于 ANN. 农业工程学报,2008 ,24 ( 1 ) : 产量的耕地地力定量评价模型及其应用[J] 113-118. [WANG Ruiyan,ZHAO Gengxing,CHEN Lili. Evaluation model of cultivated land productivity using artifi2008 , 24 ( 1 ) : 113-118. ] cial neural network and productivity and its application. Transactions of the CSAE, [ 9] 阎平凡,张长水. 人工神经网络与模拟进化计算[M] . 北京: 清华大学出版社,2000. [YAN Pingfan,ZHANG Changshui. Artificial Neural Networks and Simulated Evolutionary Computation. Beijing: Tsinghua University Press, 2000. ] [ 10] 王凌. 智能优化算法及其应用[M] . 北京: 清华大学出版社,2001. [WANG Ling. Intelligent Optimization Algorithms with Application. Beijing: Tsinghua University Press, 2001. ] [ 11] 邓乃扬,田英杰. 数据挖掘中的新方法 ― ― ―支持向量机[M]. 北京: 科学出版社,2004. [DENG Naiyang,TIAN Yingjie. A New Method for Data Mining ―Support Vector Machine. Beijing: China Science Press, 2004. ] 12] Nello Cristianini,John ShaweTaylor. 支持向量机导论[ M] . 北京: 机械工业出版社, 2005. [Nello Cristianini,John [ ShaweTaylor. An Introduction to Support Vector Machines and Other KernelBased Learning Methods. Beijing: China Machine Press, 2005. ] [ 13] 曹丽娟,王小明. 金融工程的支持向量机方法[M]. 上海: 上海财经大学出版社,2007. [CAO Lijuan,WANG Xiaoming. Support Vector Machine Based Methods for Financial and Engineering Problems. Shanghai: Shanghai University of Finance and Economics Press, 2007. ] [ 14] 梁吉业, J] . 系统工程理论与实践, 2001 ( 12 ) : 76-80. [LIANG Jiye,QU 曲开社, 徐宗本. 信息系统的属性约简[ ben. Reduction of attribute in information systems. Systems Engineering Theory & Practice, Kaishe,XU Zong2001 ( 12 ) : 76-80. ] [ 15] 安利平. 基于粗糙集理论的多属性决策分析[M]. 北京: 科学出版社, 2008. [ AN Liping. Rough Set Approach to Multiattribute Decision Analysis. Beijing: China Science Press, 2008. ] [ 16] Goldberg D E. Genetic Algorithms in Search,Optimization and Machine Learning [ M] . Reading M A: AddisonWesley, 1989. [ 17] Kirkpatrick S,Gelatt C D,Vecchi M P. Optimization by simulated annealing [J] . Science,1983 ,220 ( 4598 ) : 671680. [ 18] Skowron A, Rauszer C. The discernibility matrices and functions in information system [C] ∥Slowinski R. Intelligent Decision Support,Handbook of Applications and Advances of the Rough Sets Theory. Dordrecht: KIuwer Academic Publishers, 1992 : 331-362. [ 19] Nguyen S H,Nguyen H S. Some efficient algorithms for rough set methods [C]∥ Proceedings of the Fifth International Conference on Information Processing and Management of Uncertainty in Knowledgebased Systems ( IPMU ’ 96 ) . Granada,Spain, 1996 : . [ 20] Hu Xiaohua. Knowledge Discovery in Databases: An Attributeoriented Rough Set Approach [ D] . University of Regina, Canada, 1995. [ 21] 苗夺谦,胡桂荣. 知识约简的一种启发式算法[J] . 计算机研究与发展,1999 ,36 ( 6 ) : 681-684. [ MIAO Duorong. A heuristic algorithm for reduction of knowledge. Journal of Computer Research & Development, qian,HU Gui1999 , 36 ( 6 ) : 681-684. ] [ 22] Wroblewski J. Finding minimal reducts using genetic algorithms [ C] ∥Wang P P. Proceedings of the Second Annual Joint Conference on Information Sciences. Wrightsville,Beach,North Carolina, 1995 : 186-189. [ 23] Vinterbo S,?hrn A. Minimal approximate hitting sets and rule templates [J]. International Journal of Approximate Reasoning, 2000 , 25 ( 2 ) : 123-143. [ 24] Kryszkiewicz M,Rybinski H. Finding reducts in composed information systems [C]∥ Ziarko W P. Proceedings of the Second International Workshop on Rough Sets and Knowledge Discovery ( RSKD ’ 93 ) . Banff,Alberta,Canada,1993 : 261-273. [ 25] Starzyk J,Nelson D E,Sturtz K. Reduct generation in information system [ J] . Bulletin of International Rough Set Society, 1999 , 3 ( 1 ) : 19-22. [ 26] Bazan G J,Skowron A,Synak P. Dynamic reducts as a tool for extracting laws from decision tables[C]∥ Polkowski L, Skowron A. International Symposium on Methodologies for Intelligent Systems. Charlotte,NC: SpringerVerlag,1994 : 12 期346-355.赖红松等: 基于粗糙集和支持向量机的标准农田地力等级评价2153[ 27] Hashemi R R,Jelovsek F R,Razzaghi M. Developmental toxicity risk assessment: A rough sets approach [ J] . Methods of Information in Medicine, 1993 , 32 ( 1 ) : 47-54. [ 28] 张文修,魏玲,祁建军. 概念格的属性约简理论与方法[ J] . 中国科学 E 缉: 信息科学,2005 ,35 ( 6 ) : 628-639. [ZHANG Wenxiu,WEI Ling,QI Jianjun. The attribute reduction theory and method of concept lattice. Science in China Ser. E Information Sciences, 2005 , 35 ( 6 ) : 628-639. ] [ 29] 范昕炜,杜树新,吴铁军. 可补偿类别差异的加权支持向量机算法[J]. 中国图象图形学报,2003 ,8 ( 9 ) : 1037wei, DU Shuxin, WU Tiejun. Weighted support vector machine based classification algorithm for une1042. [FAN Xinven class size problems. Journal of Image and Graphics, 2003 , 8 ( 9 ) : . ] [ 30] Kre?el U H G. Pairwise classification and support vector machines [C]∥ Sch?lkopf B,Burges C J C,Smola A J. Advances in Kernel Methods: Support Vector Learning. Cambridge,Massachusetts: MIT Press, 1999 : 255-268. [ 31] Bottou L,Cortes C,Dcnkcr J,et al. A comparison of classifier methods: A case study in handwritten digit recognition [C] 1994 : 77-87. ∥Proceedings of the 12th International Conference on Pattern Recognition. Jerusalem, [ 32] Takahashi F,Abe S. Decisiontreebased multiclass support vector machines [C] ∥Proceedings of the Ninth Internation2002 , . al Conference on Neural Information Processing. Singapore, [ 33] Platt J C,Cristianini N,ShaweTaylor J. Large margin DAG’ s for multiclass classification [ C] ∥Advances in neural information processing systems. Cambridge,Massachusetts: MIT Press, 2000 : 547-553. [ 34] Dietterich T G,Bakiri G. Solving multiclass learning problems via errorcorrecting output codes [ J]. Journal of Artificial 1995 ( 2 ) : 263-286. Intelligence Research, [ 35] Sebald D J,Buchlew J A. Support vector machines and the multiple hypothesis test problem [ J]. IEEE Transactions on Signal Processing, 2001 , 49 ( 11 ) : . [ 36] 王睿. 关于支持向量机参数选择方法分析[J]. 重庆师范大学学报: 自 然 科 学版,2007 ,24 ( 2 ) : 36-38 ,42. [WANG Rui. Method analysis about support vector machine parameter. Journal of Chongqing Normal University: Natural 2007 , 24 ( 2 ) : 36-38 , 42. ] Science Edition, [ 37] 邓乃扬,田英杰. 支持向量机― ― ―理论、 yang,TIAN 算法与拓展[M]. 北京: 科 学出 版 社,2009. [DENG NaiYingjie. Support Vector Machine―Theory,Algorithms and Extension. Beijing: Science Press, 2009. ] [ 38] 苏高利,邓芳萍. 关于支持向量回归机的模型选择[J] . 科技通报,2006 ,22 ( 2 ) : 154-158. [SU Gaoli,DENG Fangping. Introduction to model selection of SVM regression. Bulletin of Science and Technology,2006 ,22 ( 2 ) : 154158. ] [ 39] Chapelle O,Vapnik V,Bousquet O,et al. Choosing multiple parameters for support vector machines [J] . Machine Learning, 2002 , 46 ( 1 /3 ) : 131-159. [ 40] Hsu C W,Chang C C,Lin C J. A practical guide to support vector classification [ R]. Department of Computer Science and information Engineering,National Taiwan University, 2003. [ 41] Zheng Chunhong,Jiao Licheng. Automatic parameters selection for SVM based on GA [C]∥ Proceedings of the 5th 2004 : . World Congress on Intelligent Control and Automation. Hangzhou,China, [ 42] 刘胜,李妍妍. 自适应 GASVM 参数选择算法研究[J]. 哈尔滨工程大学报,2007 ,28 ( 4 ) : 398-402. [LIU Sheng,LI Yanyan. Parameter selection algorithm for support vector machines based on adaptive genetic algorithm. Journal of Harbin Engineering University, 2007 , 28 ( 4 ) : 398-402. ] 43] Lee T F,Cho M Y,Shieh C S,et al. Particle swarm optimizationbased SVM for Incipient Fault Classification of Power [ Transformers [ C] Ras Z W, Malerba D, et al. Proceedings of the 16th International Symposium on Method∥Esposito F, ologies for Intelligent Systems, Foundations of Intelligent Systems, Lecture Notes in Computer Science. Berlin Heidelberg: SpringerVerlag, 2006 : 84-90. [ 44] Huang C M,Lee Y J,Lin D K J,et al. Model selection for support vector machines via uniform design [ J]. Computa2007 , 52 ( 1 ) : 335-346. tional Statistics & Data Analysis, [ 45] 林丹,李敏强,寇纪松. 基于实数编码的遗传算法的收敛性研究[J] . 计算机研究与发展,2000 ,37 ( 11 ) : . [ LIN Dan,LI Minqiang,KOU Jisong. On the convergence of realcoded genetic algorithms. Journal Computer Research & Development, 2000 , 37 ( 11 ) : . ] 2154自然资源学报26 卷Productivity Evaluation of Standard Cultivated Land Based on Rough Set and Support Vector MachineLAI Hongsong, WU Cifang( College of Public Administration,Zhejiang University,Hangzhou 310029 ,China)Abstract: Standard Cultivated Land ( SCL) is the gem of all cultivated land,which is the key of ensuring China’ s grain security. Scientific evaluating productivity of SCL has a significant sense for improving soil productivity and improving soil of SCL. Integrated Rough Set ( RS) theory with Support Vector Machine ( SVM) , a productivity evaluation method of SCL based on RS and SVM is proposed. Combining the parallel searching structure of genetic algorithms with the probabilistic jumping property of simulated annealing,a GASAoptimized algorithm is put forward for selecting of SVM parameters. In this new evaluating method,on the basis of determining productivity evaluation indexes of SCL,firstly the decision making table is constructed by using the sample data of productivity surveying of SCL and its evaluation results of traditional integrated productivity factors method,and the redundant indexes are removed through the exhaustive reducer of Rosetta software which was jointly developed by Norwegian University of Science and Technology and Warsaw University,then the reduced indexes are used as the input of SVM,finally,the SVM is trained with the training samples through the GASAoptimized algorithm,and the RSSVM evaluating model of SCL is built. The method is tested on productivity evaluation of SCL of Lucheng District of Wenzhou City,Zhejiang,and its results are compared with that of the SVM without RS reduction method and the BP networks without RS reduction method. The input indexes of the SVM model and the BP networks model are both 15 , With correct evaluating rate being 100% and 90% respectively. The input indexes of the RSSVM model are 14 ,whose correct evaluating rate is 100% . The results indicate that the suggested SVM method is of the same accuracy as the SVM without RS reduction method, but it can reduce the dimensions of SVM input vectors and the computing complexity of SVM, and raise the SVM training efficiency. The results also show that the method which is used SVM can achieve greater evaluating accuracy than the BP networks without RS reduction method. It is concluded that the suggested SVM method is feasible and effective in evaluating productivity of SCL, and this method has explored a new way for evaluating productivity of cultivated land. Key words: productivity evaluation of cultivated land; standard cultivated land; Rough Set; support vector machine; Lucheng District
我要评价 贡献者等级:初试锋芒 二级 格式:doc ...而支持向量机方 法可以很好地解决这个问题,同时对多...[5] 安利平,陈增强,袁著祉.基于粗糙集理论的多...基于粗糙集的人力资源评价的规则挖掘来源:bet365
摘要 应用粗糙集理论和区分矩阵来挖掘各因素规则的方法 对一个人力资源评价的例子进行分析...
All rights reserved Powered by
copyright &copyright 。文档资料库内容来自网络,如有侵犯请联系客服。

我要回帖

更多关于 child development 的文章

 

随机推荐