以下哪一个结构在可表达性中更强(也就是说可以用一个布尔函数表达)?

2020-07-28 11:31发布

 以下哪一个结构在可表达性中更强(也就是说可以用一个布尔函数表达)?A. 一个单层感知器 B. 一个双层决策树?

 以下哪一个结构在可表达性中更强(也就是说可以用一个布尔函数表达)?A. 一个单层感知器 B. 一个双层决策树?

2条回答
ann
2楼 · 2020-08-31 11:02

深度学习(神经网络)[1] —— 单层感知器

  • 算法描述

  • python实现

  • 示例运行结果

  • 可视化


算法描述

最原始的神经网络模型,类似于神经网络中的单个神经元,该算法局限性也很大,只适用于解决线性可分的问题,对于线性不可分的问题和异或问题则无法解决。但作为神经网络的基本单元,学习和理解单层感知器,对后续的学习是很有帮助的。

python实现

# ************************** Perception ******************import numpy as npimport pandas as pdimport matplotlib.pyplot as pltclass CyrusPerception(object):
    def __init__(self,**kargs):
        self.X = None
        self.Y = None
        self.W = None
        self.output = None        if "epoch" in kargs.keys():
            self.epoch = kargs["epoch"]
        else:
            self.epoch = 1000
        if "lr" in kargs.keys():
            self.lr = kargs["lr"]
        else:
            self.lr = 0.1
    def fit(self,X,Y,**kargs):
        self.X = np.hstack((np.ones((np.array(X).shape[0],1)),np.array(X)))
        self.Y = np.array(Y).reshape(-1,1)
        # 1、初始化权值        if "W" in kargs.keys():
            self.W = kargs["W"]
        else:
            self.W = (np.random.random([self.X.shape[1],1])-0.5)*2
        # 2、更新权值        for i in range(self.epoch):
            self.update_w()
            print("*"*20)
            print("epoch:",i+1)
            print("w:",self.W)
            if (self.Y == self.output).all():
                print("*"*20)
                print("Finihed")
                print("epoch",self.epoch)
                break
    def update_w(self):
        self.output = np.sign(self.X.dot(self.W)).reshape(-1,1)
        self.W += self.lr*(self.X.T.dot(self.Y - self.output))/int(self.X.shape[0])if __name__ == "__main__":
    model = CyrusPerception()
    x = [[3,3],[4,3],[1,1],[0,2]]
    y = [1,1,-1,-1]
    model.fit(x,y)
    # 绘图
    k = -model.W[1]/model.W[2]
    b = -model.W[0]/model.W[2]
    x_lineal = np.array([0,5])
    y_lineal = k*x_lineal + b
    plt.figure()
    colors = "rgb"
    [plt.scatter(x[i][0],x[i][1],color = colors[y[i]]) for i in range(len(x))]
    plt.plot(x_lineal,y_lineal,color = "r")
    plt.show()12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455

示例运行结果

********************epoch: 1w: [[-0.31672519]
 [-0.16285498]
 [ 0.19094236]]********************epoch: 2w: [[-0.26672519]
 [ 0.18714502]
 [ 0.39094236]]********************epoch: 3w: [[-0.36672519]
 [ 0.13714502]
 [ 0.24094236]]********************epoch: 4w: [[-0.46672519]
 [ 0.08714502]
 [ 0.09094236]]********************epoch: 5w: [[-0.46672519]
 [ 0.08714502]
 [ 0.09094236]]********************Finihed
epoch 100012345678910111213141516171819202122232425262728

可视化

在这里插入图片描述
by CyrusMay 2020 05 05


给你三个亿
3楼 · 2021-01-19 11:25


全球性的搜索引擎Google,看似简单的搜索框背后隐藏的是极其复杂的系统架构和搜索算法,其中排序(以下统称Ranking)的架构和算法更是关键部分。Google正是通过PageRank算法深刻改变搜索排序而一举击败众多竞争对手。本文将介绍有关搜索引擎排序的相关技术内容。

Ranking是搜索引擎的核心技术,本文以搜索引擎的Ranking技术为切入点,从搜索引擎架构、检索模型、机器学习算法、点击模型、搜索效果评估等方面将达观数据在搜索引擎Ranking的构建与优化过程中的一些实践经验与大家做分享。

  1. 经典搜索排序架构

  2. 通常在线搜索引擎要求实时响应(毫秒级)用户的搜索请求,使得在线对每个文档进行基于模型的Ranking复杂计算不太现实,因而搜索的过程被分成两个阶段。

  3. 第一阶段,是使用相对简单的常用检索模型对用户query从索引中快速检索出Top-k候选结果集。常用检索模型主要有向量空间模型(VectorSpaceModel)、布尔模型(BooleanModel)、概率检索模型BM25等,通常Top-k的候选集选取还结合离线计算质量分高的文档以排除掉文本相关但质量分太低的文档;

  4. 第二阶段,则使用计算相对复杂的机器学习排序模型对Top-k候选结果集进行精确的重排序,因为Top-K的候选结果集数据量级一般不会很大,这一步计算可控。

  5. 图1:一个经典的搜索引擎排序架构

Ranking模型的训练数据主要由query、文档以及query与文档的相关度组成,相关度可以标记成好、不好两个级别或细粒度更高的Perfect、Excellent、Good、Fair、Bad五个级别。

训练数据主要有两种获取方式:方式一是由搜索评测人员标记query与每个文档的相关度进行手工的评测整理;方式二是通过自动分析搜索点击日志生成。显然,对于大规模机器学习排序模型的训练数据人工标注的成本过高,而且人工也无法对模型进行相对实时的更新。我们(www.datagrand.com)主要通过方式二生成训练数据,自动分析搜索点击日志,分析用户在同一个搜索session内对query的各种变换、对搜索结果中不同位置的文档的点击行为以及后继的筛选、翻页等行为,综合计算出一个可以标记训练数据的搜索满意度得分。

我们的搜索实践表明,通过分析搜索点击日志可以实现模型训练数据的自动生成和实时更新,同时也可以达到比较满意的搜索效果。

达观搜索引擎架构


图2达观搜索引擎架构

搜索引擎架构从底往上分别是分布式数据存储层、索引构建与模型训练层、索引数据与模型数据分发层、搜索核心层、开放接口层,同时系统架构还支持搜索引擎的索引配置和Ranking策略配置、以及搜索分析与效果评估。

搜索核心层是由query分析引擎、索引引擎、Ranking引擎构成。其中query分析引擎(QUERYANALYSISENGINE)负责对用户的query进行语义分析和意图识别,包括query分词、中心词提取、query纠错、query自动提示、query扩展等。索引引擎(INDEXENGINE)执行Top-k候选结果选取,这里我们综合考虑了检索模型的搜索相关性评分和文档的静态质量分(离线计算),另外在这一层还根据用户的筛选条件以及业务层面的搜索结果配置进行了搜索结果的筛选和融合。排序引擎(RANKINGENGINE)利用机器学习模型对Top-k的候选集执行第二轮的精确排序。RANKINGENGINE内置一个算法插件框架,可以根据用户配置的搜索排序策略加载相应的排序算法插件以及排序算法模型,同时还支持用户对搜索流量划分到不同的排序算法插件,以实现多个算法策略的同时在线A/Btesting对比。

2.检索模型的选择

常见的检索模型主要有布尔模型(BooleanModel)、向量空间模型(VectorSpaceModel)、概率检索模型BM25与BM25F。

布尔模型

布尔(Boolean)模型是基于集合论和布尔代数的一种简单检索模型。它的特点是查找那些对于某个查询词返回为“真”的文档。在该模型中,一个查询词就是一个布尔表达式,包括关键词以及逻辑运算符。通过布尔表达式,可以表达用户希望文档所具有的特征。由于集合的定义是非常直观的,Boolean模型提供了一个信息检索系统用户容易掌握的框架。查询串通常以语义精确的布尔表达式的方式输入。

布尔模型的主要优点是直观和简单,缺陷在于完全匹配会导致被返回的结果文档太多或者太少。

向量空间模型(VectorSpaceModel,VSM)

VSM概念简单,即把对文本内容的处理简化为向量空间中的向量运算,并且它以空间上的相似度表达语义的相似度,直观易懂。当文档被表示为文档空间的向量,就可以通过计算向量之间的相似性来度量文档间的相似性。文本处理中最常用的相似性度量方式是余弦距离。


向量空间模型中通常采用TF*IDF的方式计算权重。Wij=TFij*IDFij表示termi在文档dj的权重,Wiq=TFiq*IDFiq表示termi在queryq中的权重。

VSM的优点:

1)对term的权重的计算可以通过对term出现频率的统计方法自动完成,使问题的复杂性大为降;

2)支持部分匹配和近似匹配,并可以根据query和文档之间的相似度对结果进行排序。

VSM缺点:

1)基于term之间的独立性假设,也即权重计算没有考虑term之间的位置关系,也没有考虑term的长度对权重的影响;

2)计算量大。新文档加入需要重新计算term的权重。

概率检索模型

概率统计检索模型(ProbabilisticRetrievalModel)是另一种普遍使用的信息检索算法模型,它应用文档与查询相关的概率来计算文档与查询的相似度。

二元独立模型(BIM)

词汇独立性假设:文档里面出现的词没有任何关联,这样一个文档的出现就可以转为各个单词出现概率的乘积。

对于同时出现查询qi以及文档di的时候,对qi在di中出现的单词进行“相关文档/不相关文档”统计,即可得到查询与文档的相关性估计值


其中:

N表示是文档集中总的文档数;

R表示与query相关的文档数;

ri表示与query相关的文档中含有的第i个term文档个数;

ni表示含有的第i个term文档总数;

0.5是平滑因子,避免出现log(0)。

BM25模型

BM25模型在BIM模型的基础上考虑了查询词在Query以及Doc中的权重,并通过实验引入了一些经验参数。BM25模型是目前最成功的内容排序模型。

改进之后的BM25模型的拟合公式如下:


公式的第1部分同BIM独立模型,公式的第2部分是查询词的term在Doc中的权重,第3部分是查询词的term在查询本身的权重。

fi表示term在D中的词频,K因子表示文档长度的考虑,其计算公式为:


其中:

k1为经验参数,k1一般设置为1.2;

b为调节因子,将b设为0时,文档长度因素将不起作用,经验表明一般b=0.75;

dl代表当前文档的长度;

avdl代表所有文档的平均长度;

qfi表示在查询中的词频,k2也为调节因子,因为在短查询下这部分一般为1,为了放大这部分的差异,k2一般取值为0~1000。

综上所述,BM25模型结合了BIM因子、文档长度、文档词频和查询词频进行公式融合,并利用k1,k2,b对各种因子进行权重的调整。

BM25F模型

BM25F模型对BM25模型的改进之处在于考虑了文档不同区域的加权统计,例如文档的标题和描述被赋予了不同的区域权重,在各个不同区域分别统计词频。

BM25F模型的计算公式为:


其中:

文档D来自不同的u个域;

各个域对应的全总为Wk;

fui表示词频;

Bu表示各个域的长度;

ulu为域的实际长度,uvulu表示域的平均长度;

bu为各个域长度的调节因子。

3.检索模型总结

每种检索模型各有千秋,适用不同的场景和应用。布尔模型、空间向量模型、概率模型等传统检索模型的排序方法一般通过构造相关性函数实现,然后按照相关性进行排序。检索模型尤其概率模型比较适用于内容相关性排序,但内容相关性一般仅考虑query和doc的tf,idf,dl,avdl等因素,很难融合点击反馈、文档质量分、点击模型等更多的排序因素。一个大型搜索引擎排序因子往往多达数十个乃至上百个(Google搜索排序因子超过200个),如果模型中参数过多,调参会变得非常困难,也很容易导致过拟合现象。

但正如前文所述,搜索引擎需要快速响应用户搜索请求,无法在毫秒级时间内对每一个召回结果进行精确的机器学习排序,业界的主流的做法是首先进行第一轮的Top-k选取再对Top-k结果进行第二轮的精确重排序。传统检索模型尤其概率模型比较适用于文本内容相关性排序,能够满足快速获取Top-k候选结果集的需求。达观数据(www.datagrand.com)搜索在第一轮Top-k选取中选用的是BM25F检索模型。BM25F模型相比BM25模型考虑了文档不同区域的加权统计,可以获得更好的文本相关性,是目前最优的文本检索模型。

4.机器学习排序

机器学习排序(MachineLearningtorank)方法很容易融合多种特征,且有成熟深厚的数学理论基础,通过迭代优化参数,对于数据稀疏、过拟合等问题也有比较成熟的理论和实践。

机器学习排序系统框架

机器学习排序系统一般分为离线学习系统和在线预测排序系统。离线系统的设计需要靠特征的选择、训练集的标注、MLR方法的选定、确定损失函数、以最小化损失函数为目标进行优化,以获取排序模型的相关参数。在线预测排序系统将待预测结果输入到机器学习得到的排序模型,即可得到结果的相关性得分,进而依据相关性得分得到搜素结果的最终排序。


排序模型的选择直接影响在线预测的效果。在类似电商时效性强的应用场景中,业务上经常需要根据商品库存、价格等变化及时调整排序结果,由于排序模型的高度复杂性,人工干预只能做局部小范围的调整,更多的还是要对模型进行实时的自动化更新。

对于这个问题,我们在实践中总结出了一个在线-近线-离线的三层系统架构,即Online-Nearline-Offline(在线-近线-离线)三层混合机制。离线系统负责day级全量训练数据的学习、近线系统负责hour级模型的学习与更新、在线系统负责minut级的准实时反馈数据的学习与模型的更新。

特征选取与特征工程

特征是算法、模型的养料之源。特征选择的好坏直接关系到算法训练学习出的模型的效果。与传统的文本分类不同,MLR输出的是给定query的文档集合的排序,不仅要考虑文档自身的特征,还要考虑query与文档关联关系的特征。综合来说,MLR需要考虑三个方面的特征:

1)文档本身的静态特征,包括文档的文本特征,如带权重的词向量,文档不同域(主标题、段落标题、描述内容、锚文本、URL链接等)的TF、IDF、BM25和其他语言模型得分,也包括文档的质量分、网页文档的PageRank等重要性得分。关于文档的质量分,达观搜索根据不同的业务场景有不同的计算指标,比如电商相关的商品的质量分计算除了要考虑商品本身的文本与图片丰富度,更多的还要考虑商品的各种业务指标如销量变化、收藏、价格、库存、类别、上架时间、评论、商家信誉等级、是否作弊等,而媒体相关的文章的则需要考虑阅读数、转发数、赞数、收藏、评论、发文时间、主题类型等。

2)文档和query关联的特征,比如query对应文档的TD-IDFscore,BM25score等。

3)query本身的特征,比如文本特征,带权重的词向量,query长度,query所述的分类或主题,query的BM25的sum/avg/min/max/median分数,query上个月的热度等。

在query与文档的特征工程中,除了从词法上分析,还需要从“被阐述”的词法所“真正想表达”的语义即概念上进行分析提取。比如一词多义,同义词和近义词,不同的场景下同一个词表达不同的意思,不同场景下不同的词也可能表达相同的意思。LSA(隐语义分析)是处理这类问题的著名技术,其主要思想是映射高维向量空间到低维的潜在语义空间或概念空间,也即进行降维。具体做法是将词项文档矩阵做奇异值分解(SVD)


其中:

C是以文档为行,词项terms为列的矩阵(假设MxN),元素为term的tf-idf值。C被分解成3个小矩阵相乘;

U的每一列表示一个主题,其中的每个非零元素表示一个主题与一篇文章的相关性,数值越大越相关;

V表示keyword与所有term的相关性;

∑表示文章主题和keyword之间的相关性。

5.MLR算法的选择

MLR一般来说有三类方法:单文档方法(Pointwise),文档对方法(Pairwise),文档列表方法(Listwise)。

Pointwise方法

Pointwise把文档当成单个的点分别进行计算,实际上把一个Ranking问题转化成二值分类问题、回归问题或多值分类问题。Query与文档之间的相关度作为label,label一般划分为:{Perfect,Excellent,Good,Fair,Bad}。

Pointwise方法主要包括:Pranking(NIPS2002),OAP-BPM(EMCL2003),RankingwithLargeMarginPrinciples(NIPS2002),ConstraintOrdinalRegression(ICML2005)

Pointwise的不足之处:

Pointwise使用传统的分类,回归或者OrdinalRegression来对给定query下的单个文档的相关度进行建模,没有文档位置对排序结果的影响,而回归和分类的损失函数会尽量拟合所有的数据,算法为了整体损失最小,有可能把排在前面的文档的损失变得更大,或者把排在后面的文档的损失变得更小,从而导致排序难以取得良好的效果。

Pairwise方法

在Pairwise中query与文档对结合,假设在同一Query下,di的相关性大于dj,那么我们可以把di-dj标记为+1,dj-di标记为-1,从而可以把原问题转换为一个分类或回归问题。


Pairwise方法主要包括:RankingSVM(ICANN1999),RankBoost(JMLR2003),LDM(SIGIR2005),RankNet(ICML2005),Frank(SIGIR2007),GBRank(SIGIR2007),QBRank(NIPS2007),MPRank(ICML2007),IRSVM(SIGIR2006)。

Pairwise的不足:

1)文档较多时,pair的数目是平方级增长的,计算量太大;

2)Pair对不同级别之间的区分度一致对待,没有对排在前面的结果作更好的区分。对于搜索引擎而言,用户更倾向于点击前几页的结果;

3)相关文档集大小带来模型的偏置。如果一个query下文档远多于另一query,支持向量就会向该query偏置,导致分类器对后者区分不好。

Listwise方法

Listwise的输入是query对应的一个文档列表,计算每个query对应的文档列表的得分。

Listwise有一种基于文档排列的概率分布进行训练的方法,通过对训练实例的训练找到一个最优的打分函数f,使得f对query的打分结果的概率分布与训练数据的实际排序尽可能相同。损失是按照训练数据的实际排序概率分布与模型输出的概率分布之间的KL距离来度量的。


Listwise算法主要包括:LambdaRank(NIPS2006),AdaRank(SIGIR2007),SVM-MAP(SIGIR2007),SoftRank(LR4IR2007),GPRank(LR4IR2007),CCA(SIGIR2007),RankCosine(IP&M2007),ListNet(ICML2007),ListMLE(ICML2008),p-ListMLE。

相比于Pointwise和Pairwise方法,Listwise方法直接优化给定查询下整个文档集合的序列,所以比较好的解决了以上算法的缺陷。Listwise方法中的LambdaMART(是对RankNet和LambdaRank的改进)在YahooLearningtoRankChallenge表现出最好的性能。

我们在搜索排序中使用了一种position-awareListMLE(p-ListMLE)的算法,ListMLE考虑了排序位置信息,但没有对不同位置的重要程度进行区分。达观搜索的实践显示同样的条件下p-ListMLE的搜索效果指标nDCG要优于ListMLE. 

6.点击模型

我们在排序实践中还发现MLR无法充分利用用户对搜索结果的点击反馈。俗话说群众的眼睛是雪亮的,用户对不同位置的搜索结果的点击行为直接反应了搜索结果的好坏。我们根据用户的历史点击记录生成了点击模型,通过点击模型对MLR的结果再进行一次调整。

点击模型又称为点击调权,搜索引擎根据用户对搜索结果的点击,可以挖掘出哪些结果更符合查询的需求。点击模型基于如下基本假设:

1)用户的浏览顺序是从上至下的。

2)需求满足好的结果,整体点击率一定高。

3)同一个query下,用户点击的最后一个结果之后的结果,可以假设用户已经不会去查看了(一定程度上减弱了位置偏见)。

4)用户进行了翻页操作,或者有效的query变换,则可以认为前页的结果用户都浏览过,并且不太满意。

5)用户点击的结果,如果引发后继的转化行为(比如电商搜索中的加购物车),则更有可能是用户满意的结果。

点击模型日志:


图4点击模型(日志收集)

达观搜索中MLR算法优化+点击模型对结果调权后搜索效果的显著提升。


图5达观数据搜索上线前后的效果对比

7.搜索排序效果评估

搜索引擎的排序是一个复杂的过程,特征的选择、算法的变化、模型的更新都会导致排序结果的变化。那如何衡量一个排序结果的好坏呢?MLR是用机器学习的方法来进行排序,所以评价MLR效果的指标就是评价排序的指标,主要包括一下几种:

 1)WTA(Winnerstakeall)对于给定的查询q,如果模型返回的结果列表中,第一个文档是相关的,则WTA(q)=1,否则为0.

 2)MRR(MeanReciprocalRank)对于给定查询q,如果第一个相关的文档位置是R(q),则MRR(q)=1/R(q)。

 3)MAP(MeanAveragePrecision)对于每个真实相关的文档d,考虑其在模型排序结果中的位置P(d),统计该位置之前文档集合的分类准确率,取所有这些准确率的平均值。

 4)NDCG(NormalizedDiscountedCumulativeGain)是一种综合考虑模型排序结果和真实序列之间关系的一种指标,也是最常用的衡量排序结果指标,详见Wikipedia。

评价指标的使用

使用评价指标主要有手工标注答案和自动化评估两种。手工标注方式既费时费力,又无法及时进行评估效果反馈。自动化评估方式对提高评估效率十分重要。最常用的自动评估方法是A/Btesting系统。


A/Btesting系统将用户的流量在算法模型A/B之间进行分配,即将通过用户的分组号(bucketid)将用户流量分别导入不同的算法分支,用户在不同算法分支的行为连同分组号被记录下来,后台分析系统分析这些行为数据可以生成一系列对比指标,通过这些指标可以直观的分析算法模型优劣。

8.总结

本文从搜索引擎排序的架构、检索模型、机器学习排序模型与算法到搜索效果评估,全面介绍了达观搜索引擎排序实践方面的一些经验。

关于作者

桂洪冠,达观数据(www.datagrand.com)联合创始人&技术副总裁,中国计算机学会(CCF)会员。曾服务于阿里、盛大、腾讯几家公司,任腾讯文学、盛大文学数据中心高级研究员、阿里搜索技术专家等职务,主要负责搜索与广告团队。


 


相关问题推荐

  • 回答 20

    选对培训机构比较重要,还有就是选择的时候看一下自己适合哪种风格的讲课方式,这个也很重要。因为现在5G时代来临,人工智能绝对是一个发展的大趋势,如果你自己空余时间又比较多的话,其实可以报一个辅导班,学习学习一些基本的东西,毕竟多学点总是没有坏处...

  • 回答 3

    深度学习是近几年人工智能领域的主要研究方向。深度学习的主要任务是通过构建深度卷积神经网络(Deep Neural Network,DNN)和采用大量样本数据作为输入,人们最终会得到一个具有强大分析能力和识别能力的模型,该模型包含了DNN的构成参数以应用于实际工作。...

  • 回答 3

    AI深度学习课程是用于建立、模拟人脑进行分析学习的神经网络,并模仿人脑的机制来解释数据的一种机器学习技术,主要应用于图像识别、语音识别、自然语言处理等领域。学完可以从事深度学习工程师、机器学习工程师、人工智能工程师、高级算法工程师、高级算法工...

  • 回答 16

    算法,数据相关的适合做人工智能

  • 回答 28

    人工智能取代的行业,一定有如下几个特征:1、大量重复型。2、逻辑性比较强。3、数据库依赖型。像司机,咨询,教育,医生,会计,律师助理,工程师,码农等,都是容易被取代的行业。当然,这都是强人工智能以后会发生的事,现在还是弱人工智能的时代,想进入...

  • 回答 9

    如果你是自己学着玩,提升自己的话,高中毕业都可以。如果是冲着AI算法岗或者科研一席之地,至少211硕士。具体可以亲身体验一下今年算法岗秋招。

  • 回答 9

    可以,未来的人工智能发展深度学习必然是现在大型机器生产科研必备的,证书的话某个培训好像有这个中科院的证书,具体你去百度吧

  • 回答 8

    我觉得就是人工智能的课程,现在家具都是智能家居了。这一块发展一定很好

  • 回答 3

    对于sgd算法而言,batch size太大太小都不好,太小的话训练不稳定,计算效率低;太大的话收敛速度慢,需要仔细调节一下。以2的倍数调节,例如32,64,128等

  • 回答 1

    在terminal中输入$wolf@wolf:~/Downloads/gitclonehttps://github.com/Tencent/ncnn cd切换到NCNN目录***这步很重要,这时候需要修改ncnn的root目录下的CMakeLists.txt文件,需要将倒数几行的add_subdirectory(examples),取消注释,这样就是默认编译example...

  • 回答 5

    人工智能的话其实到现在来说已经慢慢趋于成熟,学的话首先是一线城市,学出来好就业,还有就是薪资也高

  • 回答 3

    画个train and test error VS 训练数据量(training set size) 的learningcurve应该会更加直观了。可以找个简单的数据集,比如说handwritten digits或者什么的,分别用神经网络和决策树或者knn做出这个learningcurve。你会看到如果用一个决策树去解决这个问题...

  • 回答 2

    共生矩阵用两个位置的象素的联合概率密度来定义,它不仅反映亮度的分布特性,也反映具有同样亮度或接近亮度的象素之间的位置分布特性,是有关图象亮度变化的二阶统计特征。它是定义一组纹理特征的基础。     一幅图象的灰度共生矩阵能反映出图象灰度关于...

没有解决我的问题,去提问