机器学习中的度量——相似度

  • 时间:
  • 浏览:0

      机器学习是时下流行AI技术中一个多多 多很糙要的方向,无论是有监督学习还是无监督学习都使用各种“度量”来得到不同样本数据的差异度之后不同样本数据的类似 度。良好的“度量”并能显著提高算法的分类或预测的准确率,本文中将介绍机器学习中各种“度量”,“度量”主要由一种生活,分别为距离、类似 度和相关系数,距离的研究主体一般是线性空间中点;而类似 度研究主体是线性空间中向量;相关系数研究主体主可是分布数据。本文主要介绍类似 度。

      Jaccard类似 度,之后叫做并交比。是用于比较样本集的类似 性与多样性的统计量。雅卡尔系数并能量度有限样本集合的类似 度,其定义为一个多多 多集合交集大小与并集大小之间的比例:

      设A和B是一个多多 多集合,则A和B的Jaccard类似 度为:

\[ sim_{Jaccard}(A,B) = sim_{Jaccard}(B,A)=\frac{{\left| {A \cap B} \right|}}{{\left| {A \cup B} \right|}} = \frac{{\left| {A \cap B} \right|}}{{\left| A \right| + \left| B \right| - \left| {A \cap B} \right|}} \]

      若集合A和B完整版一样则定义J(A,B)=1,显示0<=J(A,B)<=1



图1 集合A和集合B的交集和并集

      下面通过简单例子来说明Jaccard类似 度何如计算的,设

      集合A = {“A”,“B”, “C”,“D“}

      集合B = {“A”,“B”, “E”,F“, “G”}

      A和B的并集A∪B = {“A”,“B”, “C”,“D“, “E”,“F”, “G”}

      A和B的交集A∩B = {“A”, “B” }

      统统|A∪B| = 7, | A∩B| =2

      统统A和B的Jaccard类似 度为2/7

      余弦类似 度通过测量一个多多 多向量内积空间的夹角的余弦值来度量它们之间的类似 性。0度角的余弦值是1,而其他任何宽度的余弦值总要大于1。用向量空间中一个多多 多向量夹角的余弦值作为衡量一个多多 多个体间差异的大小的度量,也可是衡量一个多多 多向量在方向上的差别。

      之后向量a = (a1, a2,..., an) 和向量b = (b1, b2, ..., bn) 是一个多多 多欧式空间点,则两向量的点积为a⋅b=|a|⋅|b|⋅cos⁡⟨a,b⟩,向量总要有方向的量,cos⁡⟨a,b⟩可是a和b夹角的余弦,统统一个多多 多向量a和b的余弦类似 度计算公式为:

\[\begin{array}{l} si{m_{Cos}}\left( {{\bf{a}},{\bf{b}}} \right){\rm{ = }}si{m_{Cos}}\left( {{\bf{a}},{\bf{b}}} \right) = \frac{{{\bf{a}} \cdot {\bf{b}}}}{{{{\left\| {\bf{a}} \right\|}_2}{{\left\| {\bf{b}} \right\|}_2}}} \\ \quad \quad \quad \quad \quad \quad \quad \quad \quad \; = \frac{{{a_1}{b_1} + {a_2}{b_2} + \cdots + {a_n}{b_n}}}{{\sqrt {a_1^2 + a_2^2 + \cdots + a_n^2} \sqrt {b_1^2 + b_2^2 + \cdots + b_n^2} }} \\ \end{array}\]

      比如向量x=(0,1,2)和y=(1,0,2),这样 它们余弦距离为

\[\cos \left( {x,y} \right) = \frac{{0 \times 1 + 1 \times 0 + 2 \times 2}}{{\sqrt {{0^2} + {1^2} + {2^2}} \cdot \sqrt {{1^2} + {0^2} + 2} }} = \frac{4}{5}\]

      余弦类似 度通常用于信息检索中。在信息检索领域中,每个词条拥有不同的度,一个多多 多文档是由一个多多 多由有权值的形态学 向量表示的,权值的计算取决于词条在该文档中经常冒出的频率。余弦类似 度何如让并能给出两篇文档其主题方面的类似 度。另外,它通常用于文本挖掘中的文件比较。此外,在数据挖掘领域中,用它来衡量集群内部的凝聚力。