首页 >
支持向量机
✍ dations ◷ 2025-02-23 14:25:15 #支持向量机
在机器学习中,支持向量机(英语:support vector machine,常简称为SVM,又名支持向量网络)是在分类与回归分析中分析数据的监督式学习模型与相关的学习算法。给定一组训练实例,每个训练实例被标记为属于两个类别中的一个或另一个,SVM训练算法创建一个将新的实例分配给两个类别之一的模型,使其成为非概率二元(英语:binary classifier)线性分类器。SVM模型是将实例表示为空间中的点,这样映射就使得单独类别的实例被尽可能宽的明显的间隔分开。然后,将新的实例映射到同一空间,并基于它们落在间隔的哪一侧来预测所属类别。除了进行线性分类之外,SVM还可以使用所谓的核技巧(英语:kernel trick)有效地进行非线性分类,将其输入隐式映射到高维特征空间中。当数据未被标记时,不能进行监督式学习,需要用非监督式学习,它会尝试找出数据到簇的自然聚类,并将新数据映射到这些已形成的簇。将支持向量机改进的聚类算法被称为支持向量聚类,当数据未被标记或者仅一些数据被标记时,支持向量聚类经常在工业应用中用作分类步骤的预处理。分类数据是机器学习中的一项常见任务。
假设某些给定的数据点各自属于两个类之一,而目标是确定新数据点将在哪个类中。对于支持向量机来说,数据点被视为
p
{displaystyle p}
维向量,而我们想知道是否可以用
(
p
−
1
)
{displaystyle (p-1)}
维超平面来分开这些点。这就是所谓的线性分类器。可能有许多超平面可以把数据分类。最佳超平面的一个合理选择是以最大间隔把两个类分开的超平面。因此,我们要选择能够让到每边最近的数据点的距离最大化的超平面。如果存在这样的超平面,则称为最大间隔超平面,而其定义的线性分类器被称为最大间隔分类器(英语:margin classifier),或者叫做最佳稳定性感知器。更正式地来说,支持向量机在高维或无限维空间中构造超平面或超平面集合,其可以用于分类、回归或其他任务。直观来说,分类边界距离最近的训练数据点越远越好,因为这样可以缩小分类器的泛化误差。尽管原始问题可能是在有限维空间中陈述的,但用于区分的集合在该空间中往往线性不可分(英语:Linear separability)。为此,有人提出将原有限维空间映射到维数高得多的空间中,在该空间中进行分离可能会更容易。为了保持计算负荷合理,人们选择适合该问题的核函数(英语:Positive-definite kernel)
k
(
x
,
y
)
{displaystyle k(x,y)}
来定义SVM方案使用的映射,以确保用原始空间中的变量可以很容易计算点积。 高维空间中的超平面定义为与该空间中的某向量的点积是常数的点的集合。定义超平面的向量可以选择在数据基中出现的特征向量
x
i
{displaystyle x_{i}}
的图像的参数
α
i
{displaystyle alpha _{i}}
的线性组合。通过选择超平面,被映射到超平面上的特征空间中的点集
x
{displaystyle x}
由以下关系定义:
∑
i
α
i
k
(
x
i
,
x
)
=
c
o
n
s
t
a
n
t
.
{displaystyle textstyle sum _{i}alpha _{i}k(x_{i},x)=mathrm {constant} .}
注意,如果随着
y
{displaystyle y}
逐渐远离
x
{displaystyle x}
,
k
(
x
,
y
)
{displaystyle k(x,y)}
变小,则求和中的每一项都是在衡量测试点
x
{displaystyle x}
与对应的数据基点
x
i
{displaystyle x_{i}}
的接近程度。这样,上述内核的总和可以用于衡量每个测试点相对于待分离的集合中的数据点的相对接近度。原始SVM算法是由弗拉基米尔·万普尼克和亚历克塞·泽范兰杰斯于1963年发明的。1992年,Bernhard E. Boser、Isabelle M. Guyon和弗拉基米尔·万普尼克提出了一种通过将核技巧应用于最大间隔超平面来创建非线性分类器的方法。 当前标准的前身(软间隔)由Corinna Cortes和Vapnik于1993年提出,并于1995年发表。我们考虑以下形式的
n
{displaystyle n}
点测试集:其中
y
i
{displaystyle y_{i}}
是 1 或者 −1,表明点
x
→
i
{displaystyle {vec {x}}_{i}}
所属的类。
x
→
i
{displaystyle {vec {x}}_{i}}
中每个都是一个
p
{displaystyle p}
维实向量。我们要求将
y
i
=
1
{displaystyle y_{i}=1}
的点集
x
→
i
{displaystyle {vec {x}}_{i}}
与
y
i
=
−
1
{displaystyle y_{i}=-1}
的点集分开的 “最大间隔超平面”,使得超平面与最近的点
x
→
i
{displaystyle {vec {x}}_{i}}
之间的距离最大化。任何超平面都可以写作满足下面方程的点集
x
→
{displaystyle {vec {x}}}其中
w
→
{displaystyle {vec {w}}}
(不必是归一化的)是该法向量。参数
b
‖
w
→
‖
{displaystyle {tfrac {b}{|{vec {w}}|}}}
决定从原点沿法向量
w
→
{displaystyle {vec {w}}}
到超平面的偏移量。如果这些训练数据是线性可分的,可以选择分离两类数据的两个平行超平面,使得它们之间的距离尽可能大。在这两个超平面范围内的区域称为“间隔”,最大间隔超平面是位于它们正中间的超平面。这些超平面可以由方程:或是来表示。通过几何不难得到这两个超平面之间的距离是
2
‖
w
→
‖
{displaystyle {tfrac {2}{|{vec {w}}|}}}
,因此要使两平面间的距离最大,我们需要最小化
‖
w
→
‖
{displaystyle |{vec {w}}|}
。同时为了使得样本数据点都在超平面的间隔区以外,我们需要保证对于所有的
i
{displaystyle i}
满足其中的一个条件:或是这些约束表明每个数据点都必须位于间隔的正确一侧。这两个式子可以写作:可以用这个式子一起来得到优化问题:“在
y
i
(
w
→
⋅
x
i
→
−
b
)
≥
1
{displaystyle y_{i}({vec {w}}cdot {vec {x_{i}}}-b)geq 1}
条件下,最小化
‖
w
→
‖
{displaystyle |{vec {w}}|}
,对于
i
=
1
,
…
,
n
{displaystyle i=1,,ldots ,,n}
"这个问题的解
w
→
{displaystyle {vec {w}}}
与
b
{displaystyle b}
决定了我们的分类器
x
→
↦
sgn
(
w
→
⋅
x
→
−
b
)
{displaystyle {vec {x}}mapsto operatorname {sgn}({vec {w}}cdot {vec {x}}-b)}
。此几何描述的一个显而易见却重要的结果是,最大间隔超平面完全是由最靠近它的那些
x
→
i
{displaystyle {vec {x}}_{i}}
确定的。这些
x
→
i
{displaystyle {vec {x}}_{i}}
叫做支持向量。为了将SVM扩展到数据线性不可分的情况,我们引入铰链损失函数,max
(
0
,
1
−
y
i
(
w
→
⋅
x
i
→
−
b
)
)
.
{displaystyle max left(0,1-y_{i}({vec {w}}cdot {vec {x_{i}}}-b)right).}当约束条件 (1) 满足时(也就是如果
x
→
i
{displaystyle {vec {x}}_{i}}
位于边距的正确一侧)此函数为零。对于间隔的错误一侧的数据,该函数的值与距间隔的距离成正比。
然后我们希望最小化[
1
n
∑
i
=
1
n
max
(
0
,
1
−
y
i
(
w
→
⋅
x
i
→
−
b
)
)
]
+
λ
‖
w
→
‖
2
,
{displaystyle left+lambda lVert {vec {w}}rVert ^{2},}其中参数
λ
{displaystyle lambda }
用来权衡增加间隔大小与确保
x
→
i
{displaystyle {vec {x}}_{i}}
位于间隔的正确一侧之间的关系。因此,对于足够小的
λ
{displaystyle lambda }
值,如果输入数据是可以线性分类的,则软间隔SVM与硬间隔SVM将表现相同,但即使不可线性分类,仍能学习出可行的分类规则。万普尼克在1963年提出的原始最大间隔超平面算法构造了一个线性分类器。而1992年,Bernhard E. Boser、Isabelle M. Guyon和弗拉基米尔·万普尼克提出了一种通过将核技巧(英语:kernel trick)(最初由Aizerman et al.提出)应用于最大边界超平面来创建非线性分类器的方法。 所得到的算法形式上类似,除了把点积换成了非线性核函数。这就允许算法在变换后的特征空间中拟合最大间隔超平面。该变换可以是非线性的,而变换空间是高维的;虽然分类器是变换后的特征空间中的超平面,但它在原始输入空间中可以是非线性的。值得注意的是,更高维的特征空间增加了支持向量机的泛化误差,但给定足够多的样本,算法仍能表现良好。常见的核函数包括:由等式
k
(
x
i
→
,
x
j
→
)
=
φ
(
x
i
→
)
⋅
φ
(
x
j
→
)
{displaystyle k({vec {x_{i}}},{vec {x_{j}}})=varphi ({vec {x_{i}}})cdot varphi ({vec {x_{j}}})}
,核函数与变换
φ
(
x
i
→
)
{displaystyle varphi ({vec {x_{i}}})}
有关。变换空间中也有 w 值,
w
→
=
∑
i
α
i
y
i
φ
(
x
→
i
)
{displaystyle textstyle {vec {w}}=sum _{i}alpha _{i}y_{i}varphi ({vec {x}}_{i})}
。与 w 的点积也要用核技巧来计算,即
w
→
⋅
φ
(
x
→
)
=
∑
i
α
i
y
i
k
(
x
→
i
,
x
→
)
{displaystyle textstyle {vec {w}}cdot varphi ({vec {x}})=sum _{i}alpha _{i}y_{i}k({vec {x}}_{i},{vec {x}})}
。计算(软间隔)SVM分类器等同于使下面表达式最小化[
1
n
∑
i
=
1
n
max
(
0
,
1
−
y
i
(
w
⋅
x
i
+
b
)
)
]
+
λ
‖
w
‖
2
.
(
2
)
{displaystyle left+lambda lVert wrVert ^{2}.qquad (2)}如上所述,由于我们关注的是软间隔分类器,
λ
{displaystyle lambda }
选择足够小的值就能得到线性可分类输入数据的硬间隔分类器。下面会详细介绍将(2)简化为二次规划问题的经典方法。之后会讨论一些最近才出现的方法,如次梯度下降法和坐标下降法。最小化(2)可以用下面的方式改写为目标函数可微的约束优化问题。对所有
i
∈
{
1
,
…
,
n
}
{displaystyle iin {1,,ldots ,,n}}
我们引入变量
ζ
i
=
max
(
0
,
1
−
y
i
(
w
⋅
x
i
+
b
)
)
{displaystyle zeta _{i}=max left(0,1-y_{i}(wcdot x_{i}+b)right)}
。注意到
ζ
i
{displaystyle zeta _{i}}
是满足
y
i
(
w
⋅
x
i
+
b
)
≥
1
−
ζ
i
{displaystyle y_{i}(wcdot x_{i}+b)geq 1-zeta _{i}}
的最小非负数。因此,我们可以将优化问题叙述如下minimize
1
n
∑
i
=
1
n
ζ
i
+
λ
‖
w
‖
2
{displaystyle {text{minimize }}{frac {1}{n}}sum _{i=1}^{n}zeta _{i}+lambda |w|^{2}}subject to
y
i
(
x
i
⋅
w
+
b
)
≥
1
−
ζ
i
and
ζ
i
≥
0
,
for all
i
.
{displaystyle {text{subject to }}y_{i}(x_{i}cdot w+b)geq 1-zeta _{i},{text{ and }},zeta _{i}geq 0,,{text{for all }}i.}这就叫做原型问题。通过求解上述问题的拉格朗日对偶(英语:Duality (optimization)),得到简化的问题maximize
f
(
c
1
…
c
n
)
=
∑
i
=
1
n
c
i
−
1
2
∑
i
=
1
n
∑
j
=
1
n
y
i
c
i
(
x
i
⋅
x
j
)
y
j
c
j
,
{displaystyle {text{maximize}},,f(c_{1}ldots c_{n})=sum _{i=1}^{n}c_{i}-{frac {1}{2}}sum _{i=1}^{n}sum _{j=1}^{n}y_{i}c_{i}(x_{i}cdot x_{j})y_{j}c_{j},}subject to
∑
i
=
1
n
c
i
y
i
=
0
,
and
0
≤
c
i
≤
1
2
n
λ
for all
i
.
{displaystyle {text{subject to }}sum _{i=1}^{n}c_{i}y_{i}=0,,{text{and }}0leq c_{i}leq {frac {1}{2nlambda }};{text{for all }}i.}这就叫做对偶问题。由于对偶最小化问题是受线性约束的
c
i
{displaystyle c_{i}}
的二次函数,所以它可以通过二次规划算法高效地解出。
这里,变量
c
i
{displaystyle c_{i}}
定义为满足w
→
=
∑
i
=
1
n
c
i
y
i
x
→
i
{displaystyle {vec {w}}=sum _{i=1}^{n}c_{i}y_{i}{vec {x}}_{i}}
.此外,当
x
→
i
{displaystyle {vec {x}}_{i}}
恰好在间隔的正确一侧时
c
i
=
0
{displaystyle c_{i}=0}
,且当
x
→
i
{displaystyle {vec {x}}_{i}}
位于间隔的边界时
0
<
c
i
<
(
2
n
λ
)
−
1
{displaystyle 0<c_{i}<(2nlambda )^{-1}}
。因此,
w
→
{displaystyle {vec {w}}}
可以写为支持向量的线性组合。
可以通过在间隔的边界上找到一个
x
→
i
{displaystyle {vec {x}}_{i}}
并求解y
i
(
w
→
⋅
x
→
i
+
b
)
=
1
⟺
b
=
y
i
−
w
→
⋅
x
→
i
.
{displaystyle y_{i}({vec {w}}cdot {vec {x}}_{i}+b)=1iff b=y_{i}-{vec {w}}cdot {vec {x}}_{i}.}得到偏移量
b
{displaystyle b}
。(注意由于
y
i
=
±
1
{displaystyle y_{i}=pm 1}
因而
y
i
−
1
=
y
i
{displaystyle y_{i}^{-1}=y_{i}}
。)假设我们要学习与变换后数据点
φ
(
x
→
i
)
{displaystyle varphi ({vec {x}}_{i})}
的线性分类规则对应的非线性分类规则。此外,我们有一个满足
k
(
x
→
i
,
x
→
j
)
=
φ
(
x
→
i
)
⋅
φ
(
x
→
j
)
{displaystyle k({vec {x}}_{i},{vec {x}}_{j})=varphi ({vec {x}}_{i})cdot varphi ({vec {x}}_{j})}
的核函数
k
{displaystyle k}
。我们知道变换空间中的分类向量
w
→
{displaystyle {vec {w}}}
满足w
→
=
∑
i
=
1
n
c
i
y
i
φ
(
x
→
i
)
,
{displaystyle {vec {w}}=sum _{i=1}^{n}c_{i}y_{i}varphi ({vec {x}}_{i}),}其中
c
i
{displaystyle c_{i}}
可以通过求解优化问题maximize
f
(
c
1
…
c
n
)
=
∑
i
=
1
n
c
i
−
1
2
∑
i
=
1
n
∑
j
=
1
n
y
i
c
i
(
φ
(
x
→
i
)
⋅
φ
(
x
→
j
)
)
y
j
c
j
=
∑
i
=
1
n
c
i
−
1
2
∑
i
=
1
n
∑
j
=
1
n
y
i
c
i
k
(
x
→
i
,
x
→
j
)
y
j
c
j
{displaystyle {begin{aligned}{text{maximize}},,f(c_{1}ldots c_{n})&=sum _{i=1}^{n}c_{i}-{frac {1}{2}}sum _{i=1}^{n}sum _{j=1}^{n}y_{i}c_{i}(varphi ({vec {x}}_{i})cdot varphi ({vec {x}}_{j}))y_{j}c_{j}\&=sum _{i=1}^{n}c_{i}-{frac {1}{2}}sum _{i=1}^{n}sum _{j=1}^{n}y_{i}c_{i}k({vec {x}}_{i},{vec {x}}_{j})y_{j}c_{j}\end{aligned}}}subject to
∑
i
=
1
n
c
i
y
i
=
0
,
and
0
≤
c
i
≤
1
2
n
λ
for all
i
.
{displaystyle {text{subject to }}sum _{i=1}^{n}c_{i}y_{i}=0,,{text{and }}0leq c_{i}leq {frac {1}{2nlambda }};{text{for all }}i.}得到。与前面一样,可以使用二次规划来求解系数
c
i
{displaystyle c_{i}}
。同样,我们可以找到让
0
<
c
i
<
(
2
n
λ
)
−
1
{displaystyle 0<c_{i}<(2nlambda )^{-1}}
的索引
i
{displaystyle i}
,使得
φ
(
x
→
i
)
{displaystyle varphi ({vec {x}}_{i})}
位于变换空间中间隔的边界上,然后求解b
=
w
→
⋅
φ
(
x
→
i
)
−
y
i
=
[
∑
k
=
1
n
c
k
y
k
φ
(
x
→
k
)
⋅
φ
(
x
→
i
)
]
−
y
i
=
[
∑
k
=
1
n
c
k
y
k
k
(
x
→
k
,
x
→
i
)
]
−
y
i
.
{displaystyle {begin{aligned}b={vec {w}}cdot varphi ({vec {x}}_{i})-y_{i}&=left-y_{i}\&=left-y_{i}.end{aligned}}}最后,可以通过计算下式来分类新点z
→
↦
sgn
(
w
→
⋅
φ
(
z
→
)
+
b
)
=
sgn
(
[
∑
i
=
1
n
c
i
y
i
k
(
x
→
i
,
z
→
)
]
+
b
)
.
{displaystyle {vec {z}}mapsto operatorname {sgn}({vec {w}}cdot varphi ({vec {z}})+b)=operatorname {sgn} left(left+bright).}用于找到SVM分类器的最近的算法包括次梯度下降和坐标下降。当处理大的稀疏数据集时,这两种技术已经被证明有着显著的优点——当存在许多训练实例时次梯度法是特别有效的,并且当特征空间的维度高时,坐标下降特别有效。SVM的次梯度下降算法直接用表达式f
(
w
→
,
b
)
=
[
1
n
∑
i
=
1
n
max
(
0
,
1
−
y
i
(
w
⋅
x
i
+
b
)
)
]
+
λ
‖
w
‖
2
.
{displaystyle f({vec {w}},b)=left+lambda lVert wrVert ^{2}.}注意
f
{displaystyle f}
是
w
→
{displaystyle {vec {w}}}
与
b
{displaystyle b}
的凸函数。因此,可以采用传统的梯度下降(或SGD(英语:Stochastic gradient descent))方法,其中不是在函数梯度的方向上前进,而是在从函数的次梯度中选出的向量的方向上前进。该方法的优点在于,对于某些实现,迭代次数不随着数据点的数量
n
{displaystyle n}
而增加或减少。SVM的坐标下降算法基于对偶问题maximize
f
(
c
1
…
c
n
)
=
∑
i
=
1
n
c
i
−
1
2
∑
i
=
1
n
∑
j
=
1
n
y
i
c
i
(
x
i
⋅
x
j
)
y
j
c
j
,
{displaystyle {text{maximize}},,f(c_{1}ldots c_{n})=sum _{i=1}^{n}c_{i}-{frac {1}{2}}sum _{i=1}^{n}sum _{j=1}^{n}y_{i}c_{i}(x_{i}cdot x_{j})y_{j}c_{j},}subject to
∑
i
=
1
n
c
i
y
i
=
0
,
and
0
≤
c
i
≤
1
2
n
λ
for all
i
.
{displaystyle {text{subject to }}sum _{i=1}^{n}c_{i}y_{i}=0,,{text{and }}0leq c_{i}leq {frac {1}{2nlambda }};{text{for all }}i.}对所有
i
∈
{
1
,
…
,
n
}
{displaystyle iin {1,,ldots ,,n}}
进行迭代,使系数
c
i
{displaystyle c_{i}}
的方向与
∂
f
/
∂
c
i
{displaystyle partial f/partial c_{i}}
一致。然后,将所得的系数向量
(
c
1
′
,
…
,
c
n
′
)
{displaystyle (c_{1}',,ldots ,,c_{n}')}
投影到满足给定约束的最接近的系数向量。(通常使用欧氏距离。)然后重复该过程,直到获得接近最佳的系数向量。所得的算法在实践中运行非常快,尽管已经证明的性能保证很少。SVM属于广义线性分类器的一族,并且可以解释为感知器的延伸。它们也可以被认为是吉洪诺夫正则化的特例。它们有一个特别的性质,就是可以同时最小化经验误差和最大化几何边缘区; 因此它们也被称为最大间隔分类器。Meyer、Leisch和Hornik对SVM与其他分类器进行了比较。SVM的有效性取决于核函数、核参数和软间隔参数 C 的选择。
通常会选只有一个参数
γ
{displaystyle gamma }
的高斯核。C 和
γ
{displaystyle gamma }
的最佳组合通常通过在 C 和
γ
{displaystyle gamma }
为指数增长序列下网格搜索(英语:grid search)来选取,例如
C
∈
{
2
−
5
,
2
−
3
,
…
,
2
13
,
2
15
}
{displaystyle Cin {2^{-5},2^{-3},dots ,2^{13},2^{15}}}
;
γ
∈
{
2
−
15
,
2
−
13
,
…
,
2
1
,
2
3
}
{displaystyle gamma in {2^{-15},2^{-13},dots ,2^{1},2^{3}}}
。通常情况下,使用交叉验证来检查参数选择的每一个组合,并选择具有最佳交叉验证精度的参数。或者,最近在贝叶斯优化中的工作可以用于选择C和γ,通常需要评估比网格搜索少得多的参数组合。或者,贝叶斯优化(英语:Bayesian optimization)的最近进展可以用于选择 C 和
γ
{displaystyle gamma }
,通常需要计算的参数组合比网格搜索少得多。然后,使用所选择的参数在整个训练集上训练用于测试和分类新数据的最终模型。SVM的潜在缺点包括以下方面:最大间隔超平面的参数是通过求解优化得到的。有几种专门的算法可用于快速解决由SVM产生的QP问题,它们主要依靠启发式算法将问题分解成更小、更易于处理的子问题。另一种方法是使用内点法(英语:interior point method),其使用类似牛顿法的迭代找到卡罗需-库恩-塔克条件下原型和对偶型的解。
这种方法不是去解决一系列分解问题,而是直接完全解决该问题。为了避免求解核矩阵很大的线性系统,在核技巧中经常使用矩阵的低秩近似。另一个常见的方法是普莱特的序列最小优化算法(SMO),它把问题分成了若干个可以解析求解的二维子问题,这样就可以避免使用数值优化算法和矩阵存储。线性支持向量机的特殊情况可以通过用于优化其类似问题逻辑回归的同类算法更高效求解;这类算法包括次梯度下降法(如PEGASOS)和坐标下降法(如LIBLINEAR)。LIBLINEAR有一些引人注目的训练时间上的特性。每次收敛迭代花费在读取训练数据上的时间是线性的,而且这些迭代还具有Q-线性收敛(英语:Rate of convergence)特性,使得算法非常快。一般的核SVM也可以用次梯度下降法(P-packSVM)更快求解,在允许并行化时求解速度尤其快。许多机器学习工具包都可以使用核SVM,有LIBSVM(英语:LIBSVM)、MATLAB、SAS、SVMlight、kernlab、scikit-learn(英语:scikit-learn)、Shogun(英语:Shogun (toolbox))、Weka、Shark、JKernelMachines、OpenCV等。
相关
- 输血相关移植物抗宿主疾病输血相关移植物抗宿主疾病(TA-GvHD)是一种罕见的输血并发症,其原因为捐血者之T淋巴球诱发免疫反应而攻击受血者之淋巴组织。 一般而言,捐血者之淋巴球会被受血者的免疫系统视为
- 冠心病冠状动脉疾病(英语:coronary artery disease, CAD)又称为缺血性心脏病或简称冠心病(英语:ischemic heart disease, IHD)、冠状动脉粥状硬化心脏病、冠状动脉粥状硬化心血管疾病(英
- 创伤弧菌创伤弧菌(学名:Vibrio vulnificus、俗称:海洋弧菌),是一种栖息于海洋中的细菌。如果伤口暴露在含有这种细菌的海水中,创伤弧菌会在伤口上繁殖,可能引发溃烂,甚至导致组织坏死。若食
- 有机化学命名法IUPAC有机物命名法是一种有系统命名有机化合物的方法。该命名法是由国际纯粹与应用化学联合会(IUPAC)规定的,最近一次修订是在1993年。其前身是1892年日内瓦国际化学会的“系统
- 巨石文化巨石文化(megalith)是一种以巨大石结构建筑为代表的史前文化类型。欧洲西部是巨石文化时间上出现较早且分布较集中的地区。在欧洲,最常见的巨石建筑是石墓。这些石墓在葡萄牙语
- 韦尔斯利韦尔斯利镇(英语:Wellesley)是美国马萨诸塞州诺福克县中的一个镇。据美国2000年人口普查,该镇的人口为26,613。坐标:42°18′23″N 71°17′16″W / 42.306263°N 71.287772°W /
- 沈 岩沈岩(1951年10月19日-),北京人,中国医学分子遗传学家。1984年毕业于北京市职工(业余)大学,1989年获中国协和医科大学生物化学硕士学位。现任中国医学科学院基础医学研究所研究员,国家
- span class=nowrapTiOSOsub4/sub/span硫酸氧钛(Titanyl sulfate),别名硫酸钛酰,化学式TiOSO4。分子量159.94。相对密度约1.47。白色或微黄色潮解粉末,溶于水,在热水中易水解,生成水合二氧化钛。硫酸氧钛在溶液或晶体内
- 城市承载力城市承载力(英语:urban carrying capacity),是指一个城市是指在可以预见到的期间内,利用本地能源及其自然资源和智力、技术等条件,在保证符合其社会文化准则的物质生活水平条件下
- 时钟周期时间脉冲信号(英语:Clock signal),计算机科学及相关领域用语。此信号在同步电路当中,扮演计时器的角色,并组成电路的电子组件。只有当同步信号到达时,相关的触发器才按输入信号改变