首页 >
支持向量机
✍ dations ◷ 2024-12-23 00:01:55 #支持向量机
在机器学习中,支持向量机(英语:support vector machine,常简称为SVM,又名支持向量网络)是在分类与回归分析中分析数据的监督式学习模型与相关的学习算法。给定一组训练实例,每个训练实例被标记为属于两个类别中的一个或另一个,SVM训练算法创建一个将新的实例分配给两个类别之一的模型,使其成为非概率二元(英语:binary classifier)线性分类器。SVM模型是将实例表示为空间中的点,这样映射就使得单独类别的实例被尽可能宽的明显的间隔分开。然后,将新的实例映射到同一空间,并基于它们落在间隔的哪一侧来预测所属类别。除了进行线性分类之外,SVM还可以使用所谓的核技巧(英语:kernel trick)有效地进行非线性分类,将其输入隐式映射到高维特征空间中。当数据未被标记时,不能进行监督式学习,需要用非监督式学习,它会尝试找出数据到簇的自然聚类,并将新数据映射到这些已形成的簇。将支持向量机改进的聚类算法被称为支持向量聚类,当数据未被标记或者仅一些数据被标记时,支持向量聚类经常在工业应用中用作分类步骤的预处理。分类数据是机器学习中的一项常见任务。
假设某些给定的数据点各自属于两个类之一,而目标是确定新数据点将在哪个类中。对于支持向量机来说,数据点被视为
p
{displaystyle p}
维向量,而我们想知道是否可以用
(
p
−
1
)
{displaystyle (p-1)}
维超平面来分开这些点。这就是所谓的线性分类器。可能有许多超平面可以把数据分类。最佳超平面的一个合理选择是以最大间隔把两个类分开的超平面。因此,我们要选择能够让到每边最近的数据点的距离最大化的超平面。如果存在这样的超平面,则称为最大间隔超平面,而其定义的线性分类器被称为最大间隔分类器(英语:margin classifier),或者叫做最佳稳定性感知器。更正式地来说,支持向量机在高维或无限维空间中构造超平面或超平面集合,其可以用于分类、回归或其他任务。直观来说,分类边界距离最近的训练数据点越远越好,因为这样可以缩小分类器的泛化误差。尽管原始问题可能是在有限维空间中陈述的,但用于区分的集合在该空间中往往线性不可分(英语:Linear separability)。为此,有人提出将原有限维空间映射到维数高得多的空间中,在该空间中进行分离可能会更容易。为了保持计算负荷合理,人们选择适合该问题的核函数(英语:Positive-definite kernel)
k
(
x
,
y
)
{displaystyle k(x,y)}
来定义SVM方案使用的映射,以确保用原始空间中的变量可以很容易计算点积。 高维空间中的超平面定义为与该空间中的某向量的点积是常数的点的集合。定义超平面的向量可以选择在数据基中出现的特征向量
x
i
{displaystyle x_{i}}
的图像的参数
α
i
{displaystyle alpha _{i}}
的线性组合。通过选择超平面,被映射到超平面上的特征空间中的点集
x
{displaystyle x}
由以下关系定义:
∑
i
α
i
k
(
x
i
,
x
)
=
c
o
n
s
t
a
n
t
.
{displaystyle textstyle sum _{i}alpha _{i}k(x_{i},x)=mathrm {constant} .}
注意,如果随着
y
{displaystyle y}
逐渐远离
x
{displaystyle x}
,
k
(
x
,
y
)
{displaystyle k(x,y)}
变小,则求和中的每一项都是在衡量测试点
x
{displaystyle x}
与对应的数据基点
x
i
{displaystyle x_{i}}
的接近程度。这样,上述内核的总和可以用于衡量每个测试点相对于待分离的集合中的数据点的相对接近度。原始SVM算法是由弗拉基米尔·万普尼克和亚历克塞·泽范兰杰斯于1963年发明的。1992年,Bernhard E. Boser、Isabelle M. Guyon和弗拉基米尔·万普尼克提出了一种通过将核技巧应用于最大间隔超平面来创建非线性分类器的方法。 当前标准的前身(软间隔)由Corinna Cortes和Vapnik于1993年提出,并于1995年发表。我们考虑以下形式的
n
{displaystyle n}
点测试集:其中
y
i
{displaystyle y_{i}}
是 1 或者 −1,表明点
x
→
i
{displaystyle {vec {x}}_{i}}
所属的类。
x
→
i
{displaystyle {vec {x}}_{i}}
中每个都是一个
p
{displaystyle p}
维实向量。我们要求将
y
i
=
1
{displaystyle y_{i}=1}
的点集
x
→
i
{displaystyle {vec {x}}_{i}}
与
y
i
=
−
1
{displaystyle y_{i}=-1}
的点集分开的 “最大间隔超平面”,使得超平面与最近的点
x
→
i
{displaystyle {vec {x}}_{i}}
之间的距离最大化。任何超平面都可以写作满足下面方程的点集
x
→
{displaystyle {vec {x}}}其中
w
→
{displaystyle {vec {w}}}
(不必是归一化的)是该法向量。参数
b
‖
w
→
‖
{displaystyle {tfrac {b}{|{vec {w}}|}}}
决定从原点沿法向量
w
→
{displaystyle {vec {w}}}
到超平面的偏移量。如果这些训练数据是线性可分的,可以选择分离两类数据的两个平行超平面,使得它们之间的距离尽可能大。在这两个超平面范围内的区域称为“间隔”,最大间隔超平面是位于它们正中间的超平面。这些超平面可以由方程:或是来表示。通过几何不难得到这两个超平面之间的距离是
2
‖
w
→
‖
{displaystyle {tfrac {2}{|{vec {w}}|}}}
,因此要使两平面间的距离最大,我们需要最小化
‖
w
→
‖
{displaystyle |{vec {w}}|}
。同时为了使得样本数据点都在超平面的间隔区以外,我们需要保证对于所有的
i
{displaystyle i}
满足其中的一个条件:或是这些约束表明每个数据点都必须位于间隔的正确一侧。这两个式子可以写作:可以用这个式子一起来得到优化问题:“在
y
i
(
w
→
⋅
x
i
→
−
b
)
≥
1
{displaystyle y_{i}({vec {w}}cdot {vec {x_{i}}}-b)geq 1}
条件下,最小化
‖
w
→
‖
{displaystyle |{vec {w}}|}
,对于
i
=
1
,
…
,
n
{displaystyle i=1,,ldots ,,n}
"这个问题的解
w
→
{displaystyle {vec {w}}}
与
b
{displaystyle b}
决定了我们的分类器
x
→
↦
sgn
(
w
→
⋅
x
→
−
b
)
{displaystyle {vec {x}}mapsto operatorname {sgn}({vec {w}}cdot {vec {x}}-b)}
。此几何描述的一个显而易见却重要的结果是,最大间隔超平面完全是由最靠近它的那些
x
→
i
{displaystyle {vec {x}}_{i}}
确定的。这些
x
→
i
{displaystyle {vec {x}}_{i}}
叫做支持向量。为了将SVM扩展到数据线性不可分的情况,我们引入铰链损失函数,max
(
0
,
1
−
y
i
(
w
→
⋅
x
i
→
−
b
)
)
.
{displaystyle max left(0,1-y_{i}({vec {w}}cdot {vec {x_{i}}}-b)right).}当约束条件 (1) 满足时(也就是如果
x
→
i
{displaystyle {vec {x}}_{i}}
位于边距的正确一侧)此函数为零。对于间隔的错误一侧的数据,该函数的值与距间隔的距离成正比。
然后我们希望最小化[
1
n
∑
i
=
1
n
max
(
0
,
1
−
y
i
(
w
→
⋅
x
i
→
−
b
)
)
]
+
λ
‖
w
→
‖
2
,
{displaystyle left+lambda lVert {vec {w}}rVert ^{2},}其中参数
λ
{displaystyle lambda }
用来权衡增加间隔大小与确保
x
→
i
{displaystyle {vec {x}}_{i}}
位于间隔的正确一侧之间的关系。因此,对于足够小的
λ
{displaystyle lambda }
值,如果输入数据是可以线性分类的,则软间隔SVM与硬间隔SVM将表现相同,但即使不可线性分类,仍能学习出可行的分类规则。万普尼克在1963年提出的原始最大间隔超平面算法构造了一个线性分类器。而1992年,Bernhard E. Boser、Isabelle M. Guyon和弗拉基米尔·万普尼克提出了一种通过将核技巧(英语:kernel trick)(最初由Aizerman et al.提出)应用于最大边界超平面来创建非线性分类器的方法。 所得到的算法形式上类似,除了把点积换成了非线性核函数。这就允许算法在变换后的特征空间中拟合最大间隔超平面。该变换可以是非线性的,而变换空间是高维的;虽然分类器是变换后的特征空间中的超平面,但它在原始输入空间中可以是非线性的。值得注意的是,更高维的特征空间增加了支持向量机的泛化误差,但给定足够多的样本,算法仍能表现良好。常见的核函数包括:由等式
k
(
x
i
→
,
x
j
→
)
=
φ
(
x
i
→
)
⋅
φ
(
x
j
→
)
{displaystyle k({vec {x_{i}}},{vec {x_{j}}})=varphi ({vec {x_{i}}})cdot varphi ({vec {x_{j}}})}
,核函数与变换
φ
(
x
i
→
)
{displaystyle varphi ({vec {x_{i}}})}
有关。变换空间中也有 w 值,
w
→
=
∑
i
α
i
y
i
φ
(
x
→
i
)
{displaystyle textstyle {vec {w}}=sum _{i}alpha _{i}y_{i}varphi ({vec {x}}_{i})}
。与 w 的点积也要用核技巧来计算,即
w
→
⋅
φ
(
x
→
)
=
∑
i
α
i
y
i
k
(
x
→
i
,
x
→
)
{displaystyle textstyle {vec {w}}cdot varphi ({vec {x}})=sum _{i}alpha _{i}y_{i}k({vec {x}}_{i},{vec {x}})}
。计算(软间隔)SVM分类器等同于使下面表达式最小化[
1
n
∑
i
=
1
n
max
(
0
,
1
−
y
i
(
w
⋅
x
i
+
b
)
)
]
+
λ
‖
w
‖
2
.
(
2
)
{displaystyle left+lambda lVert wrVert ^{2}.qquad (2)}如上所述,由于我们关注的是软间隔分类器,
λ
{displaystyle lambda }
选择足够小的值就能得到线性可分类输入数据的硬间隔分类器。下面会详细介绍将(2)简化为二次规划问题的经典方法。之后会讨论一些最近才出现的方法,如次梯度下降法和坐标下降法。最小化(2)可以用下面的方式改写为目标函数可微的约束优化问题。对所有
i
∈
{
1
,
…
,
n
}
{displaystyle iin {1,,ldots ,,n}}
我们引入变量
ζ
i
=
max
(
0
,
1
−
y
i
(
w
⋅
x
i
+
b
)
)
{displaystyle zeta _{i}=max left(0,1-y_{i}(wcdot x_{i}+b)right)}
。注意到
ζ
i
{displaystyle zeta _{i}}
是满足
y
i
(
w
⋅
x
i
+
b
)
≥
1
−
ζ
i
{displaystyle y_{i}(wcdot x_{i}+b)geq 1-zeta _{i}}
的最小非负数。因此,我们可以将优化问题叙述如下minimize
1
n
∑
i
=
1
n
ζ
i
+
λ
‖
w
‖
2
{displaystyle {text{minimize }}{frac {1}{n}}sum _{i=1}^{n}zeta _{i}+lambda |w|^{2}}subject to
y
i
(
x
i
⋅
w
+
b
)
≥
1
−
ζ
i
and
ζ
i
≥
0
,
for all
i
.
{displaystyle {text{subject to }}y_{i}(x_{i}cdot w+b)geq 1-zeta _{i},{text{ and }},zeta _{i}geq 0,,{text{for all }}i.}这就叫做原型问题。通过求解上述问题的拉格朗日对偶(英语:Duality (optimization)),得到简化的问题maximize
f
(
c
1
…
c
n
)
=
∑
i
=
1
n
c
i
−
1
2
∑
i
=
1
n
∑
j
=
1
n
y
i
c
i
(
x
i
⋅
x
j
)
y
j
c
j
,
{displaystyle {text{maximize}},,f(c_{1}ldots c_{n})=sum _{i=1}^{n}c_{i}-{frac {1}{2}}sum _{i=1}^{n}sum _{j=1}^{n}y_{i}c_{i}(x_{i}cdot x_{j})y_{j}c_{j},}subject to
∑
i
=
1
n
c
i
y
i
=
0
,
and
0
≤
c
i
≤
1
2
n
λ
for all
i
.
{displaystyle {text{subject to }}sum _{i=1}^{n}c_{i}y_{i}=0,,{text{and }}0leq c_{i}leq {frac {1}{2nlambda }};{text{for all }}i.}这就叫做对偶问题。由于对偶最小化问题是受线性约束的
c
i
{displaystyle c_{i}}
的二次函数,所以它可以通过二次规划算法高效地解出。
这里,变量
c
i
{displaystyle c_{i}}
定义为满足w
→
=
∑
i
=
1
n
c
i
y
i
x
→
i
{displaystyle {vec {w}}=sum _{i=1}^{n}c_{i}y_{i}{vec {x}}_{i}}
.此外,当
x
→
i
{displaystyle {vec {x}}_{i}}
恰好在间隔的正确一侧时
c
i
=
0
{displaystyle c_{i}=0}
,且当
x
→
i
{displaystyle {vec {x}}_{i}}
位于间隔的边界时
0
<
c
i
<
(
2
n
λ
)
−
1
{displaystyle 0<c_{i}<(2nlambda )^{-1}}
。因此,
w
→
{displaystyle {vec {w}}}
可以写为支持向量的线性组合。
可以通过在间隔的边界上找到一个
x
→
i
{displaystyle {vec {x}}_{i}}
并求解y
i
(
w
→
⋅
x
→
i
+
b
)
=
1
⟺
b
=
y
i
−
w
→
⋅
x
→
i
.
{displaystyle y_{i}({vec {w}}cdot {vec {x}}_{i}+b)=1iff b=y_{i}-{vec {w}}cdot {vec {x}}_{i}.}得到偏移量
b
{displaystyle b}
。(注意由于
y
i
=
±
1
{displaystyle y_{i}=pm 1}
因而
y
i
−
1
=
y
i
{displaystyle y_{i}^{-1}=y_{i}}
。)假设我们要学习与变换后数据点
φ
(
x
→
i
)
{displaystyle varphi ({vec {x}}_{i})}
的线性分类规则对应的非线性分类规则。此外,我们有一个满足
k
(
x
→
i
,
x
→
j
)
=
φ
(
x
→
i
)
⋅
φ
(
x
→
j
)
{displaystyle k({vec {x}}_{i},{vec {x}}_{j})=varphi ({vec {x}}_{i})cdot varphi ({vec {x}}_{j})}
的核函数
k
{displaystyle k}
。我们知道变换空间中的分类向量
w
→
{displaystyle {vec {w}}}
满足w
→
=
∑
i
=
1
n
c
i
y
i
φ
(
x
→
i
)
,
{displaystyle {vec {w}}=sum _{i=1}^{n}c_{i}y_{i}varphi ({vec {x}}_{i}),}其中
c
i
{displaystyle c_{i}}
可以通过求解优化问题maximize
f
(
c
1
…
c
n
)
=
∑
i
=
1
n
c
i
−
1
2
∑
i
=
1
n
∑
j
=
1
n
y
i
c
i
(
φ
(
x
→
i
)
⋅
φ
(
x
→
j
)
)
y
j
c
j
=
∑
i
=
1
n
c
i
−
1
2
∑
i
=
1
n
∑
j
=
1
n
y
i
c
i
k
(
x
→
i
,
x
→
j
)
y
j
c
j
{displaystyle {begin{aligned}{text{maximize}},,f(c_{1}ldots c_{n})&=sum _{i=1}^{n}c_{i}-{frac {1}{2}}sum _{i=1}^{n}sum _{j=1}^{n}y_{i}c_{i}(varphi ({vec {x}}_{i})cdot varphi ({vec {x}}_{j}))y_{j}c_{j}\&=sum _{i=1}^{n}c_{i}-{frac {1}{2}}sum _{i=1}^{n}sum _{j=1}^{n}y_{i}c_{i}k({vec {x}}_{i},{vec {x}}_{j})y_{j}c_{j}\end{aligned}}}subject to
∑
i
=
1
n
c
i
y
i
=
0
,
and
0
≤
c
i
≤
1
2
n
λ
for all
i
.
{displaystyle {text{subject to }}sum _{i=1}^{n}c_{i}y_{i}=0,,{text{and }}0leq c_{i}leq {frac {1}{2nlambda }};{text{for all }}i.}得到。与前面一样,可以使用二次规划来求解系数
c
i
{displaystyle c_{i}}
。同样,我们可以找到让
0
<
c
i
<
(
2
n
λ
)
−
1
{displaystyle 0<c_{i}<(2nlambda )^{-1}}
的索引
i
{displaystyle i}
,使得
φ
(
x
→
i
)
{displaystyle varphi ({vec {x}}_{i})}
位于变换空间中间隔的边界上,然后求解b
=
w
→
⋅
φ
(
x
→
i
)
−
y
i
=
[
∑
k
=
1
n
c
k
y
k
φ
(
x
→
k
)
⋅
φ
(
x
→
i
)
]
−
y
i
=
[
∑
k
=
1
n
c
k
y
k
k
(
x
→
k
,
x
→
i
)
]
−
y
i
.
{displaystyle {begin{aligned}b={vec {w}}cdot varphi ({vec {x}}_{i})-y_{i}&=left-y_{i}\&=left-y_{i}.end{aligned}}}最后,可以通过计算下式来分类新点z
→
↦
sgn
(
w
→
⋅
φ
(
z
→
)
+
b
)
=
sgn
(
[
∑
i
=
1
n
c
i
y
i
k
(
x
→
i
,
z
→
)
]
+
b
)
.
{displaystyle {vec {z}}mapsto operatorname {sgn}({vec {w}}cdot varphi ({vec {z}})+b)=operatorname {sgn} left(left+bright).}用于找到SVM分类器的最近的算法包括次梯度下降和坐标下降。当处理大的稀疏数据集时,这两种技术已经被证明有着显著的优点——当存在许多训练实例时次梯度法是特别有效的,并且当特征空间的维度高时,坐标下降特别有效。SVM的次梯度下降算法直接用表达式f
(
w
→
,
b
)
=
[
1
n
∑
i
=
1
n
max
(
0
,
1
−
y
i
(
w
⋅
x
i
+
b
)
)
]
+
λ
‖
w
‖
2
.
{displaystyle f({vec {w}},b)=left+lambda lVert wrVert ^{2}.}注意
f
{displaystyle f}
是
w
→
{displaystyle {vec {w}}}
与
b
{displaystyle b}
的凸函数。因此,可以采用传统的梯度下降(或SGD(英语:Stochastic gradient descent))方法,其中不是在函数梯度的方向上前进,而是在从函数的次梯度中选出的向量的方向上前进。该方法的优点在于,对于某些实现,迭代次数不随着数据点的数量
n
{displaystyle n}
而增加或减少。SVM的坐标下降算法基于对偶问题maximize
f
(
c
1
…
c
n
)
=
∑
i
=
1
n
c
i
−
1
2
∑
i
=
1
n
∑
j
=
1
n
y
i
c
i
(
x
i
⋅
x
j
)
y
j
c
j
,
{displaystyle {text{maximize}},,f(c_{1}ldots c_{n})=sum _{i=1}^{n}c_{i}-{frac {1}{2}}sum _{i=1}^{n}sum _{j=1}^{n}y_{i}c_{i}(x_{i}cdot x_{j})y_{j}c_{j},}subject to
∑
i
=
1
n
c
i
y
i
=
0
,
and
0
≤
c
i
≤
1
2
n
λ
for all
i
.
{displaystyle {text{subject to }}sum _{i=1}^{n}c_{i}y_{i}=0,,{text{and }}0leq c_{i}leq {frac {1}{2nlambda }};{text{for all }}i.}对所有
i
∈
{
1
,
…
,
n
}
{displaystyle iin {1,,ldots ,,n}}
进行迭代,使系数
c
i
{displaystyle c_{i}}
的方向与
∂
f
/
∂
c
i
{displaystyle partial f/partial c_{i}}
一致。然后,将所得的系数向量
(
c
1
′
,
…
,
c
n
′
)
{displaystyle (c_{1}',,ldots ,,c_{n}')}
投影到满足给定约束的最接近的系数向量。(通常使用欧氏距离。)然后重复该过程,直到获得接近最佳的系数向量。所得的算法在实践中运行非常快,尽管已经证明的性能保证很少。SVM属于广义线性分类器的一族,并且可以解释为感知器的延伸。它们也可以被认为是吉洪诺夫正则化的特例。它们有一个特别的性质,就是可以同时最小化经验误差和最大化几何边缘区; 因此它们也被称为最大间隔分类器。Meyer、Leisch和Hornik对SVM与其他分类器进行了比较。SVM的有效性取决于核函数、核参数和软间隔参数 C 的选择。
通常会选只有一个参数
γ
{displaystyle gamma }
的高斯核。C 和
γ
{displaystyle gamma }
的最佳组合通常通过在 C 和
γ
{displaystyle gamma }
为指数增长序列下网格搜索(英语:grid search)来选取,例如
C
∈
{
2
−
5
,
2
−
3
,
…
,
2
13
,
2
15
}
{displaystyle Cin {2^{-5},2^{-3},dots ,2^{13},2^{15}}}
;
γ
∈
{
2
−
15
,
2
−
13
,
…
,
2
1
,
2
3
}
{displaystyle gamma in {2^{-15},2^{-13},dots ,2^{1},2^{3}}}
。通常情况下,使用交叉验证来检查参数选择的每一个组合,并选择具有最佳交叉验证精度的参数。或者,最近在贝叶斯优化中的工作可以用于选择C和γ,通常需要评估比网格搜索少得多的参数组合。或者,贝叶斯优化(英语:Bayesian optimization)的最近进展可以用于选择 C 和
γ
{displaystyle gamma }
,通常需要计算的参数组合比网格搜索少得多。然后,使用所选择的参数在整个训练集上训练用于测试和分类新数据的最终模型。SVM的潜在缺点包括以下方面:最大间隔超平面的参数是通过求解优化得到的。有几种专门的算法可用于快速解决由SVM产生的QP问题,它们主要依靠启发式算法将问题分解成更小、更易于处理的子问题。另一种方法是使用内点法(英语:interior point method),其使用类似牛顿法的迭代找到卡罗需-库恩-塔克条件下原型和对偶型的解。
这种方法不是去解决一系列分解问题,而是直接完全解决该问题。为了避免求解核矩阵很大的线性系统,在核技巧中经常使用矩阵的低秩近似。另一个常见的方法是普莱特的序列最小优化算法(SMO),它把问题分成了若干个可以解析求解的二维子问题,这样就可以避免使用数值优化算法和矩阵存储。线性支持向量机的特殊情况可以通过用于优化其类似问题逻辑回归的同类算法更高效求解;这类算法包括次梯度下降法(如PEGASOS)和坐标下降法(如LIBLINEAR)。LIBLINEAR有一些引人注目的训练时间上的特性。每次收敛迭代花费在读取训练数据上的时间是线性的,而且这些迭代还具有Q-线性收敛(英语:Rate of convergence)特性,使得算法非常快。一般的核SVM也可以用次梯度下降法(P-packSVM)更快求解,在允许并行化时求解速度尤其快。许多机器学习工具包都可以使用核SVM,有LIBSVM(英语:LIBSVM)、MATLAB、SAS、SVMlight、kernlab、scikit-learn(英语:scikit-learn)、Shogun(英语:Shogun (toolbox))、Weka、Shark、JKernelMachines、OpenCV等。
相关
- 抗组织胺抗组胺药(法语:Antihistaminique,英语:Antihistamine,德语:Antihistaminikum),通常指H1-受体拮抗剂,是一种,透过对体内H1-受体(组胺受体之一种)的作用,减少组胺对这些受体产生效应,从而减
- 真值在逻辑中,真值(truth value),又称逻辑值(logical value),是指示一个陈述在什么程度上是真的。在计算机编程上多称做布林值、布尔值。在经典逻辑中,唯一可能的真值是真和假。但在其他
- 生物物理化学生物物理化学是物理学的分支,它使用物理学和物理化学的概念来研究生物系统。这门学科的研究最普遍的特征是试图根据构成系统的分子或这些系统的超分子结构来解释生物系统中的
- 学科列表这是一个学科的列表。学科是在大学教学(教育)与研究的知识分科。学科是被发表研究和学术杂志、学会和系所所定义及承认的。领域通常有子领域或分科,而其之间的分界是随便且模
- 印度教印度教是世界主要宗教之一,是南亚次大陆占主导地位的宗教,并包含许多不同的传统。印度教基于一种独有的知识或哲学观点。它包括了婆罗门教的湿婆派、毗湿奴派、沙克达教及其他
- 小分子RNA小分子核糖核酸(英语:microRNA,缩写为miRNA)又译微核糖核酸,是真核生物中广泛存在的一种长约21到23个核苷酸的核糖核酸(RNA)分子,可调节其他基因的表达。miRNA来自一些从DNA转录而来
- 造纸术造纸术相传是由中国东汉时代的蔡伦(63-121年)所改良,但是也有考古证据说明,造纸术早就存在,蔡伦只是改进造纸术的重要发展者,使造纸的成功率更高,成本更低。造纸术被称为中国古代四
- 锌电池锌电池可能指:
- 苍蝇船苍蝇船(法语:Bateaux mouches)是一种开放式游船,提供给到巴黎的游客们近距离欣赏塞纳河沿岸风光。苍蝇船原本是一间游船公司的注册商标,由让·布乃尔所创立,不过现在亦可通称所有
- 闽南闽南(闽南语:.mw-parser-output .sans-serif{font-family:-apple-system,BlinkMacSystemFont,"Segoe UI",Roboto,Lato,"Helvetica Neue",Helvetica,Arial,sans-serif} Bân-l