第五章参数估计与非参数估计课件_图文

第五章 参数估计与非参数估计
? 参数估计与监督学习 ? 参数估计理论 ? 非参数估计理论

§5-1 参数估计与监督学习 贝叶斯分类器中只要知道先验概率,条件概率或后验概 概率 P(ωi),P(x/ωi), P(ωi /x)就可以设计分类器了。现在 来研究如何用已知训练样本的信息去估计P(ωi),P(x/ωi), P(ωi /x) 一.参数估计与非参数估计 参数估计:先假定研究的问题具有某种数学模型,如
正态分布,二项分布,再用已知类别的学习 样本估计里面的参数。 非参数估计:不假定数学模型,直接用已知类别的学习 样本的先验知识直接估计数学模型。

二.监督学习与无监督学习 监督学习:在已知类别样本指导下的学习和训练,
参数估计和非参数估计都属于监督学习。 无监督学习:不知道样本类别,只知道样本的某些
信息去估计,如:聚类分析。

§5-2参数估计理论 一.最大似然估计
假定:
①待估参数θ是确定的未知量 ②按类别把样本分成M类X1,X2,X3,… XM
其中第i类的样本共N个
Xi = (X1,X2,… XN)T 并且是独立从总体中抽取的
③ Xi中的样本不包含? j (i≠j)的信息,所以可以对每一
类样本独立进行处理。
④ 第i类的待估参数 ? i ? (?1,? 2,...? n)T
根据以上四条假定,我们下边就可以只利用第i类学习样 本来估计第i类的概率密度,其它类的概率密度由其它类 的学习样本来估计。

1.一般原则:
第i类样本的类条件概率密度:
P(Xi/ωi)= P(Xi/ωi﹒θi) = P(Xi/θi) 原属于i类的学习样本为Xi=(X1 , X2 ,…XN,)T i=1,2,…M 求θi的最大似然估计就是把P(Xi/θi)看成θi的函数,求
出使它最大时的θi值。
∵学习样本独立从总体样本集中抽取的

N
∴ P( X i | ?i.? i) ? P( X i |? i) ? ? P( X k |? i)
k ?1

N个学习样本出现概率的乘积

N

N

? ? 取对数 : log P( X k |? i) ? log P( X k |? i)

k ?1

k ?1

对θi求导,并令它为0:

???

? ?
? ? ?

??1
... ?

?? ?? p

? ? ? ? ??

N k ?1

log

P( X

k

|?

i)

?

0

P(Xi/θi)

? ?
? ?

N k ?1

?
??

1

logP(

X

k

|

?

i)

?

0

?.........

??.........

? ?
? ?

N k ?1

?
??

p

logP(

X

k

|

?

i)

?

0

?

?

利用上式求出? i的估值? ,即为? i=?

?

有时上式是多解的, 上图有5个解,只有一个解最大即.?

2. 多维正态分布情况

① ∑已知, μ 未知,估计μ

P( X i |? i) 服从正态分布

待估参数为 ? i ? ?1 ? ?

?N ?
k?1 ? ?

logP(X k | ?) ? 0

所以在正态分布时

? P(

X

k

|

?

)

?

?

1 2

log[?

2?

?n

|

?

|]

?

1 2

?

X

k

?

?

?T

??1 X k ? ? ?

代入上式得

N
?

? ? ?1

X

k

?

?

?

?

0

k ?1

??1

N
?? X k ? ?? ? 0

k ?1

N
? ? 所以 ?1( X k ? N?) ? 0 k ?1

? ?

?
??

?

1 N

N
Xk
k ?1

这说明未知均值的最大似然估计正好是训练样本的算术

平均。

② ∑, μ 均未知

A. 一维情况:n=1对于每个学习样本只有一个特征的简单

情况:

?1

?

?1,?

2

?

?

2 1

? ? ? ?

log

P(

X

k

|

?

i

)

?

?

1 2

log

2?

?

2

?

1
2?

2

Xk

2
?1

(n=1)由上式得

? ? N
代入
k ?1

?
??1

log

P(X

k

|?

i)

?

N k ?1

1 (X
?2

k

? ? 1)

?

0

? ? N
k ?1

?
?? 2

log

P( X

k

| ? i)

?

N
[?
k ?1

1
2? 2

?

(X k ??1)2]

2?

2 2

?

0

? ? ?
?? 1 ? ?1 ?

1 N

N k ?1

Xk

即学习样本的算术平均

?? ? ?

?

??

2

?

?

2 1

?

1 N

N k ?1

?2
Xk??

样本方差

? 讨论: 1.正态总体均值的最大似然估计即为学习样本的算术平均 2.正态总体方差的最大似然估计与样本的方差不同,当N较 大的时候,二者的差别不大。
B.多维情况:n个特征(学生可以自行推出下式)

? ? ? ? ? ?
估计值:?1 ?

?
?

?

1 N

N k ?1

Xk

? ? ? 1 N

?

? 2 ? ? ? N k?1 X k ? ?

?T
Xk??

结论:①μ 的估计即为学习样本的算术平均

? ?? ? ?
②估计的协方差矩阵是矩阵 X k ? ?

?T
X k ? ? 的算术

平均(nⅹn阵列, nⅹn个值)

二.贝叶斯估计
最大似然估计是把待估的参数看作固定的未知量,而贝叶斯

估计则是把待估的参数作为具有某种先验分布的随机变量,通

过对第i类学习样本Xi的观察,使概率密度分布P(Xi/θ)转化为

后验概率P(θ/Xi) ,再求贝叶斯估计。

估计步骤:

① 确定θ的先验分布P(θ),待估参数为随机变量。

② 用第i类样本xi=(x1, x2,…. xN)T求出样本的联合概率密度分布

P(xi|θ),它是θ的函数。 ③ 利用贝叶斯公式,求θ的后验概率

P(? | X i) ? P( X i |? ).P(? )
? P(X i |? )P(? )d?
?

?

? ④ 求贝叶斯估计? ? ?P(? | X i)d?(证明略) ?

下面以正态分布的均值估计为例说明贝叶斯估计的过程

一维正态分布:已知σ2,估计μ 假设概率密度服从正态分布

P(X|μ )=N(μ ,σ2), P(μ )=N(μ 0,σ02) 第i类学习样本xi=(x1, x2,…. xN)T, 第i类概率密度P(x|μ i,xi)=P(x|xi)

i=1,2,…M

所以后验概率

P(?

|

X

i)

?

?

P( X i | ? ).P(?) P( X i | ?)P(?)d?(贝叶斯公式)

因为N个样本是独立抽取的,所以上式可以写成

N

? ? P(? | X i) ? a P(X k | ?).P(?)

? k ?1
其中 a ?

1
P( X i | ?)P(?)d? 为比例因子,只与x有关,与μ 无关

∵ P(Xk| μ )=N(μ ,σ2),P(u)=N(μ 0,σ02)

? ? ? ? ?N
?P(? | X i) ? a

1

exp{? 1 Xk ? ? 2

1

exp[ ? 1

?

? ?0

2
]}

k?1 2??

2 ? 2??

2 ?0

? ? ? ? ? ? a'exp{? 1[ N

Xk ? ?

2
?

? ??0

2
]}

2 k?1 ?

?0

? ?

a' ' exp{ ?

1 2

[( N
?2

?

1)

?

2 0

?2

?

2( 1
?2

N k ?1

Xk

?

? 0 )?]}

?

2 0

其中a’,a’’包含了所有与μ 无关的因子

∴P(μ | xi)是u的二次函数的指数函数

∴P(μ | xi)仍然是一个正态函数, P(μ |Xi)=N(μ N,σN2)

? ? 另外后验概率可以直接写成正态形式:P(? | X i) ?

1

exp[ ? 1

? ? ?N

2
]

2? ?N

2 ?N

比较以上两个式子,对应的系数应该相等



?1 ???N

2

?

N ?2

?

1

?

2 0

? ?
?

?

N

???N 2

?

1
?2

N k ?1

Xk

?

?0

?

2 0

? 解以上两式得 ? ?

?

2 0

N
Xk ?

?2

?0

N

N

?

2 0

??

2

k ?1

N

?

2 0

?

?

2

?N 2

?

?

2 0

?

2

N

?

2 0

?

?

2

将μ N,σN2代入P(μ |Xi)可以得到后验概率,再用公式

?
? ? ? ?P(? | X i)d? , 求?的估计 ?

?
? ∵ ? ? ?P(? | X i)d? ? ? N

∴对μ 的估计为

? ?
?N

?

?N

?

N

?

2 0

?

2 0

?

?

2

N k ?1

Xk

?

N

?2

?

2 0

?

?

2

?0

若令P(μ )=N(μ 0, σ02 )=N(0,1)

? ?
?? ?

1

N
Xk 与最大似然估计相似,只是分母不同

N N ? 1 k ?1

三.贝叶斯学习 1.贝叶斯学习的概念:求出μ 的后验概率之后,直接去推导总
? ? 体分布即P(X | Xi) ? P(X |? )P(? | Xi)d? ? P(X | ?)P(? | Xi)d?
当观察一个样本时,N=1就会有一个μ 的估计值的修正值 当观察N=4时,对μ 进行修正,向真正的μ 靠近 当观察N=9时,对μ 进行修正,向真正的μ 靠的更近 当N↑,μ N就反映了观察到N个样本后对μ 的最好推测,而σN2 反映了这种推测的不确定性, N↑, σN2↓,σN2 随观察样本增 加而单调减小,且当N→∞, σN2 →0 当N↑,P(μ |xi)越来越尖峰突起 N→∞, P(μ |xi)→σ函数,这个过程成为贝叶斯学习。

2.类概率密度的估计 在求出u的后验概率P(μ |xi)后,可以直接利用式

? P(x | xi) ? P(x |?)? P(? | xi)d? 推断类条件概率密度。

即P(x|xi)= P(x|ω i ,xi) ⑴一维正态:已知σ2,μ 未知

∵μ 的后验概率为

? ? P(? | xi) ? P(? | xi) ?

1

exp[? 1

??? N

2? ]?

2? ? N

2 ?N

? ? P(x | ?) ?

1

exp[? 1

x??

2
]

2? ?

2?

??服从正态分布 ? ? ?

代入P(x | xi) ? ? P(x |? ) ? P(? | xi)d? ? ? P(x | ?) ? P(? | xi)d?

? ? ? ? ??

1

exp[ ? 1

x??

2
]

1

exp[ ? 1

??? N

2
]d?

2? ?

2?

2? ? N

2 ?N

? ? ? ? ? ?

1

exp[? 1

x?? N

2

exp[?

1

?

2 N

?

?

2

?

?

?

2 N

x

?

?

2

?

N

2
]d?

2? ? ? N

2

?

2 N

?

?

2

2

?

2 N

??

2

?

2 N

?

?

2

2

?

1

exp[? 1 ??

x?? N

?? ]

2?

?

2 N

?

?

2

? ? 2

?

2 N

?

?

2

?

N

(?

N

,?

2 N

?

?

2)为正态函数

? 结论:

①把第i类的先验概率P(ω i)与第i类概率密度P(x|xi)相乘可以

得到第i类的后验概率P(ω i/x) ,根据后验概率可以分类。

②对于正态分布P(x|xi),用样本估计出来的μ N代替原来的μ



?

2 N

?

?

2

代替原来的方差 ?

2

即可。

③把估计值μ N作为μ 的实际值,那么使方差由原来的? 2 变

为?

2 N

??2

,使方差增大

⑵多维正态( 已知Σ ,估计μ ) 设P(x|μ )=N(μ ,∑) P(μ )=N(μ 0,∑0).

根据Bayes公式,仿上面步骤可以得到:

? P(?

|

xi)

?

a

exp[?

1 2

?

?

?

?

N

?T

? ? ?1
N

? ??N

]

其中a与μ 无关

Σ N , μ N 有以下关系

? ? ? ?1 ? N ?1 ? ?1 ...........(A)

N

0

? ? ? ? ? ?1 NN

?

?1 ( N xk ) ?

?1 0

?

0.

.......( B)

k ?1

?1

由( A)式得: ?N

?

?0

?? ?

?0

?

1 N

?

?? ?

1 N

?

?1

代入(B)

式得:?

N

?

?0

?? ?

?0

?

1 N

?

?? ?

? ? ? ? (

1 N

N k ?1

xk) ?

1 N

( ?1 0N

?1 ) ?0

这就是在多维情况下,对μ 的估计
? 将?N代入P(x | xi) ? P(x | ? )P(? | xi)d?就可以
设计Bayes分类器

§ 5-3非参数估计

参数估计要求密度函数的形式已知,但这种假定有时并不成

立,常见的一些函数形式很难拟合实际的概率密度,经典的密

度函数都是单峰的,而在许多实际情况中却是多峰的,因此用

非参数估计。

非参数估计:直接用已知类别样本去估计总体密度分布,方法有:

① 用样本直接去估计类概率密度p(x/ωi)以此来设计分类器, 如窗口估计

② 用学习样本直接估计后验概率p(ωi/x)作为分类准则

来设计分类器如k近邻法.

1. 密度估计:一个随机变量X落在区域R的概率为P

R

? P ? R P(x')dx ? Pr?x ? R?

P(x)

P(X’)为P(X)在R内的变化值,P(X)就是要求的总体概率密度

假设有N个样本X=(X1, X2,… XN)T都是按照P(X)从总体中独 立抽取的

若N个样本中有k个落入在R内的概率符合二项分布

? ? Pk

?

C

k N

pk

1? P

N ?k

数学期望:E(k)=k=NP

其中P是样本X落入R内的概率 Pk是k个样本落入R内的概率

∴对概率P的估计:P ? k 。 N

k 是P的一个比较好的估计 N

?

P

?

?R

P(x'

)dx'

?

k N

设P(x’)在R内连续变化,当R逐渐减小的时候,小到使P(x)在其上

? 几乎没有变化时,则
P ? P(x')dx'? P(x) ?V

?

k

R

N

? 其中 V ? dx' 是R包围的体积 R

∴ P(x) ?V ? P ? k

N

k

∴ 条件密度的估计:P(x) ? N

V

(V足够小)

讨论:① 当V固定的时候N增加, k也增加,当 N ? ? 时 k ? ?

?P ?

k

?1

P(x) ?

k N

?

1 只反映了P(x)的空间平均估计

N

VV

而反映不出空间的变化

② N固定,体积变小

k

当 V ? 0时,k=0时 P(x) ? N ? 0

V

k

k ? 0 时 P(x) ? N ? ?

V

所以起伏比较大,噪声比较大,需要对V进行改进.

对体积V进行改进:

为了估计X点的密度,我们构造一串包括X的区域序列R1,R2,.. RN. 对R1采用一个样本进行估计,对R2采用二个样本进行估计..。 设VN是RN的体积,KN是N个样本落入VN的样本数则

kN 密度的第N次估计: PN (x) ? VN

VN是RN的体积

∴PN(x)是P(x)的第N次估计

KN是N个样本落入VN的样本数

若PN(x)收敛于P(x)应满足三个条件:



lim V
N ??

N

?0

,当N↑时,VN↓,N→∞,VN→0

这时虽然样本数多,但由于VN↓,落入VN内的样本KN

也减小,所以空间变化才反映出来



lim K N ? ?
N ??

,N ↑ ,kN ↑ ,N与KN同相变化



lim
N ??

KN N

?

0

,KN的变化远小于N的变化。

因此尽管在

R内落入了很多的样本,但同总数N比较, 仍然是很小

的一部分。

如何选择VN满足以上条件:

①使体积VN以N的某个函数减小,如V N ? h

N

(h为常数) 窗口法

②使KN作为N的某个函数,例 K N ? N

VN的选择使RN正好包含KN个近邻

V1→K1,V2→K2,..VR→KR →Kn近邻法

2.Parzen窗口估计

假设RN为一个d维的超立方体,hN为超立方体的长度
∴超立方体体积为:V N ? h,dN

d=1,窗口为一线段

d=2,窗口为一平面

d=3,窗口为一立方体

d>3,窗口为一超立方体

窗口的选择:

方窗函数
Φ (u)

正态窗函数

指数窗函数

Φ (u)

Φ (u)

hN

? (u)

?

??1, | ?

u

|?

1 2

??0.其他

正态窗函数

?(u) ? 1 exp{? 1 u2}

2?

2

?(u) ? exp{? | u |}

∵ ф (u) 是以原点x为中心的超立方体。 ∴在xi落入方窗时,则有

???x

?

xi

?

hN 2

?

???x

?

xi

?

hN 2

在VN内为1 不在VN内为0

??[| x ? xi |] ? ?[hN 2] ? ?[1] ? 1

hN

hN

2

落入VN的样本数为所有为1者之和

? ? K N ? N ? (| x ? xi |)

i ?1

hN

? ∴ 密度估计 PN(x) ? K N N ? 1 N 1 ? (| x ? xi |)

VN

N V i?1 N

hN

讨论: ① 每个样本对估计所起的作用依赖于它到x的距离,即
| x-xi|≤hN/2时, xi在VN内为1,否则为0。



?(| x ? xi |) 称为
hN

|

x

? xi hN

|

的窗函数,取0,1两种值,但有

时可以取0, 0.1, 0.2……多种数值,例如随xi离x接近的程度,

?(|

x ? xi hN

|)

取值由0,

0.1,

0.2……到1。

③ 要求估计的PN(x)应满足:??????PPN(Nx()x?)d0x ? 1

为满足这两个条件,要求窗函数满足:

????

(|

x ? xi hN

|)

?

0

??
? ??

? |x?

x| i

?

(

|

hN

x ? xi hN

|)d (|

x ? xi hN

|)

?

0

④ 窗长度hN对PN(x)的影响 若hN太大, PN(x)是P(x)的一个平坦, 分辨率低的估计, 有平均误差 若hN太小, PN(x)是P(x)的一个不稳定的起伏大的估计,有噪声误差 为了使这些误差不严重, hN应很好选择

例1:对于一个二类( ω1 ,ω2 )识别问题,随机抽取ω1类的6 个样本X=(x1,x2,…. x6)

ω1=(x1,x2,…. x6)

=(x1=3.2,x2=3.6,x3=3,x4=6,x5=2.5,x6=1.1)

估计P(x|ω1)即PN(x)

x6

x5 x3 x1 x2

x4

x

01 2 3 解:选正态窗函数

456

?(u) ? 1 exp( ? 1 u2)

2?

2

??(u) ? ?(| x ? xi |) ? 1 exp[? 1 (| x ? xi |)2]

hN

2?

2 hN

∵x是一维的

?VN ? hN ? h1 ,其中选 h1 ? 0.5 6,N ? 6 N

?V N ? 0.5 6 ? 0.5 6

? ? PN (x)

?

1 N

N i?1

1 ?(| VN

x ? xi hN

|)

?

0.134

exp[ ? 1 (| 2

x

?

3.2

|

2
)]

?

...

0.134

05

exp[ ? 1 (| 2

x

?

1.1

|

2
)]

05

上式用图形表示是6个分别以3.2,3.6,3,6,2.5,1.1为中 心的丘形曲线(正态曲线),而PN(x)则是这些曲线之和。

由图看出,每个样本对估计的贡献与样本间 的距离有关,样本越多, PN(x)越准确。

例2:设待估计的P(x)是个均值为0,方差为1的正态密度
函数。若随机地抽取X样本中的1个、 16个、 256个作为
学习样本xi,试用窗口法估计PN(x)。 解:设窗口函数为正态的, σ=1,μ =0

?(| x ? xi |) ?
hN
设hN ? h1 N

1

exp[?

1

(|

x

?

xi

|

2
)]

2?

2 hN

hN:窗长度,N为样本数,h1为选定可调节的参数。

? ? ? ? PN(x) ? 1 N N ?(| x ? xi |) ? 1

N

1

exp[? 1 | x ? xi |

2
N]

N i?1 h1

hN

h1 N i?1 2?

2

h1

?


Parzen
窗 法 估 计 单 一 正 态 分 布 的 实 验

10.0

h1 ? 0.25

1.0

0.1

0.01

0.001 10.0

1.0

0.1

0.01

0.001 10.0

1.0

0.1

0.01

0.001 10.0

1.0

0.1

0.01

0.001 ?2 0 2

h1 ? 1 ?2 0 2

h1 ? 4 ?2 0 2

讨论:由图看出, PN(x)随N, h1的变化情况 ①当N=1时, PN(x)是一个以第一个样本为中心的
正态形状的小丘,与窗函数差不多。
②当N=16及N=256时
h1=0.25 曲线起伏很大,噪声大 h1=1 起伏减小 h1=4 曲线平坦,平均误差 ③当N→∞时, PN(x)收敛于一平滑的正态曲线, 估计曲线较好。

例3。待估的密度函数为二项分布

解:此为多峰情况的估计

P(x)

设窗函数为正态

1

?1 -0.25<x<-2

P(x) ? ??0.25 0<x<2

0.25

??0

x为其它

-2.5 -2 0

2x

解:此为多峰情况的估计

设窗函数为正态 ? (u) ? 1 exp[ ? 1 u2], hN ? h1

2?

2

N

?


Parzen
窗 法 估 计 两 个 均 匀 分 布 的 实 验

h1 ? 0.25 10.0
1.0 0.1 0.01 0.001 10.0 1.0 0.1 0.01 0.001 10.0 1.0 0.1 0.01 0.001 10.0 1.0 0.1 0.01 0.001
?2 0 2

h1 ? 1 ?2 0 2

h1 ? 4 ?2 0 2

当N=1、16、256、 ∞时的PN(x)估计如图所示 ①当N=1时, PN(x) 实际是窗函数。
②当N=16及N=256时
h1=0.25 曲线起伏大 h1=1 曲线起伏减小 h1=4 曲线平坦 ③当N→∞时,曲线较好。

结论:
①由上例知窗口法的优点是应用的普遍性。对规则 分布,非规则分布,单锋或多峰分布都可用此法 进行密度估计。
②要求样本足够多,才能有较好的估计。因此使计 算量,存储量增大。

3.KN近邻估计:在窗口法中存在一个问题是对hN的选择问题。 若hN选太小,则大部分体积将是空的(即不包含样本),从而 使PN(x)估计不稳定。若hN选太大,则PN(x)估计较平坦,反映不 出总体分布的变化,而KN近邻法的思想是以x为中心建立空胞, 使v↑,直到捕捉到KN个样本为止。∴ 称KN-近邻估计
v的改进,样本密度大,VN ↓; 样本密度小,VN ↑;
kN ∴P(x)的估计为: PN (x) ? N ,取 k N ? N
VN

使PN(x)收敛于P(x)的充分必要条件:



lim K N ? ?
N ??

,N与KN同相变化



lim K N N ?? N

?0

,KN的变化远小于N的变化

③ 当KN=

N时,V N

?

KN N PN ( x)

?

KN N P(x)

?

N N ? 1 P(x) ? V1

P(x)

N

N

V1为N=1时的VN值

| (因为PN(x) ? P(x) ?

KN N VN

? 1 ,所以 1

V N ?1 1

P(x)

? V1)

∴KN近邻估计对KN和VN都作了限制????VKNN

? ?

?

N V1
N

KN近邻法作后验概率的估计由KN近邻估计知N个已知类别样 本落入VN内为KN个样本的概率密度估计为:
kN PN (x) ? N
VN

N个样本落入VN内有KN个,KN个样本内有Ki个样本属于ωi类

则联合概率密度:

PN (x,?i)

?

ki N

?

P(x | ?i)P(?i)

vN

根据Bayes公式可求出后验概率:

PN (?i | x) ?

P(x | ?i) ? P(?i)
N

?

PN (x,?i)
M

? ? P(x | ?i) ? P(?i)

PN (x,?i)

i?1

j?1

ki
∵ PN(x,?i) ? N
VN

? PN(x) ?

M

P(x,? j) ?

kN N

j ?1

VN

∴ 后验概率的估计: PN(?i | x) ? ki
kN

类别为ω i的后验概率就是落在VN内属于ω i的样 本ki与VN内总样本数KN的比值

K近邻分类准则:对于待分样本x,找出它的k个近邻,检查 它的类别,把x归于样本最多的那个类别。
K近邻分类的错误率随K↑,Pk↓,最低的错误率为Bayes分类。
PK
P*

4、最近邻分类准则:待分样本x,找一个离它最近的样本, 把x归于最近的样本一类。
错误率: P(e) ? P ? P(e)[2 ? M P(e)] ? 2P(e) M ?1

M为类别数P(e)为Bayes估计的错误率
最近邻分类法则的错误率P比K近邻错误率还大,但最大 不会超过贝叶斯分类器错误率的二倍。

M ?1 P
M

最近邻

K近邻

Bayes P(e)
M ?1 M


相关文档

第五章总体参数的估计课件
第五章 参数估计ppt课件
第五章参数估计与参数估计课件
第五章参数的最小二乘法估计PPT课件
第五章参数估计课件
统计学课件 第五章 参数估计(全)
统计学课件第五章参数估计-吉林师范函授本科
统计学课件(05)第5章 抽样与参数估计
商务管理学习课件 第五章 参数估计
模式识别课件 非参数估计
电脑版