logistic Regression
什么是Logisitic Regression
∑iwixi+b
将每一个feature乘以一个weight,加上偏置,再通过一个Sigmoid function.
Sigmoid function将其映射到(0,1)之间。
ML04所讲的generative model 和logistic regression有什么联系呢?
上节课所要得的后验概率:
P(C1|x)=p(x|C1)P(C1)p(x|C1)P(C1)+p(x|C2)P(C2)
对于这种贝叶斯所得的后验概率,将分子和分母同时除以P(x|C1)P(C1)即可得,
P(C1|x)=11+P(x|C1)P(C1)P(x|C2)P(C2)
这里,令z=ln(P(x|C1)P(C1)P(x|C2)P(C2))
这个时候,σ(z)=11+exp(−z)
是一个Sigmoid function.
这里,将我们之前所得的先验概率带入,P(x|C1),P(x|C2)
就可以发现z=wTx+b
linear v.s.Logistic
Linear:fw,b=∑iwixi+b