机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

Logistic Regression(逻辑斯蒂回归)

Classification(分类问题)

使用1和0,或者positive和negative表示事件的相对立的两种可能情况。(这里指二元分类问题)

e.g.

垃圾邮件与非垃圾邮件等

机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

Logistic Regression Model(逻辑斯蒂回归模型)

Sigmoid Function(又Logistic Function)

g(z) = 1/(1+e-z):值的范围属于[0,1]

机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

Hypothesis Output(预测函数)

hθ(x) = g(θTx),   g(θTx) = 1/(1+eTx),其中

机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

 Decision boundary(决策边界)

 机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

 

 Cost Function(损失函数)

 J(θ) = (1/m) Σ1,m(1/2)(hθ(x(i)) - y(i))2

但是上述函数不是凸函数,存在多个极值点,为此我们转换如下:

机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

即:

机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

 Simplified Cost Function(简化损失函数)

 机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

参数优化

Gredient Decent(梯度离散下降) 

 机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

 参数更新与表达

 机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

Advanced Optimization

 机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

 Multu-class Classfication:One vs All

机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

 Regularization(正则化)

 Overfitting & Underfitting(过度拟合与欠拟合)

 相关概念

overfitting--过度拟合--high varience:拟合线与点重合比较好,但是对未来的数据点预测性极差

just right--拟合刚好

underfitting--欠拟合--high bias:拟合不充分

 e.g.

机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

Adressing Overfitting(过度拟合的解决方法)

1.删除部分特质,可以使用人为选择或者采用模型选择算法,这种方法会丢失信息,有时会导致拟合失败

 2.正则化,降低特征的值或维度,实际表现较好

机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

 Regularization

 Cost Function(含正则化的损失函数)

机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

 Regularized Linear Reguression(正则化的线性回归)

 损失函数

机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

梯度下降

机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

正规方程

机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

 

 Regularized Logistic Reguression(正则化的逻辑斯蒂回归)

 损失函数

机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

梯度下降

机器学习---吴恩达---Week3(离散问题与逻辑斯蒂回归)

 

 

上一篇:设计模式:装饰器模式


下一篇:设计模式4 装饰者模式