春节充电系列:李宏毅2017机器学习课程学习笔记05之Logistic 回归

2018 年 2 月 18 日 专知 专知内容组

【导读】我们在上一节的内容中已经为大家介绍了台大李宏毅老师的机器学习课程的classification问题,并一步步推出了sigmoid函数的形式,这一节将主要针对logistic regression 。本文内容涉及机器学习中logistic regression的若干主要问题:logistic regression的缘由、logistic regression和linear regression的差异、多分类问题及logistic regression的限制等问题。话不多说,让我们一起学习这些内容吧。

春节充电系列:李宏毅2017机器学习课程学习笔记01之简介

春节充电系列:李宏毅2017机器学习课程学习笔记02之Regression

春节充电系列:李宏毅2017机器学习课程学习笔记03之梯度下降

春节充电系列:李宏毅2017机器学习课程学习笔记04分类(Classification)


课件网址:

http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML17_2.html

视频网址:

https://www.bilibili.com/video/av15889450/index_1.html

李宏毅机器学习笔记 5 Logistic regression


1. Logistic regression的缘由




从上一系列classification最后的部分中,我们最终得到分类问题可以用sigmoid函数和一个线性函数表示。


既然我们知道分类问题最终表示为一个sigmoid加一个线性函数,线性函数的w和b可以由一系列复杂公式得出,我们能不能直接求出w和b而不用之前那么复杂的假设和公式?这个问题称之为logistic regression


先看分类问题的函数集


图形化为下图所示(我真的惊讶这个图原来是这样来的)


定义一系列training data:x1,x2,x3…及其标签,我们定义了新的loss function,目的在于最大化这个loss function


将loss function取负并且对数化,我们就可以minimize loss function了


继续简化可以得到交叉熵代价函数的形式


用loss function对wi做偏微分,我们可以得到w梯度下降的公式


2. logistic regression和linear regression的差异




以下是logistic regression与linear regression的对比形式


倘若我们将cross entropy改为square error的形式,我们会发现最终loss function对w的偏微分为0,无法对w进行优化


直接求w,b的方法称为discrimination model,上篇笔记的高斯模型方法称为generative model


对于之前的pokemon的例子,我们可以发现discriminative model效果更好。因为generative model已经做了脑补的事情,可能无法更好的表现客观事实


但当data很少时候,generation model更好,因为data少时,discrimination受噪音影响比较大

 

3. 多分类问题




对于多分类问题,我们采用的不是sigmoid function,而是softmax function


训练结构略图如下,注意下图的cross entropy前面应该有负号(ppt中写错)


4. logistic regression的限制




logistic regression也有限制,无法处理简单的异或问题


因为logistic regression的边界是一条直线


我们可以将多个logistic regression model级联起来解决这个问题


第一部分做feature transformation,第二部分做classification


由这个启发,我们将多个logistic model级联起来,我们就得到了neural network

请关注专知公众号(扫一扫最下面专知二维码,或者点击上方蓝色专知),

  • 后台回复“LHY2017” 就可以获取 2017年李宏毅中文机器学习课程下载链接~

-END-

专 · 知


人工智能领域主题知识资料查看获取【专知荟萃】人工智能领域26个主题知识资料全集(入门/进阶/论文/综述/视频/专家等)

同时欢迎各位用户进行专知投稿,详情请点击

诚邀】专知诚挚邀请各位专业者加入AI创作者计划了解使用专知!

请PC登录www.zhuanzhi.ai或者点击阅读原文,注册登录专知,获取更多AI知识资料

请扫一扫如下二维码关注我们的公众号,获取人工智能的专业知识!

请加专知小助手微信(Rancho_Fang),加入专知主题人工智能群交流!


点击“阅读原文”,使用专知

登录查看更多
5

相关内容

专知会员服务
42+阅读 · 2020年7月7日
少标签数据学习,54页ppt
专知会员服务
196+阅读 · 2020年5月22日
一份简短《图神经网络GNN》笔记,入门小册
专知会员服务
224+阅读 · 2020年4月11日
【Texas 大学】强化学习领域的课程学习:一个框架和综述
专知会员服务
71+阅读 · 2020年3月22日
专知会员服务
115+阅读 · 2019年12月24日
Logically-Constrained Reinforcement Learning
Arxiv
3+阅读 · 2018年12月6日
Arxiv
11+阅读 · 2018年1月18日
Arxiv
3+阅读 · 2017年7月6日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员