2018年12月6日 / 62次阅读
机器学习中的监督学习(supervised learning),起源于最简单的回归算法。
线性回归(linear regression):
用线性函数,向连续变化的量回归。
线性回归强调的是使用线性关系函数。
逻辑回归(logic regression):
向离散变化的量回归。
Softmax回归是二元逻辑回归的一般化。
逻辑回归强调的是,一组向离散变量的回归。
非线性回归(non-linear regression):
关系函数为非线性函数的回归方法。
非线性回归,从概念上包含了逻辑回归,因为一般我们都是用非线性关系函数进行非线性回归的学习。
非线性回归,既可以向连续变化的量回归,也可以采用softmax回归。(非线性逻辑回归?)
非线性回归强调的是,采用非线性关系函数,比如polynomial,也可以使用神经网络来做回归。
当我们通过数学模型要预测的值是一个连续的值时,我们称这类问题为回归问题;如果要预测的值是离散的,我们称这类问题为分类问题。
本文链接:https://www.maixj.net/ict/regression-19482
©Copyright 麦新杰 Since 2014 云上小悟独立博客版权所有 备案号:苏ICP备14045477号-1。云上小悟网站部分内容来源于网络,转载目的是为了整合信息,收藏学习,服务大家,有些转载内容也难以判断是否有侵权问题,如果侵犯了您的权益,请及时联系站长,我会立即删除。