首页(第2分页)»

云上小悟

麦新杰的独立博客,学习,记录,思考,分享!

文章

Before-35

二八定律,跨界与精进

by 麦新杰 / 2018年12月30日

二八定律在学习方面的应用,即用二成的努力,获得某个领域八成的知识。然后呢?应用和跨界。 阅读全文->

InfoTechPython

删除Python中List或Dict的某一个元素

by 麦新杰 / 2018年12月27日

如果想删除Python中List或Dict的某一个元素,可以使用pop成员函数,也可以使用del语句。 阅读全文->

投资理财投资笔记

投资是很个性化的事情

by 麦新杰 / 2018年12月27日

2018年,我的股票市值缩水15%左右,虽跑赢大市,但也再次犯了过早抄底的悲剧。同时,开启更加多元化的个性化投资之路,开始注重不同类别资产的动态配置。 阅读全文->

投资理财梁孝永康

珍惜每一次熊市

by 多肉 / 2018年12月24日

在牛市的时候,一个普通的投资人都能打败巴菲特,个个赚钱,都认为自己找到了正确的投资策略,找到了财务自由之道,一旦遇到熊市,则慌不择路,全乱了套。而一个投资人长期来说能否赚大钱,就是看他在熊市做了什么。 阅读全文->

人工智能

hyperplane超平面

by 麦新杰 / 2018年12月22日

在阅读AI相关资料的时候,我注意到了hyperplane这个词。它的含义是:In geometry, a hyperplane is a generalization of the two-dimensional plane into a larger number of dimensions. 翻译过来,就是对应高纬度空间里的平面。 阅读全文->

投资理财金石致远杨天南

有限座位论

by 多肉 / 2018年12月19日

时间有限、精力有限、人生有限。一个人做好自己已是不易,将大家聚拢在一起做事更难,如果不是志同道合的人在一起,如果不是将有限的座位留给合适的人,即便成功可能也只是意外而已。 阅读全文->

投资理财金石致远杨天南

西湖边上的源居六然

by 多肉 / 2018年12月19日

他老人家说的对,一个最终能谈得上成功的人,应该是活着的时候,有人喜欢;离开的时候,有人怀念。这样的人生才是幸福成功的人生。 阅读全文->

人工智能

如何初始化weights和bias?

by 麦新杰 / 2018年12月18日

一般都是采用符合正态分布的随机数np.random.randn来给weight和bias赋值,然后再除以一个数,这个数最好是跟前一层神经元的数量相关,或者直接除以一个很大的数,也未尝不可。 阅读全文->

人工智能

选择cost函数的思考

by 麦新杰 / 2018年12月18日

使用crossentropy,只对一个神经元的输出计算cost,自然的就会要求在接近0和接近1时,都要计算cost。而softmax输出的是概率分布,只需要计算应该是最高概率的那个位置的神经元的输出而产生的cost即可。 阅读全文->

7788老男孩学数学

概率和统计的区别

by 多肉 / 2018年12月17日

概率是基于已知的模型/分布,来预测数据;而统计,解决的是已知了数据反过来推导出完整的模型(包括分布模型和参数)。 阅读全文->

投资理财巴菲特

巴菲特的三个骰子游戏

by 多肉 / 2018年12月13日

1968年的一个晚上,唯一打败过赌场的数学天才爱德华.索普在好朋友杰拉德的引荐下,认识了中年的巴菲特。这时候巴菲特已经是一个非常优秀的投资者,他的业绩从1956到1968年获得了29.5%的年化回报率。 阅读全文->

人工智能

cost还在降低,accuracy不一定稳步走高...

by 麦新杰 / 2018年12月13日

当到了在测试集上accuracy不能提高的阶段,cost还是会因为以上所述的原因而继续降低,不过,这个时候可能已经进入了overfitting阶段。 阅读全文->

人工智能

使用mini-batch来计算梯度的思考

by 麦新杰 / 2018年12月12日

在进行梯度下降计算的过程中,我们一般都是要将一组数据(mini-batch)的梯度进行平均,然后再更新网络中神经元的w和b。为什么要采用一组数据的梯度的平均? 阅读全文->

人工智能

训练神经网络时,如果cost越来越大...

by 麦新杰 / 2018年12月7日

训练神经网络时,如果cost越来越大,一定是不对的。我们训练神经网络,目的就是让cost越来越小,进而提高网络的预测水平。本文记录一个自己遇到的cost越来越大的case。 阅读全文->

人工智能

对各种回归算法的概念理解

by 麦新杰 / 2018年12月6日

线性回归强调的是使用线性关系函数。逻辑回归强调的是,一组向离散变量的回归。非线性回归强调的是,采用非线性关系函数,比如polynomial,也可以使用神经网络来做回归。 阅读全文->

人工智能

无视无惧numpy计算时的runtime warning...

by 麦新杰 / 2018年12月3日

之前总结过一篇在训练神经网络的时候,出现大量numpy的runtime warning的分析。今天这篇继续这个话题,我想说的时候,我们其实可以通过一些手段,来无视无惧这些warning。 阅读全文->

InfoTechPython

Numba初步使用经验

by 麦新杰 / 2018年12月2日

Numba是Python的一个JIT库,可以很方便的通过一个装饰器来实现运行时的加速。这两天初步使用了一下,有点心得体会。 阅读全文->

InfoTechPython

Python用类实现装饰器

by 麦新杰 / 2018年12月1日

Python用类来实现装饰器,有点像用类来实现函数对象,只是传入的参数是一个函数而已。 阅读全文->

InfoTechPython

Python用类实现函数对象

by 麦新杰 / 2018年12月1日

Python中一切都是对象,包括函数。我们可以自己通过代码,构造一个类,然后用这个类来创建函数对象。 阅读全文->

InfoTechPython

Python用函数创建装饰器

by 麦新杰 / 2018年12月1日

@装饰器是Python的syntax sugar,即语法糖,这表示,没有装饰器,一样可以实现功能。不过现在有了装饰器,可以让语法更简洁,可以写更少的代码,可以轻松实现更强大的功能。 阅读全文->

InfoTechPython

Python的闭包

by 麦新杰 / 2018年12月1日

Python代码中,可以定义嵌套函数,即在函数中再定义一个函数。嵌套函数有什么特别之处吗?因为闭包。 阅读全文->

人工智能

梯度下降BP算法的4个公式

by 麦新杰 / 2018年11月27日

深入理解了之后,梯度下降算法的这4个公式的确呈现出一种自然的美!代码实现也是基于这4个公式。 阅读全文->

InfoTech

删除Git的本地仓库

by 麦新杰 / 2018年11月27日

以后再建立git repo的时候,推荐使用git init your-working-directory,这样会自动创建一个对应名称的repo文件夹。这样的操作,跟git clone类似,都会自动创建repo的文件夹。 阅读全文->

人工智能

训练神经网络,numpy出现runtime warning的解决思路

by 麦新杰 / 2018年11月24日

在使用numpy进行神经网络算法计算的时候,有的时候会遇到Runtime Warning,本文记录自己的在思考解决这个问题是的一些积累和经验。 阅读全文->

人工智能

梯度下降的三种形式BGD,SGD,MBGD(MSGD)

by 麦新杰 / 2018年11月21日

BGD就是使用全部训练数据,来计算平均的梯度,然后进行一次迭代;SGD就是每次选择一个训练样本来计算梯度并进行一次迭代;MBGD是采用一个小批量的数据来计算平均梯度,并进行一次迭代。 阅读全文->

云上小悟,麦新杰的独立博客

Ctrl+D 收藏本页

栏目

AD

ppdai

©Copyright 麦新杰 Since 2014 云上小悟独立博客版权所有 备案号:苏ICP备14045477号-1。云上小悟网站部分内容来源于网络,转载目的是为了整合信息,收藏学习,服务大家,有些转载内容也难以判断是否有侵权问题,如果侵犯了您的权益,请及时联系站长,我会立即删除。

网站二维码
go to top