本期投稿: 谢益辉 王威廉冷静王小宁
编辑:王小宁
K-means是最常用的聚类算法之一:容易理解,实现不难,虽然会有local optimum,但通常结果也不差。但k-means也不是万金油,比如在一些比较复杂的问题和非线性数据分布上,k-means也会失败。普林斯顿博士David Robinson写了一篇不错的分析 文章 ,介绍了几种k-means会失效的情形。
基于遗传算法的小车 模拟 , 还有遗传算法的 行者 ,看着有一大拨僵尸来袭的感觉、 遗传算法的猫 。
小编注: 性格捉急的人千万不要盯着看太久,十分闹心,会疯掉的,不过可以把这个转发给你的小伙伴们,小编保证这算法进化两个小时这只猫也跳不过去)
Popsci写了一篇不错的文章批评媒体近期关于《人工智能将会摧毁人类》之类制造恐慌的 报道 。Popsci认为这么写纯粹是为了吸引读者眼球,并且很犀利的指出这些媒体拿Elon Musk与霍金这些非人工智能研究者来讲AI的世界末日学说,纯粹是制造恐慌。
麻省理工学院NIKHIL BUDUMA写的Recurrent Neural Nets及LSTM 介绍 ,没什么数学,就是讲的比较符合直觉,容易理解。
谷歌科学家、Hinton亲传弟子Ilya Sutskever的深度学习综述及实际建议及实际建议 ,比较喜欢其中关于tricks的建议,包括data, preprocessing, minibatches, gradient normalization, learning rate, weight initialization, data augmentation, dropout和ensemble。
《鲁棒及有益的人工智能优先研究计划:一封公开信》 目前已经有Stuart Russell, Tom Dietterich, Eric Horvitz, Yann LeCun, Peter Norvig, Tom Mitchell, Geoffrey Hinton, Elon Musk等人 签署 。