马尔可夫链笔记

  |  

版权声明:本文原创,转载请留意文尾,如有侵权请留言, 谢谢

引言

  之前学习了伯努利过程和泊松过程,它们是无记忆性,不依赖于过去的状态,今天学习了马尔可夫链,它会依赖于过去的过程,更准确的说是依赖于过去的某种状态。

经典统计推断笔记

  |  

版权声明:本文原创,转载请留意文尾,如有侵权请留言, 谢谢

引言

  最近学习了概率论中的一些经典统计推断的方法,做一些笔记,主要包括了一些经典参数估计的方法,线性回归的方法,简单假设检验和显著性检验的方法。

SVM笔记

  |  

版权声明:本文原创,转载请留意文尾,如有侵权请留言, 谢谢

引言

  最近刚刚看完周志华老师《机器学习》里支持向量机那一章,支持向量机(Support Vector Machine, SVM)是在分类与回归分析中分析数据的监督式学习模型与相关的学习算法,还是挺有意思的,知识点也挺多的,本文结合自己理解做一些笔记。

读《菊与刀》--有点矛盾的日本人

  |  

版权声明:本文原创,转载请留意文尾,如有侵权请留言, 谢谢

  读完了鲁思·本尼迪克特的《菊与刀》,一个没去过日本的美国人,能把日本人分析的这么透彻,也真的是非常让人震惊了,由此看来,那些研究人类社会文明,那些研究我们自己的社会科学家,真的是让人非常敬佩的。

极限理论笔记

  |  

版权声明:本文原创,转载请留意文尾,如有侵权请留言, 谢谢

引言

  最近学习了概率论中的一些极限理论,做一些笔记,主要包括了马尔可夫不等式(Markov's Inequality),切比雪夫不等式(Chebyshev's Inequality),琴生不等式(Jensen's Inequality),霍夫丁不等式(Hoeffding's Inequality),中心极限定理(Central Limit Theorem),弱大数定理(Weak Law of Large Numbers)和强大数定理(Strong Law of Large Numbers)。

用偏差与方差分解来解释学习算法泛化能力

  |  

版权声明:本文原创,转载请留意文尾,如有侵权请留言, 谢谢

引言

   对于一个机器学习算法,我们可以通过实验估计其泛化性能,但我们却不知道它为什么具有这样的性能,偏差-方差分解(Bias-Variance Decomposition)可以用来解释学习算法的泛化性能,偏差-方差分解试图对学习算法的期望泛化错误进行拆解。

基于贝叶斯方法的常见估计方法

  |  

版权声明:本文原创,转载请留意文尾,如有侵权请留言, 谢谢

引言

  本文介绍3种常见的估计方法,最大后验概率估计(MAP),最小均方估计(LSM)和线性最小均方估计(LLSM),它们都是基于贝叶斯统计推断(Bayesian Statistical Inference)的,即将参数看作具有先验分布的随机变量\(\Theta\),然后计算出给定观测后\(\Theta\)的后验分布。

决策树(Decision Tree)浅谈

  |  

版权声明:本文原创,转载请留意文尾,如有侵权请留言, 谢谢

引言

  最近看完了《机器学习》里决策树(Decision Tree)那一章,决策树还是比较容易的理解的,但是一些知识点还是要比本科学数据挖掘时更深一点,所以记录一下。

您是第 位小伙伴 | 本站总访问量 | 已经写了 609.8k 字啦

载入天数...载入时分秒...