我的主页

tensorflow学习(1)变量和占位符

变量 import tensorflow as tf import numpy as np a=tf.Variable(1) #变量可以是任意大小,形状,随机,分布 b=tf.constant(1) #常量乐意是任意大小形状的 new_1=tf.add(a,b) #加法 upda=tf.assign(a,new_1)#将a跟新成new_1 init=tf.initialize_all_v...

c++代码rgb2hsv

妈妈再也不用担心我了 #include <string> #include <iostream> #include <opencv2/opencv.hpp> #include<opencv2/imgproc/imgproc.hpp> #include<cv.h> #include <opencv2/core/core.hpp...

决策树c++实现

决策树c++ #include <iostream> #include <fstream> #include <math.h> #include <string> using namespace std; #define ROW 14 #define COL 5 #define log2 0.69314718055 typedef str...

时间序列模型

自相关系数 对于时间序列将序列拆分成两列,按照一定的规则(滞后一段时间) 表示同一序列过去与现在的关系 x1 x2 x3 x4 x5 x6 x7 x8 x9 x10 原始数据 x1 x2 x3 x4 x5 x6 x7 x8 滞后2个单位 x3 x4 x5 x6 x7 x8 x9 x10 生成第二列数据 与求相关系数的公式类似 公式1中的均值为总体的均值公式2中的均值为...

PageRank搜索:搜索引擎网页排序算法

搜索引擎的网页排序算法 背景介绍 网页搜索的时候需要对搜索结果进行排序,排序的依据是网页的分数 也可以理解为网页的概率。网页的概率越大排名越靠前。所有网页的 概率和可以使1也可以不是。 该方法主要依靠三个假设: 可以连接到该网页的网页数越多则该网页的概率越大 连接到该网页的网页的概率越大则该网页概率也越大 从一个网页转移到其他网页的概率是相等的(转移概率) 实例...

数据,算法是对是错

各种假设 假设独立 样本独立在模型训练中是非常重要的一点,样本不独立模型感知到的信 息非常不完善,而在实际应用中我们将收集到是数据理所当然假定为独 立。独立是非常苛刻的条件。说某个数据集独立,不如说某个数据集是 无限大的。 假设同分布 同分布假设也是个很强的假设,样本完全来自同一个分布的概率很小, 可能来自于近似分布,最小二乘概率解释是样本误差服从0均值高斯分 布的极大似然估计...

矩阵补全协同过滤

协同过滤 有些用户有些商品,某些用户已经给出了某些商品的评分,需要根据用户 的已知评分来推断未某些用户对某些商品可能被评多少分。其本质是补全 矩阵。矩阵分解是补全矩阵的主要方法,首先估计出分解矩阵是什么。然 后计算缺失值。 协同:找到共同的偏好信息 过滤:给出预测 矩阵分解 Basic MF Basic MF是最基础的分解方式,将评分矩阵R分解为用户矩阵U和项目矩 ...

EM算法

EM算法 相当于寻找聚类中心的过程 1假设样本是个服从混合分布,混合了几个或者混合的分布都不知道 2其中的超参数有 几个分布,什么分布 3假定参数已知,列极大似然函数 4根据jensn不等式设置循环条件 5让不等式无线趋近于等式,最终得到循环 在样本分类问题中 假设参数计算类别 根据类别再估计参数 根据参数再再修正类别 极大似然(MLE)极大后验(MAP...

一个完整的机器学习项目流程

完整机器学习项目的流程。 1 抽象成数学问题  明确问题是进行机器学习的第一步。机器学习的训练过程通常都是一件非常耗时的事情,胡乱尝试时间成本是非常高的。  这里的抽象成数学问题,指的我们明确我们可以获得什么样的数据,目标是一个分类还是回归或者是聚类的问题,如果都不是的话,如果划归为其中的某类问题。  2 获取数据  数据决定了机器学习结果的上限,而算法只是尽可能逼近这个上限。  ...

算法应用中的细节问题(2)

决策树的本质是每分一步就减小熵值,最终使熵值降到最低 svm如果线性不可分也不加核函数则可以加松弛变量 J=1/2W^2+C PCA的本质是使所有样本投影的方向使方差最大(拉格朗日) 判断聚类效果:轮廓系数 ai为样本i与类内其他样本的距离 bi为样本i与类间其他样本的距离 谱为方阵的特征值 验证算法是否收敛 算法收敛:错误样例数存在一个上线(模型的输出...