1. 朴素贝叶斯算法
输入:
样本数据T,包含m个n维特征的样本。
aij为每个样本特征的第i个特征可取到的第j个值。
测试样本x
输出:
对x的预测分类。
1.1. 计算先验概率
1.2. 计算每个特征每个取值的条件概率
为当时,X第j个特征为的条件概率
1.3. 计算假如y=Cky=C_ky=Ck时出现X=x的条件概率
对所有计算
为当时,x的每一个特征的条件概率的乘积。
1.4. 计算当X=x时所有CkC_kCk的后验概率的分子
以上公式中分子所有需要的内容都在以前已经计算出,代入公式即可
不需要计算分母。因为最终要用到的不是后验概率的具体数值,只是要比较大小。中所有C_k的后验概率公式,分母都是相同的,不影响大小的比较,所以不用计算出来。
1.5. 确定x的分类
当X=x时所有的后验概率中分子取得最大概率的那即x的分类
2. 代码
def NaiveteBayes(T, y, a, Y, x):
# 计算先验概率
prepro = {}
for yRange in Y:
#print (yRange, Y[Y==yRange].shape[0], )
prepro[yRange] = y[y==yRange].shape[0]/y.shape[0]
print('先验概率:',prepro)
# 计算条件概率
conpro = {}
for i in range(len(a)): # 遍历每个特征
for j in a[i]: # 遍历特征的每个取值
for k in Y:
conpro[(i,j, k)] = X[(y==k)&(X[:,i]==j),:].shape[0]/X[y==k,:].shape[0]
print('条件概率:',conpro)
# 计算后验概率的分子
postpro = {}
for yRange in Y:
pro = 1
for i in range(x.shape[0]):
pro = pro * conpro[(i, x[i], yRange)]
postpro[yRange] = pro * prepro[yRange]
print ('后验概率', postpro)
# 确定X的分类
import operator
return sorted(postpro.items(), # iterable -- 可迭代对象,在python2中使用A.iteritems(),在python3中使用A.items()
key=operator.itemgetter(1), # key -- 主要是用来进行比较的元素,指定可迭代对象中的一个元素来进行排序,这里指基于item的value进行排序
reverse=True)[0][0] # reverse -- 排序规则,reverse = True 降序 , reverse = False 升序(默认)。
# 排序结果是一个list