Halcom 发表于 2017-5-21 22:11:21

Logistic Regression回归

Logistic Regression回归:
百度网盘链接:
视频链接:http://pan.baidu.com/s/1boA3tGr
具体链接在halcom.cn论坛,联系人QQ:3283892722
该论坛是一个学习交流平台,我会逐一的和大家分享学习。
欢迎大家录制视频,并提交给我,我来设置视频,你可在论坛进行打赏分享。
视频专用播放器:http://halcom.cn/forum.php?mod=viewthread&tid=258&extra=page%3D1

参考链接:
【1】http://www.cnblogs.com/zuizui1204/p/6423069.html
【2】http://blog.csdn.net/jinruoyanxu/article/details/68065844
使用环境:Win7-32bit-Anaconda2-4.3.1-Windows-x86.exe
数据集:http://pan.baidu.com/s/1kV4xwij
# -*- coding: utf-8 -*-
"""
Created on Sun May 21 21:37:04 2017

@author: ysw
"""

# 导入pandas与numpy工具包
import pandas as pd
import numpy as np

# 获取训练数据
# 创建特征列表
column_names = ['Clump Thickness', 'Cell Size', 'Type']
# 使用pandas.read_csv函数从互联网读取指定数据。
# data = pd.read_csv(r'..\LogisticRegression\Breast-Cancer\breast-cancer-train.csv', names = column_names )
data = pd.read_csv(r'..\LogisticRegression\Breast-Cancer\breast-cancer-train.csv' )
# 将?替换为标准缺失值表示。
data = data.replace(to_replace='?', value=np.nan)
# 丢弃带有缺失值的数据(只要有一个维度有缺失)。
data = data.dropna(how='any')
data.shape
data.index
X_train = np.array( data.ix[:, ['Clump Thickness', 'Cell Size'] ], dtype=np.float64 )
#y_train = np.array( data.ix[:, ['Type'] ], dtype=np.int64)
y_train = data.ix[:, ['Type'] ].transpose()
y_train = y_train.iloc


# 获取测试数据
data = pd.read_csv(r'..\LogisticRegression\Breast-Cancer\breast-cancer-test.csv' )
# 将?替换为标准缺失值表示。
data = data.replace(to_replace='?', value=np.nan)
# 丢弃带有缺失值的数据(只要有一个维度有缺失)。
data = data.dropna(how='any')
data.shape
data.index
X_test = np.array( data.ix[:, ['Clump Thickness', 'Cell Size'] ], dtype=np.float64 )
y_test = np.array( data.ix[:, ['Type'] ], dtype=np.int64)
#y_test = data.ix[:, ['Type'] ].transpose()
#y_test = y_test.iloc

# 查验训练样本的数量和类别分布。
#y_train.value_counts()
# 查验测试样本的数量和类别分布
#y_test.value_counts()

# 从sklearn.preprocessing里导入StandardScaler。
from sklearn.preprocessing import StandardScaler
# 从sklearn.linear_model里导入LogisticRegression与SGDClassifier。
from sklearn.linear_model import LogisticRegression

# 标准化数据,保证每个维度的特征数据方差为1,均值为0。使得预测结果不会被某些维度过大的特征值而主导。
ss = StandardScaler()
X_train = ss.fit_transform(X_train)
X_test = ss.transform(X_test)

# 初始化LogisticRegression与SGDClassifier。
lr = LogisticRegression()

# 调用LogisticRegression中的fit函数/模块用来训练模型参数。
lr.fit(X_train, y_train)
# 使用训练好的模型lr对X_test进行预测,结果储存在变量lr_y_predict中。
lr_y_predict = lr.predict(X_test)

# 从sklearn.metrics里导入classification_report模块。
from sklearn.metrics import classification_report
# 使用逻辑斯蒂回归模型自带的评分函数score获得模型在测试集上的准确性结果。
print 'Accuracy of LR Classifier:', lr.score(X_test, y_test)
# 利用classification_report模块获得LogisticRegression其他三个指标的结果。
print classification_report(y_test, lr_y_predict, target_names=['0', '1'])


具体程序流程如图所示:





页: [1]
查看完整版本: Logistic Regression回归