博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
sklearn调包侠之逻辑回归
阅读量:6683 次
发布时间:2019-06-25

本文共 1302 字,大约阅读时间需要 4 分钟。

本系列教程为《机器学习实战》的读书笔记。首先,讲讲写本系列教程的原因:

第一,《机器学习实战》的代码由Python2编写,有些代码在Python3上运行已会报错,本教程基于Python3进行代码的修订.

第二:之前看了一些机器学习的书籍,没有进行记录,很快就忘记掉了,通过编写教程也是一种复习的过程.

第三,机器学习相对于爬虫和数据分析而言,学习难度更大,希望通过本系列文字教程,让读者在学习机器学习的路上少走弯路。

算法原理

传送门:机器学习实战之Logistic回归()

正则化

这里补充下正则化的知识。当一个模型太复杂时,就容易过拟合,解决的办法是减少输入特征的个数,或者获取更多的训练样本。正则化也是用来解决模型过拟合的一种方法。常用的有L1和L2范数做为正则化项。

L1范数 L1范数作为正则化项,会让模型参数θ稀疏话,就是让模型参数向量里为0的元素尽量多。L1就是在成本函数后加入:

image

L2范数 而L2范数作为正则化项,则是让模型参数尽量小,但不会为0,即尽量让每个特征对预测值都有一些小的贡献。L2就是在成本函数后加入:

image

实战——乳腺癌检测

数据导入

本次实战依旧是使用sklearn中的数据集,如图所示。

from sklearn.datasets import load_breast_cancercancer = load_breast_cancer()print(cancer.DESCR)

image

切分数据集

X = cancer.datay = cancer.targetfrom sklearn.model_selection import train_test_splitX_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state

模型训练与评估

逻辑回归算法使用sklearn.linear_model 模块中的LogisticRegression方法。常用的参数如下:

penalty:设置正则化项,其取值为'l1'或'l2',默认为'l2'。

C:正则化强度,C越大,权重越小。

from sklearn.linear_model import LogisticRegressionmodel = LogisticRegression()model.fit(X_train, y_train)model.score(X_test, y_test)# result# 0.94736842105263153

我们换为L1范数:

model2 = LogisticRegression(penalty='l1')   model2.fit(X_train, y_train)   model2.score(X_test, y_test)   # result   # 0.95614035087719296

这里查看模型的参数,发现确实有很多特征的参数为0。

image

原文发布时间为:2018-07-04

本文作者:罗罗攀
本文来自云栖社区合作伙伴“”,了解相关信息可以关注“”

转载地址:http://naaao.baihongyu.com/

你可能感兴趣的文章
我的友情链接
查看>>
linux文本批量替换
查看>>
计算机网络笔记--物理层(一)
查看>>
fastdfs部署
查看>>
wordpres搭建
查看>>
c++动态内存开辟之 new 的三种形态
查看>>
R语言实战(十)处理缺失数据的高级方法
查看>>
HP data protector的运作过程和名词解释
查看>>
rsync配置教程
查看>>
css优先级详解
查看>>
小白第三天
查看>>
2016年linux运维人员必会开源运维工具体系
查看>>
理性分析Python和C#哪个更有前途?
查看>>
mysql主备复制I/O线程不能同步问题
查看>>
高速缓存dns
查看>>
安装lenovo SR860 7x69服务器遇到的坑
查看>>
MIT透过机器学习技术用胺基酸预测蛋白质结构
查看>>
python课堂笔记之django-day01(8)
查看>>
Hadoop之HDFS分布式文件系统具有哪些优点?
查看>>
小型企业公司路由器做DHCP服务器
查看>>