18

我想应用缩放sklearn.preprocessing.scale模块,该模块scikit-learn提供用于将用于训练 svm 分类器的数据集居中。

然后如何存储标准化参数,以便我也可以将它们应用于我想要分类的数据?

我知道我可以使用,standarScaler但是我可以以某种方式将它序列化到一个文件中,这样每次我想运行分类器时就不必将它适合我的数据吗?

4

4 回答 4

11

我认为最好的方法是将它腌制 post fit,因为这是最通用的选择。也许您稍后会创建一个由特征提取器和缩放器组成的管道。通过腌制(可能是复合的)阶段,您可以使事情变得更加通用。关于模型持久性的sklearn 文档讨论了如何做到这一点。

话虽如此,您可以查询sklearn.preprocessing.StandardScaler拟合参数:

scale_ : ndarray, shape (n_features,) 数据的每个特征相对缩放。0.17 版中的新功能:建议使用 scale_ 而不是弃用的 std_。 mean_ : 形状为 [n_features] 的浮点数组 训练集中每个特征的平均值。

以下简短片段说明了这一点:

from sklearn import preprocessing
import numpy as np

s = preprocessing.StandardScaler()
s.fit(np.array([[1., 2, 3, 4]]).T)
>>> s.mean_, s.scale_
(array([ 2.5]), array([ 1.11803399]))
于 2016-03-11T16:22:57.787 回答
6

使用标准缩放器缩放

from sklearn.preprocessing import StandardScaler
scaler = StandardScaler()
scaler.fit(data)
scaled_data = scaler.transform(data)

保存 mean_ 和 var_ 供以后使用

means = scaler.mean_ 
vars = scaler.var_    

(您可以打印和复制粘贴方式和变量或使用 np.save 保存到磁盘......)

以后使用保存的参数

def scale_data(array,means=means,stds=vars **0.5):
    return (array-means)/stds

scale_new_data = scale_data(new_data)
于 2019-08-19T10:36:52.833 回答
3

您可以使用 joblib 模块来存储缩放器的参数。

from joblib import dump
from sklearn.preprocessing import StandardScaler
scaler = StandardScaler()
scaler.fit(data)
dump(scaler, 'scaler_filename.joblib')

稍后您可以加载缩放器。

from joblib import load
scaler = load('scaler_filename.joblib')
transformed_data = scaler.transform(new_data)
于 2020-09-24T17:09:35.480 回答
2

Pickle 带来了一个安全漏洞,允许攻击者在服务器上执行任意代码。条件是:

  • 用服务器上的另一个泡菜文件替换泡菜文件的可能性(如果没有对泡菜进行审计,即签名验证或哈希比较)

  • 相同,但在开发人员 PC 上(攻击者入侵了一些开发人员 PC

如果您的服务器端应用程序以 root 身份执行(或在 docker 容器中以 root 身份执行),那么这绝对值得您注意。

可能的解决方案:

  • 模型训练应在安全的环境中进行

  • 训练后的模型应该由来自另一个安全环境的密钥签名,该密钥未加载到 gpg-agent(否则攻击者可以很容易地替换签名)

  • CI 应在隔离环境(隔离)中测试模型

  • 使用python3.8或更高版本,添加了安全钩子以防止代码注入技术

  • 或者只是避免泡菜:)

一些链接:

避免酸洗的可能方法:

# scaler is fitted instance of MinMaxScaler
scaler_data_ = np.array([scaler.data_min_, scaler.data_max_])
np.save("my_scaler.npy", allow_pickle=False, scaler_data_)

#some not scaled X
Xreal = np.array([1.9261148646249848, 0.7327923702472628, 118, 1083])

scaler_data_ = np.load("my_scaler.npy")
Xmin, Xmax = scaler_data_[0], scaler_data_[1]
Xscaled = (Xreal - Xmin) / (Xmax-Xmin)
Xscaled
# -> array([0.63062502, 0.35320565, 0.15144766, 0.69116555])
于 2018-08-14T16:20:05.673 回答