在上面的示例中,我使用我的数据集来识别异常值。对nu
参数稍作更改后,识别出的异常数量存在巨大差异。
这可能只是数据集的一个特殊性吗?还是 scikit-learn 中的错误?
PS 不幸的是,我无法共享数据集。
在上面的示例中,我使用我的数据集来识别异常值。对nu
参数稍作更改后,识别出的异常数量存在巨大差异。
这可能只是数据集的一个特殊性吗?还是 scikit-learn 中的错误?
PS 不幸的是,我无法共享数据集。
注意:不是答案。提供 MCVE。
我最近也遇到了这个。我想了解低值的拐点
import numpy as np
import pandas as pd
from sklearn.svm import OneClassSVM
X = np.random.rand(100, 1)
nu = np.geomspace(0.0001, 1, num=100)
df = pd.DataFrame(data={'nu': nu})
for i in range(0, len(X)):
df.loc[i, 'anom_count'] = (OneClassSVM(nu=df.loc[i, 'nu']).fit_predict(X) == -1).sum()
df.set_index('nu').plot();
df.set_index('nu').plot(xlim=(0, 0.2));
df.anom_count.min() # 3
df.anom_count.idxmin() # 62
df.loc[df.anom_count.idxmin(), 'nu'] # 0.031
如果减少tol
参数的值,OneClassSVM
结果会更好,尽管对于 nu 的低值并不完全符合预期。
import numpy as np
from sklearn.svm import OneClassSVM
import matplotlib.pyplot as plt
X = np.random.rand(100, 1)
nus = np.geomspace(0.0001, 0.5, num=100)
outlier_fraction = np.zeros(len(nus))
for i, nu in enumerate(nus):
outlier_fraction[i] = (OneClassSVM(nu=nu, tol=1e-12).fit_predict(X) == -1).mean()
plt.plot(nus, outlier_fraction)
plt.xlabel('nu')
plt.ylabel('Outlier fraction')
plt.show()