不,这两个库不会为这两个代码片段提供相同的结果。scikit-learn 函数使用随机排列来打乱数据,然后将数据拆分为所需的部分。SFrame.random_split
方法不同;它根据指定的分数从原始数据中随机采样行。
不仅如此,这两个库的随机数生成器是不同的,因此将随机状态和种子设置为相同的值不会有任何效果。
我用 GraphLab Create 1.7.1 和 Scikit-learn 0.17 验证了这一点。
import numpy as np
import graphlab as gl
from sklearn.cross_validation import train_test_split
sf = graphlab.SFrame(np.random.rand(10, 1))
sf = sf.add_row_number('row_id')
sf_train, sf_test = sf.random_split(0.6, seed=0)
df_train, df_test = train_test_split(sf.to_dataframe(),
test_size=0.4,
random_state=0)
sf_train
是:
+--------+-------------------+
| row_id | X1 |
+--------+-------------------+
| 0 | [0.459467634448] |
| 4 | [0.424260273035] |
| 6 | [0.143786736949] |
| 7 | [0.0871068666212] |
| 8 | [0.74631952689] |
| 9 | [0.37570258651] |
+--------+-------------------+
[6 rows x 2 columns]
虽然df_train
看起来像:
row_id X1
1 1 [0.561396445174]
6 6 [0.143786736949]
7 7 [0.0871068666212]
3 3 [0.397315891635]
0 0 [0.459467634448]
5 5 [0.033673713722]
绝对不一样。