1

我混合了浮点和整数值,它们在生成一个浮点值中起作用。有些相关,有些可能不相关。使用FANN我想看看神经网络是否是答案。给定 6 或 7 个输入数字来确定单个输出数字,在哪些网络和布局中使用FANN

在外汇交易专家的帮助下,我开发了一个系统,可以找到潜在的切入点(使用回溯测试),这些位置在正确使用时有很高的获胜率。问题是选择“止损”来获得这场胜利。回测人员显示这些都是赢利交易,但“止损”设置并不容易选择。我是根据最好的结果来挑选的。我尝试了确定性解决方案,但没有成功。

我想要一个神经网络使许多数据输出正确的“止损”和预期的结果。我无法解释市场事件,因此这些损失是意料之中的。输入是移动平均线、交易区间、收盘价的增量、完美的“止损”(根据历史结果)等等。

我有一个输入列表以及完美的止损和结果。我希望黑匣子魔术输出的“止损”和“预期结果”尽可能接近完美。输入是双精度值,输出也是如此。有些是整数,但可以表示为双精度。一个布尔值,用于做空或做多。如果有问题,我可以将短裤与长裤分开训练。

有些值可能不起作用,可能没有,但我想找出确定的值。有时“结果”是负面的,意思是赔钱。

4

1 回答 1

0

作为对该领域的精彩介绍,您可以尝试Stuart REID 的“关于神经网络的 10 个误解”

虽然是一个非常笼统的问题,但这些是我的观点:

  • fast learning curve

    (在“产品”上花费了无数时间并不容易被证明是合理的。产品可能会引用速度,但要注意他们谈到在生产阶段在经过良好预训练的 ANN 上进行预测时节省毫秒/秒,但你的时间将是主要分配在除此之外的其他活动上——首先学习和深入了解产品及其功能和弱点,然后是 ANN 模型原型设计,最重要的是,ANN-Feature-Engineering,然后是设计-候选人-ANN 超参数化网格搜索以调整它的最佳泛化和 CrossValidation 属性)

  • support and tools for rapid prototyping

    (一旦超越了学术阐述的 ANN-mimicking-XOR,原型设计阶段就是创新的游乐场,因此在时间和 CPU 资源方面都非常昂贵)

  • support for smart automated feature scaling

    (对于稳健网络的进化(遗传等)搜索处理是不可避免的,在给定的精度目标下,减少到足够的规模(以在可接受的时间范围内实现可计算性))

  • 支持用于高偏差/过拟合调整的自动超参数控制

  • 支持“覆盖”(超)参数化空间的全网格正交、梯度驱动和随机处理

  • 支持本地矢量化处理,用于快速分布式处理的手段(不是出于营销动机的废话,而是公平合理的架构(因为GPGPU I/O 延迟对训练有素的网络没有多大帮助(最后它是低计算强度任务,仅此而已)而不是一组单一的 sumproduct 决策,因此高 GPU IO-bound 延迟掩码不能涵盖巨大的延迟,因此与普通、配置良好、基于 CPU 的 ANN 相比,GPU“帮助”甚至可能成为灾难性 [可用的定量引用] -计算)

AI/ML NN-特征工程!...忘记6:?[:?[:?]]:1架构

这是钥匙。

无论您选择什么 AI/ML-Predictor,
无论是 ANN 还是 SVM,甚至是基于集成的“弱”学习器,主要问题都不是引擎,而是驱动程序——一组特征的预测能力

不要忘记,外汇多工具市场实时展示的复杂性。绝对比 6:1 复杂许多数量级。你渴望创造一个Predictor能够预测会发生什么的存在。 在此处输入图像描述

如何在合理的可计算性成本范围内做到这一点?

smart tools exist:

        feature_selection.RFECV(    estimator,                #  loc_PREDICTOR
                                    step             = 1,     # remove 1 FEATURE at a time
                                    cv               = None,  # perform 3-FOLD CrossValidation  <-opt. sklearn.cross_validation
                                    scoring          = None,  #                                 <-opt. aScoreFUN with call-signature aScoreFUN( estimator, X, y )
                                    estimator_params = None,  # {}-params for sklearn.grid_search.GridSearchCV()
                                    verbose          = 0
                                    )
# Feature ranking with recursive feature elimination
# and cross-validated selection of the best number of features.

 |>>> aFeatureImportancesMAP_v4( loc_PREDICTOR, X_mmap )              
  0.  0.3380673 _ _ _____________________f_O.............RICE_: [216]
  1.  0.0147430 _ _ __________________________________f_A...._: [251]
  2.  0.0114801 _ _ ___________________f_............ul_5:3_8_: [252]
  3.  0.0114482 _ _ ______________________________H......GE_1_: [140]
  4.  0.0099676 _ _ ______________________________f_V....m7_4_: [197]
  5.  0.0083556 _ _ ______________________________f.......7_3_: [198]
  6.  0.0081931 _ _ ________________________f_C...........n_0_: [215]
  7.  0.0077556 _ _ ______________________f_Tr..........sm5_4_: [113]
  8.  0.0073360 _ _ _____________________________f_R.......an_: [217]
  9.  0.0072734 _ _ ______________________f_T............m5_3_: [114]
 10.  0.0069267 _ _ ______________________d_M.............0_4_: [ 12]
 11.  0.0068423 _ _ ______________________________f_......._1_: [200]
 12.  0.0058133 _ _ ______________________________f_......._4_: [201]
 13.  0.0054673 _ _ ______________________________f_......._2_: [199]
 14.  0.0054481 _ _ ______________________f_................2_: [115]
 15.  0.0053673 _ _ _____________________f_.................4_: [129]
 16.  0.0050523 _ _ ______________________f_................1_: [116]
 17.  0.0048710 _ _ ________________________f_..............1_: [108]
 18.  0.0048606 _ _ _____________________f_.................3_: [130]
 19.  0.0048357 _ _ ________________________________d_......1_: [211]
 20.  0.0048018 _ _ _________________________pc.............1_: [ 86]
 21.  0.0047817 _ _ ________________________________d.......3_: [212]
 22.  0.0045846 _ _ ___________________f_K..................8_: [260]
 23.  0.0045753 _ _ _____________________f_.................2_: [131]

 1st.[292]-elements account for 100% Importance Score ________________
 1st. [50]-elements account for  60%
 1st. [40]-elements account for  56%
 1st. [30]-elements account for  53% . . . . . . . . . . . . . . . . . 
 1st. [20]-elements account for  48% 
 1st. [10]-elements account for  43%

精确?

汇编人员和 C 专家第一眼就会反对,但是让我声明,数值 (im) 精度在 FX/ANN 解决方案中不会成为问题。

维度诅咒确实...... O(2) &O(3)类问题并不罕见。

可同时使用智能/高效(快速读取...)表示,即使对于纳秒分辨率时间戳 HFT 数据流 I/O 软管也是如此。

有时,甚至需要降低输入(子采样和模糊)的数值“精度”,以避免(不合理的计算昂贵)高维的不利影响,并避免过度拟合的趋势,从更好的泛化能力中受益调整良好的 AI/ML 预测器。

        (im)PRECISION JUST-RIGHT FOR UNCERTAINTY LEVELs MET ON .predict()-s
     ___:__:___________MANTISSA|
     |  v  |                  v|_____________________________________________________________________________________
    0.001  |               1023|    np.float16      Half   precision float: 10 bits mantissa + sign bit|  5 bits exp|
    1.02?  |                                                                                
           v            123456:|_____________________________________________________________________________________
E00 0.000001            8388607|    np.float32      Single precision float: 23 bits mantissa + sign bit|  8 bits exp|
+00 12345.6? DAX              ^                                                             
+05 1.23456? DAX                                                                            
               123456789012345:|_____________________________________________________________________________________
               4503599627370495|    np.float64      Double precision float: 52 bits mantissa + sign bit| 11 bits exp|
                              ^|

无论如何,一个迷人的 FX 项目,如果入职请告诉我:

dMM()


要从另一个人那里获得关于自上而下的类似情况的另一种、公正的看法,可能需要阅读并思考一下这种经历,然后只计算几周和几个月的估计,以便掌握列出的列表自上而下并完整地做出最终决定。

于 2015-10-11T09:31:00.027 回答