深度学习深度学习

这个扩展提供了在CPU和GPU上执行的深度学习功能。

该扩展提供操作人员使用不同类型的层创建和适应深度学习模型。网络既可以在CPU上运行,也可以在GPU上运行。它需要ND4J后端扩展来配置计算资源。乐鱼体育安装

这次1.2.1版本

  • 修复错误的错误消息
  • 固定教程过程中缺失的样本数据
  • 升级的ND4J扩展依赖:1.2.0

版本1.2.0

变化的概念:损失函数不再通过深度学习运算符配置,而是在新的输出层中配置。现在有一个专用的输出层,它带有自动模式。

  • 增加了自动编码操作符,带有一个选项,可以为某些编码器架构建议解码器端。
  • 添加输出层自动模式:LossFunction从深度学习运算符移动到输出层运算符。
  • 添加激活层作为一个显式选项。
  • 增加了GELU激活功能。
  • 增加了MISH激活功能。
  • 增加填充到卷积层运算符。
  • 为池化层操作符添加填充。
  • 增加了卷积层算子的膨胀。

1.1.2版本

  • 固定带表支持“导入现有模型”和“微调模型”操作符。
  • 修正了“导入现有模型”操作符中LeNet模型的错误文档。

1.1.1版

  • 增加了对皮带表(RapidMiner中表格数据的新数据结构)的支持。

版本1.1.0

  • 增加了对迁移学习的支持。
  • 添加了“导入现有模型”操作符来下载预训练的模型,或者只是从各种预训练的模型中下载它们的架构。该操作符还根据用户数据调整输入形状。
  • 增加了“微调模型”操作符来更改现有模型的架构并继续进行培训。
  • 为“读取Keras模型”操作符增加了对非顺序模型的支持。
  • 突破性的更改:存储在以前版本中的模型与这个版本不兼容。如果这引起问题,请与我们联系。

版本1.0.1

  • 修正了回归测试评分的问题
  • 修正了更新顺序模型时的错误

版本1.0.0

  • 依赖关系从CUDA 10.0(和可选的cuDNN 7.4)更改为CUDA 10.1(和可选的cuDNN 7.6)
  • 增加了基于网络的培训监控
  • 添加嵌入层
  • 添加操作符转换文本为嵌入ID
  • 添加操作符转换嵌入的ID为文本
  • 增加了简单的循环层
  • 增加了飞行前的网络完整性检查与快速修复
  • 创建深度学习就绪的docker映像(在dockerhub中搜索RapidMiner)
  • exampleeset to Tensor运算符现在依赖于参数来选择所需的指标,而不是角色
  • 更新了Keras模型导入,以处理使用Tensorflow创建的所有当前顺序模型。Keras

版本0.9.4

  • 增加了对图像处理的支持(使用图像处理扩展加载图像作为张量输入)
  • 后端处理移动到具有附加功能的新扩展中(ND4J后端扩展-自动依赖)
  • 增加了早期停止机制
  • 增加了权重和偏差输出
  • 修正了TimeSeries到张量运算符的标签映射错误

版本0.9.3

  • 增加了对多对多分类和回归用例的支持,以及多对一回归。
  • 增加了exampleeset到Tensor运算符
  • 增加了记录测试分数到历史端口
  • 增加套索(L1)和脊(L2)回归损失函数
  • 增加了对macOS Catalina的支持
  • 在7.4版本中增加了对cuDNN的支持
  • 现在,如果安装了cuDNN,大多数层都可以利用它
  • 更新后端DeepLearning4J Beta6
  • 更新CUDA依赖到10.0版本(如果您需要CUDA 9.2, 10.1, 10.2的支持,请联系我们)
  • 固定的错误,当得分只有一个例子
  • 修正了添加退出层操作符的参数显示错误
  • 在macOS上放弃对GPU的支持

版本0.9.1

  • 修正了作业代理执行时的错误

版本0.9.0

  • 添加了加载Keras模型操作符(应用不使用python的顺序Keras模型)
  • 增加了循环网络(如LSTM)处理
  • 添加LSTM层
  • 增加时间序列到张量算子
  • 修复了蟒蛇阻塞扩展加载
  • 删除文字到数字通过Word2Vec
  • 改变张量处理(与以前的张量不兼容)
  • 将CUDA版本要求从9.1降低到9.0

版本0.8.1

  • 修正了导致与RapidMiner Studio 9.1不兼容的错误

版本0.8.0

  • 带有原生模型处理的示例集深度学习
  • 使用Word2Vec进行文本处理
  • 层:
    • 辍学
    • 批正常化
    • 卷积
    • 全球池
  • GPU使用量
  • 历史端口(纪元日志记录)
  • 自定义图标
  • 无外部要求(GPU除外)
  • 在回归和分类之间切换的快速修复(损失函数)
  • 模型Updatability
  • 过程(样本/深度学习)

讲话

  • 在GPU上执行目前只能在NVIDIA GPU上结合一个适当的CUDA安装(具体看上面哪个版本)。
  • 这个扩展使用java库DeepLearning4J(版本DL4J-M1.1)。
  • 不支持32位。

产品详细信息

版本 1.2.1 "
文件大小 349 MB
下载 65645今天(15)65645下载
供应商 RapidMiner实验室
类别 机器学习
发布 2/21/22
最后一次更新 2/21/22分下午
(变化)
许可证 AGPL
产品网站 www.m.turtlecreekpls.com
评级 0.0星(0)

评论

扩展版本0.9:(RM9.1)只支持CUDA 9.0和CUDNN 7.0 EXACTLY。在启动RM之前,确保路径中存在CUDA bin目录。扩展版本0.8.0:(RM9.0)只支持CUDA 9.1和CUDNN 7.1 EXACTLY

wongcr, 12/21/18 8:12 AM

当使用32位版本的RapidMiner Studio或Java时,会出现数据解析问题。请检查64位版本。

rapd - labs, 2018年8月8日下午2:24

我只得到一个“数据解析问题”的错误,即使所有的数值示例集。这个问题有解决方案吗?谢谢……

Gottfried, 8/8/18晚上12:00
登录发表评论。