赛派号

伊斯曼是什么品牌 (上)Tennessee Eastman process(TE过程) 数据集介绍及预处理

一、数据集介绍

数据集下载:https://github.com/camaramm/tennessee-eastman-profBraatz

介绍:http://depts.washington.edu/control/LARRY/TE/download.html

二、论文中的方法提炼 《Industrial Data-Driven Monitoring Based on Incremental Learning Applied to the Detection of  Novel Faults》202009一区LDA 1.解决的问题 2.使用的方法 《Fault diagnosis of TE process based on incremental learning》202007—b会—知识蒸馏 关于TE过程的github数据集处理方法链接

直接在github上搜索关键词:Tennessee Eastman process

XGBoost/XGBoost.ipynb at master · prudhvinathreddymalla/XGBoost · GitHub

https://github.com/hsaafan/TEPImport

https://github.com/search?l=Python&q=Tennessee+Eastman+process&type=Repositories

Tennessee-Eastman-Process/Time Series-checkpoint.ipynb at master · AugustoCam95/Tennessee-Eastman-Process · GitHub

1.尝试将代码复制在pycharm中跑出来。

2.问题1:报错。Matplotlib中%matplotlib inline_庆志的小徒弟-CSDN博客_%matplotlib inline

 

三、增量学习一般的训练测试大致过程:这里只讨论类增量

手写数字数据集举例。0-9的手写数字图片。

将0-9以每两个类别为一批,共有5批(0,1)(2,3)(4,5)(6,7)(8,9)

1.一开始只训练第一批(0,1)的训练集,然后再丢入数字0和1的测试集,记录下此时对数字0和1的识别精度a1,b1;并且设置一个memory存储区,选择部分(0,1)手写数字图片的部分训练集样本,防止遗忘。注意这里是“一边训练,一边存储”

2.在训练过(0,1)的基础上,往模型中继续丢入(2,3)的训练集。训练完后,再将(0,1),(2,3)的测试集丢进网络进行识别,并记录下0-3的识别精度。分别为:a2,b2,c1,d1.

3.继续添加剩余数字的训练集重复该项操作。

在正常训练情况下,最先训练的样本是会被遗忘的。因此需要设置一个存储区,对先前的训练样本进行部分(最原始的random)保留。这样的操作通常称为重播算法。我们会发现即便有个存储区还是会出现a2

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至lsinopec@gmail.com举报,一经查实,本站将立刻删除。

上一篇 没有了

下一篇没有了