Page 55 - 国外钢铁技术信息内参(2022年8月)
P. 55

ᇏݓࣁඋ࿐߶







                       本研究所使用数据来源于加拿大楠蒂科克的 Stelco 炼钢厂。数据集中记录了

                   钙处理钢连铸过程中的操作参数。选择钙处理钢为初步研究对象来验证建模方法

                   是因为其塞棒行为一致性更高,并且能够同时验证正指数和负指数。在多个中间

                   包连续作业期间收集数据。每个数据点每隔 3 秒记录一次,记录内容包括塞棒位

                   置、结晶器液位和浇铸速度等操作参数。数据集中共有 323696 个数据点,在每

                   个数据点计算三个堵塞指数,以便得到数量相等堵塞指数用于建模。
                       ᇏݓࣁඋ࿐߶
                       每个堵塞指数构建一个 LSTM 网络,即,指数 1、2 和 3 共构建 3 个网络(分

                   别表示为 LSTM#1、#2 和#3)。各 LSTM 模型以堵塞指数为输入特征,输入后                                                         ᇏݓࣁඋ࿐߶

                   进行预测。构建时间序列模型时需要利用序列函数处理输入特征,定义将来预测

                   计算所需历史值的数量。这种情况下,LSTM 模型在先前 60 个数据点的基础上

                   预测第 12 个未来值,所对应的时间窗口为过去 3 分钟和未来 36 秒。时间 t 的

                   LSTM 网络特征处理如方程(9)所示:

                          X(t)=[CI(t-59),CI(t-58),...,CI(t-1),CI(t)]                       方程(9)
                       其中,CI 为堵塞指数,'t'为时间步。输入特征处理妥当后,将序列数据集划
                                                               ᇏݓࣁඋ࿐߶
                   分为 70%的试验数据集和 30%的训练数据集。另外,将 30%的训练数据集进一

                   步划分为用于监督训练过程中是否存在过拟合的验证数据集。 LSTM 要求对输入

                   特征进行三维重建,其中,第一维度为数据点的数量,第二维度为每个样本的输

                   入特征时间步(60),第三维度为特征数量(1)。
 ᇏݓࣁඋ࿐߶
                       通过 Python 构建深度学习模型。本研究中三个 LSTM 网络采用相同的结构,

                   均由两个含有等量神经元和 sigmoid 激活函数的 LSTM 层和一个线性激活函数输

                   出层组成。各模型共享相同的超参数,其中,两个 LSTM 层中有 64 个神经元,

                   输出层中有 1 个神经元,隐藏层之间的丢失率为 0.2。比对实验数据表验证 LSTM

                                                                           2
                   模型的输出情况,将均方误差 (MSE) 和确定系数 (R ) 作为评估指标。每个网
                   络训练 50 个时段并记录训练和验证损失,确保模型不会与训练数据过度拟合。

                   3. 结果和讨论


       ᇏݓࣁඋ࿐߶
                        (1) 堵塞指数直观化
                       连铸数据集由 323696 个数据点组成,分别通过方程(1)、(4)和(5)计

                   算每个数据点的三个堵塞指数。浇铸过程中堵塞指数的直观趋势如图 3 所示。图



                   CSM 中国金属学会                                               CMISI 冶金工业信息标准研究院
                                                              52
   50   51   52   53   54   55   56   57   58   59   60