Page 53 - 国外钢铁技术信息内参(2022年8月)
P. 53

ᇏݓࣁඋ࿐߶







                       除了通过塞棒位置计算堵塞程度外,还可以通过钢水流动阻力计算堵塞累积

                   程度。本文采用了 Girase 所提出的堵塞指数(方程 2)。通过指定塞棒位置处的

                   最大钢水流量与堵塞情况下的实际流量计算该指数,如方程 4 所示:

                                                堵塞指数 2=1 -        实际                       方程(4)
                                                                  理论
                       通过方程(2)&(3)计算式中的实际流量和理论流量。由于堵塞指数 2 等

                       ᇏݓࣁඋ࿐߶
                   同于沉积物堵塞面积百分比,可将其直接视为 SEN 堵塞堆积严重程度。堵塞指
                   数 2 随堵塞程度加重而不断增大。                                                                                   ᇏݓࣁඋ࿐߶

                       本研究中所提出的第三个堵塞指数,其方程与堵塞指数 2 相近,区别在于其

                   理论流量采用的是各中间包第一炉的平均理论流量。

                       连铸过程中,一个中间包可以完成多炉钢水浇铸。由于各中间包浇铸第一炉

                   钢水时均使用新水口,所以认定为 SEN 零堵塞。因此,计算堵塞指数 3 时要用

                   到各中间包的第一炉理论容量(代表 SEN 零堵塞情况下的最大钢水流量)。


                                       堵塞指数 3=1 -                实际                        方程(5)
                                                         理论(中间包第一炉钢水)
                                                               ᇏݓࣁඋ࿐߶
                       以上三个指数适用于对浇铸过程中任何操作参数条件下的堵塞严重程度进

                   行量化。除用于量化堵塞程度外,上述指数还可用于表示钙处理钢常见的塞棒棒

                   头及 SEN 座砖腐蚀情况。如果耐火材料出现腐蚀,则必须将塞棒降至正常位置

 ᇏݓࣁඋ࿐߶
                   以下,以免流量增大。这种情况下,指定塞棒位置的实际流量可能会大于理论流
                   量,堵塞指数出现负数。因此,需要通过这三个指数构建预测模型以监测并预测

                   塞棒行为。本文通过一种深度学习方法(长短期记忆法)构建了时间序列神经网

                   络。

                        (2) 长短期记忆(LSTM)

                       长短期记忆(LSTM)是一种递归神经网络(RNN),它克服了传统 RNN

                   梯度消失和梯度爆炸的问题。不同于前馈神经网络,RNN 不仅能正向传播输入

                   特征,还能通过递归连接将信息反馈到输入。RNN 的这种连接方式使其具备强

                   大的数据隐藏序列信息捕获能力,非常适用于时间序列数据建模和自然语言处理。
       ᇏݓࣁඋ࿐߶
                   但是,建立在梯度基础上的传统 RNN 具有一定的局限性,即,梯度会随着处理

                   的进程呈指数增长,被称为梯度爆炸。梯度的作用是更新神经网络中的系数和偏




                   CSM 中国金属学会                                               CMISI 冶金工业信息标准研究院
                                                              50
   48   49   50   51   52   53   54   55   56   57   58