0104073 Hopfield网络学习及其在最优化问题中的应用

Document Sample
0104073 Hopfield网络学习及其在最优化问题中的应用 Powered By Docstoc
					                                            管理科学与系统科学研究新进展
            ——第 6 届全国青年管理科学与系统科学学术会议论文集                                                       2001 年·大连


        Hopfield 网络学习及其在最优化问题中的应用

                                                                              金海和
                                            (清华大学经济管理学院,北京 100084)


        摘要 本文针对 Hopfield 神经网络(HNN)所存在的极小值问题及缺乏学习能力
        的问题,提出了一种学习算法。它是将决定约束条件权值大小的系数作为学习参
        数,在参数空间里使参数向着 HNN 能量上升最快的方向学习,使网络状态能够
        有效地从一旦陷入的极小值状态中逃脱出来。该算法分别被应用于 10、 城市的
                                         20
                 ,结果能够以很高的比率收敛于最优解。
        旅行商问题(TSP)
        关键词 Hopfield 神经网络 最速上升法 参数学习 最优化问题


1 引言
      Hopfield 等通过用连续值 HNN 求解 TSP,开辟了运用神经网络求解最优化问题的新途径[1]。
           (2)产生大量极小值等问题。作为解决极小值问题的方法之一,Hinton
但存在着(1)不能学习、
等提出了 Boltzmann 机模型及其学习算法[2],但因速度太慢,难以为现实所接受[3]。对于问题  ,
                                                   (2)
笔者进行过深入的理论分析,并在数学上进行了证明[4]。针对问题(1)(2)
                                  、 ,笔者提出了登山学
习算法[5],但该算法中,为了避免因学习使最小值发生位移,以学习后的解为初始解,使网络回
到未学习的 HNN 状态空间里进行状态更新至平衡状态,显然增加了计算量。
      TSP 常被用作研究最优化问题的范例[6],当运用 HNN 求解时,它的解依从于决定约束条件
权值大小的系数,而这类系数在选择上具有一定的自由度。本文提出一种 HNN 学习算法,思想
是,将决定约束条件权值大小的系数作为学习参数,在参数空间里使学习参数向着 HNN 能量上
升最快的方向学习,使 HNN 能从一旦陷入的极小值状态中逃脱出来,直至找到最优解或满意解。
本文将对 N=10、20 的 TSP 进行仿真实验,以证明其有效性。

2 Hopfield 神经网络模型
      HNN 是由大量简单的神经处理单元相互结合而成,并有对称性,无直接自反馈,非同期动
作等约束。由 n 个单元构成的 HNN,其能量函数可表达为
                 n    n                      n                     n

                                                            
            1                                                 1          yi
      e                   wij y i y j           y i hi                    f i 1 ( y)dy               (1)
            2   i 1 j 1                   i 1                  i 1
                                                                         0


e 是能量,其自身是时间的函数;wij 是单元 i 和 j 的权值;yi 是第 i 个单元的输出;hi 是第 i 个单
元的阀值;τ是正的常数。各个单元内部电压随时间的变化可以用微分方程式(2)记述,xi 是第
                                                。
i 个单元的输入总和。单元的输入输出可采用 sigmoid 形的逻辑非线性单调增加函数,如式(3)



    金海和, 1964 年生, 博士后。主要研究方向: 管理科学与工程,智能优化, 信息技术, Email: jinhh@em.tsinghua.edu.cn
                                                                               3
                                                        管理科学与系统科学研究新进展
               ——第 6 届全国青年管理科学与系统科学学术会议论文集                                                                         2001 年·大连


                                n

                                w
     dxi   x                                                                                                                  1
          i                                  y j  hi            (2)                             y i  f ( xi )                          (3)
           
                                           ij                                                                                      xi
     dt                                                                                                                       (          )
                                j 1                                                                                   1 e        T



T 是一个对神经单元输入输出函数的形状有影响的参数。
     HNN 有收敛特性(证明见[7]),即在适当的初始条件下反复使其更新状态,则能量随时间单调
地减小,状态向平衡状态的方向更新。能量减至全局最小或局部最小时,状态稳定在某个平衡状
态。

3 基于 Hopfield 神经网络的 TSP 解法
                    C …,
     设有 N 个城市的集合{C1, 2, CN},                          (d      ,
                            其中任意两个城市 Ci 和 Ck 之间的距离是 dik ik=dki)
试找出一条最短的经过每个城市各一次(仅一次)并回到出发地的路径,这就是 TSP。N 个城市
的 TSP,用 HNN 求解时,需要用 N2 个神经单元。可以由一个行代表城市号码,列代表访问次序
                     。
号码的矩阵来表示。其能量函数可以写成式(4)
     e  e A  eB  eD
               N        N

                y
           A
                   (                ij    1) 2
           2                                                                             wij , mn   A im (1  
               i            j                                                                                          jn )
               N        N
                                                                                   (4)               B   jn (1   im )                    (5)
                ( y
           B
                                    ij    1) 2
           2   j        i                                                                            Dd im ( n, j 1   n, j 1 )
               N        N       N

                d
           D
                                          ik   y ij ( y k , j 1  y k , j 1 )
           2    i       k        j

yij 是神经单元的状态变量,表示第 i 个城市第 j 回是否访问,且 yij∈[0,1]。当 yij≥0.5 时,yij 发
火,意义是第 i 个城市在第 j 回被访问;当 yij〈0.5 时,yij 不发火,意义是第 i 个城市在第 j 回不被
访问。dik 是城市 i 与城市 k 之间的距离。A,B 是控制项系数,D 是距离项系数,其取值,一般算
                              (一个城市只访问一次)
法是凭经验给出的。式中的第一项是行控制项,各行中只有一个“1”         ,第
二项是列控制项,各列中只有一个  (一次只访问一个城市) 第三项是距离项,
               “1”         ,         是路径的全长。
                            ,阀值如式(6)
  将式(4)和式(1)的各项对应,可导出其权值如式(5)      ,同时定义符号式
(7):

     hij  A  B                                 (6)                                        ij    1 if i  j
                                                                                                     0 otherwise                             (7)

  TSP 能量函数曲面复杂,存在许多极小值,只靠减小能量是不可能求得全局最优解或满意解。


4 Hopfeild 神经网络学习算法
                   框
     图 1 是学习算法的流程图。 I 是用学习后的新参数             ,
                               (第一次用初始给出的参数值) 使 HNN
在状态空间里进行状态更新至平衡状态,t 是状态更新次数,被定义为时间。框 II 是网络到达平
衡状态后,在参数空间里进行学习,s(离散值)是学习次数。
  为了简明起见,举一个只含二个极小值的 HNN 为例,说明其学习过程。图 2 是能量和状态

                                                                                    4
                      管理科学与系统科学研究新进展
        ——第 6 届全国青年管理科学与系统科学学术会议论文集             2001 年·大连


的关系,属概念性图示,横坐标表示状态,纵坐标表示与之对应的能量(为了便于理解,用一维
  。
表示) 网络的初始状态和所对应的能量可以被定义为“山岳地形”上的某一点,这个点在特定“山
谷”的斜面上。在状态空间里,由 HNN 的收敛特性可知,随着 HNN 状态的更新,这个点将滑向
谷底。如初始状态是图 2(a)上的点 A,随着 HNN 状态的更新,将向谷底滑去,最终陷入谷底
       。
B 点(极小值)




                                (a)                          (c)




                                (b)                          (d)
  图 1 学习算法的流程图                  图 2 含二个极小值 HNN 的学习过程


  HNN 能量函数的形状是由各种参数值决定的。因此,对于一旦陷入极小值的点,在参数空
间里,让参数向着使能量函数最速上升的方向学习。为此,用参数对能量函数进行微分,在它的
最速上升方向               ,
      (能量函数的微分系数更大的方向) 即正的梯度方向上对参数进行修正,这里我们
称之为最速上升法。下面就此作进一步阐述。
                                      
   首先,考虑一个含有许多参数的系统,把这些参数归纳起来用向量V 表示,在参数空间里,
                               
V 将按照式(8)进行学习,这里设ε是正的常数,V 的修正量 V s 可以由式(9)求得,
                                                 
  Vs 1  Vs  Vs   (8)                V s    e(V s )         (9)
         
▽e 是 e 关于V 的梯度。如果能使ε取得足够小,随着学习,能量函数 e 是上升的。
  因此,学习后上升了的 B 点,又成为“山谷”斜面上的一点 B′。这时,在状态空间里,使
                                          )
HNN 进行状态更新,点 B′将向谷底 C 滑去,最后陷入谷底 C 点(图 2(b)。如此使网络在状
态空间和参数空间里,按照 HNN 的收敛特性及最速上升法,反复地进行状态更新、参数学习,
                                         )
HNN 能量函数能够从陷入的极小值中逃脱出来,最终收敛于最优解或满意解(图 2(d)。




                            5
                               管理科学与系统科学研究新进展
         ——第 6 届全国青年管理科学与系统科学学术会议论文集                                                         2001 年·大连


5 基于 Hopfield 神经网络学习的 TSP 解法
    TSP 能量函数式(4)中,A、B、D 是决定约束条件权值大小的系数,并且在选择范围上有
一定的自由度,可作为学习参数。因此,对应于式(9)                  ,A、B、D 的修正量分别是
              e                     e                       e
  A( s)  p        (10) B( s)  q        (11)   D( s)  r                                             (12)
             A( s)                 B( s)                   D( s)
                     ,可以导出能量函数关于学习参数 A、B、D 的偏微
p、q、r 是正常数,称学习系数。由式(4)
分
               N   N   N   N                                       N   N
     e
                                                            y
           1                                                                        1
                               im (1   jn ) y ij y mn                 ij                         (13)
    A(s) 2    i   j   m   n                                       i   j
                                                                                    2

               N   N   N   N                                       N   N
     e
                                                             y
           1                                                                        1
                               jn (1   im ) y ij y mn                 ij                         (14)
    B(s) 2    i   j   m   n                                       i   j
                                                                                    2

               N   N   N   N
     e
                d
           1
                                im y ij   y mn ( n, j 1   n, j 1 )                               (15)
    D(s) 2    i   j   m   n




6 仿真实验结果
    10 城市的坐标被随机地配置在一个单位正方形内,设 p=q=r=0.001,T=0.25,学习参数初始
值 A=B=1、D=2。在[0.000000,1.000000]范围内,随机产生 100 组不同的初始出发状态,其计算结
果如图 3 所示。图中,非可行解、可行解及最优解分别用 failure、feasible 及 optimum 表示。由图
                   ,failure、feasible、optimum 的收敛率分别是 23%、77%、
可见,不学习的 HNN(学习次数是 0)
0%。随着学习次数的增加,optimum 的收敛率增高,学习 23 次后,100%的解收敛于 optimum。




      图 3 随机给出 100 组不同初始值的计算结果                                                          图 4 20 城市 TSP 的最终解

    20 城市的坐标被随机地配置在一个单位正方形内(图 4),设 p=q=r=0.0002,T=0.2,A=B=10、
D=14。yij 的初始值,由[0.000000,1.000000]内的随机数随机地给出,计算结果如表 1 及图 4 所示,
                                          。
(表 1 中,s、t、e、d、r 分别是学习次数、状态更新次数、能量、距离、访问路径)

                                                               6
                                      管理科学与系统科学研究新进展
              ——第 6 届全国青年管理科学与系统科学学术会议论文集                                                               2001 年·大连


                                        表 1 20 城市 TSP 的能量、距离、路径变化过程
                        s      t                 e           d                                r
                (1)     0     24      -353.683166     20.027258        2,1,4,3,6,5,8,7,10,9,12,11,14,13,16, 20,19,15,18,17,2
                (2)   144   1450          7.818924   13.037652        14,1,4,3,9,5,8,7,10, 17,12,11,16,13,2, 20,19,15,6,18,14
                (3)   147   1497         13.447951   11.651095        14,1,4,3,9,5,8,7,10, 17,12,11,15,13,2, 20,16,19,6,18,14
                (4)   151   1736         19.193441    8.277337        3,6,18,8,9,5,14,1, 11,12,17,10,15,13, 2,20,16,4,19,7,3




7 结论
      (1) 本文提出的学习算法,即把决定约束条件权值大小的系数作为学习参数,在参数空间里
使参数向着 HNN 能量高速上升的方向学习,能够有效地使网络从极小值状态中逃脱出来,并能
以很高的比率收敛于最优解。因此,本算法在最优化问题的应用方面将会比 HNN 更有效更广泛。
      (2) 该学习算法并不局限于求解 TSP,更适用于求解状态到达全局最优解时有明确定性特征
的最优化问题。
    (3)因算法简明,可望易于硬件实现。


参考文献
1 Hopfield J J, Tank D W. ‘Neural’ computation of decision in optimization problems. Bio. Cybern., 1985, 52: 141-152
2 Ackley D H, Hinton G E, Sejnowski T J. A learning algorithm for Boltzman Machines. Cognitive Sci, 1985, 9: 147-169
3 Murata J, Fuchikami T, Hirasawa K. Heuristic optimization using long, medium, and short term memories. T.IEE, 1998,
    118- C (9): 1315-1321
4 Tang Z, Jin H H, Ishizuka O, et al. An investigation on a unique solution of the Hopfield and the T-model neural networks.
    T.IEE, 1998, 118-C (2): 150-160
5 Tang Z, Jin H H, Murao K, et al. A gradient ascent learning for Hopfield networks. T.IEICE, 2000, J83-A (3): 319-331
6 Lawler E L, Lenstra J K, Rinnooy A H G, et al. The Travelling Salesman Problem. Chichester: Wiley, eds, 1985
7 Hopfield J J. Neurons with graded response have collective computational properties like those of two-state neurons. Proc.
    of the Natl. Acad. of Sci., USA, 1984, 81: 3088-3092


       Hopfield Network Learning and Its Application in Optimization
                               Problems

                                                        Jin Haihe
           (School of Economics and Management, Tsinghua University, Beijing 100084, China)


Abstract This paper proposes a learning algorithm of solving the local minimum problem and the
un-learnable problem for the Hopfield neural networks. The learning algorithm defines the coefficients of
deciding constraint weight degrees as the learning parameters, and increases the energy of the Hopfield
network by modifying its learning parameters in parameter space, thus making the network escape from

                                                                  7
                              管理科学与系统科学研究新进展
            ——第 6 届全国青年管理科学与系统科学学术会议论文集                                      2001 年·大连


the local minimum which the network once falls into. This learning algorithm is applied to 10-city and
20-city traveling salesman problems, respectively. As a result, the network can converge in global
minimum with higher percentage.
Key words Hopfield Neural Networks Gradient Ascent Method Parameter Learning Optimization
Problems




                                                   8

				
DOCUMENT INFO
Shared By:
Categories:
Stats:
views:14
posted:11/30/2012
language:Unknown
pages:6
Description: mab paper ,including economic management accounting ans also
201212 29 201212 29
About download professional profile