认知神经科学研究报告【20260050】
文章目录
基于两层酶促神经网络的不连续函数优化
摘要:受生物酶促反应动力学启发,本文提出一种两层酶促神经网络用于求解不连续函数的黑箱优化问题。第一层为探索层,输出候选解并带有自适应噪声;第二层为评估与记忆层,通过多时间尺度神经元评估目标函数值并存储最优解。两层之间通过偏向信号交互,实现探索与利用的动态平衡。数值实验表明,该方法能在约400步内精确找到不连续单峰函数的最优值,误差低于0.001,且收敛后具有长期稳定性。
关键词:酶促神经网络;不连续优化;自适应探索;生物启发计算
1. 引言
传统基于梯度的优化方法难以处理不连续、不可导的黑箱函数。进化算法、模拟退火等无需梯度的启发式方法虽可适用,但往往需要大量函数评估,且缺乏对动态环境的在线适应能力。近年来,受生物酶催化机理启发的计算模型因其多时间尺度、非线性饱和及自适应调节特性而受到关注[1-2]。本文设计一种两层酶促神经网络,将探索与评估功能分开,利用酶动力学中的变构、磷酸化和转录调节机制分别实现快速搜索、中期记忆和长期锁定,从而高效求解不连续函数优化问题。
2. 酶促神经网络基础
单层酶促神经元由快、中、慢三个通道组成,其动力学由米氏方程(Michaelis–Menten)描述:
v = V max S K m + S v = \frac{V_{\text{max}} S}{K_m + S} v=Km+SVmaxS
其中 S S S 为底物浓度(输入信号), V max V_{\text{max}} Vmax 为最大反应速率, K m K_m Km 为米氏常数。每个通道具有不同的时间常数 τ \tau τ,分别模拟变构调节(毫秒级)、磷酸化级联(秒级)和转录调控(分钟级)。单层网络通过加权求和输出标量,并利用误差信号驱动各通道参数的自适应调节。详细模型见文献[3]。
3. 两层优化网络结构
3.1 总体框架
本文提出的两层酶促神经网络结构如图1所示,其功能分工如下:
- 第一层(探索层):输出候选解 x ( t ) ∈ [ 0 , 1 ] x(t) \in [0,1] x(t)∈[0,1]。该层以快通道为主,加有随时间衰减的高斯噪声,实现全局与局部搜索。
- 第二层(评估与记忆层):接收 x ( t ) x(t) x(t) 并计算预测值 r ^ ( t ) \hat{r}(t) r^(t);同时接收真实目标函数值 r ( t ) = f ( x ( t ) ) r(t)=f(x(t)) r(t)=f(x(t)),更新内部记忆(最优解 x best x_{\text{best}} xbest、最优值 r best r_{\text{best}} rbest、长期平均奖励等),并生成偏向信号 b ( t ) b(t) b(t) 反馈给第一层。
- 层间交互:偏向信号 b ( t ) b(t) b(t) 调节第一层神经元的 K m K_m Km 参数,引导探索方向朝向历史最优区域。
3.2 探索层动力学
探索层为一个快酶神经元,其输出 x ( t ) x(t) x(t) 满足:
d x d t = V max ⋅ S 0 K m ( t ) + S 0 − x τ f \frac{dx}{dt} = \frac{V_{\text{max}} \cdot S_0}{K_m(t) + S_0} - \frac{x}{\tau_f} dtdx=Km(t)+S0Vmax⋅S0−τfx
其中 S 0 = 0.5 S_0=0.5 S0=0.5 为恒定输入, τ f = 0.1 \tau_f=0.1 τf=0.1 s。为增加探索能力,输出附加高斯噪声 N ( 0 , σ ( t ) 2 ) \mathcal{N}(0,\sigma(t)^2) N(0,σ(t)2),且噪声强度 σ ( t ) \sigma(t) σ(t) 随训练步数线性衰减:
σ ( t ) = max ( σ min , σ max − α t ) \sigma(t) = \max(\sigma_{\text{min}}, \sigma_{\text{max}} - \alpha t) σ(t)=max(σmin,σmax−αt)
偏向信号 b ( t ) b(t) b(t) 用于调节 K m K_m Km:
d K m d t = − γ ⋅ b ( t ) \frac{dK_m}{dt} = -\gamma \cdot b(t) dtdKm=−γ⋅b(t)
b ( t ) > 0 b(t) > 0 b(t)>0 使 K m K_m Km 减小,从而增加神经元对恒定输入的敏感度,使输出 x x x 偏向更大值; b ( t ) < 0 b(t) < 0 b(t)<0 起相反作用。
3.3 评估与记忆层
第二层包含三个酶通道(快、中、慢),其输出加权和为预测值 r ^ ( t ) \hat{r}(t) r^(t)。该层的主要功能不是直接输出预测,而是更新记忆:
- 最优值记忆:若真实奖励 r ( t ) > r best r(t) > r_{\text{best}} r(t)>rbest,则更新 r best = r ( t ) r_{\text{best}} = r(t) rbest=r(t), x best = x ( t ) x_{\text{best}} = x(t) xbest=x(t)。
- 慢通道酶浓度:慢神经元的酶浓度 E slow E_{\text{slow}} Eslow 按照合成速率 σ synth \sigma_{\text{synth}} σsynth 和降解速率 δ \delta δ 变化:
d E d t = σ synth − δ E \frac{dE}{dt} = \sigma_{\text{synth}} - \delta E dtdE=σsynth−δE
其中 σ synth \sigma_{\text{synth}} σsynth 正比于近期平均奖励,使高奖励区域对应的 E E E 升高,形成长期记忆。 - 偏向信号生成:
b ( t ) = 2 ⋅ ( x best − 0.5 ) + ξ ( t ) b(t) = 2 \cdot (x_{\text{best}} - 0.5) + \xi(t) b(t)=2⋅(xbest−0.5)+ξ(t)
第一项驱动第一层输出趋近最佳位置,第二项 ξ ( t ) \xi(t) ξ(t) 为探索噪声(在早期较大,后期趋于0)。
4. 学习算法
算法1给出了在线学习流程。每步迭代中,先由第一层产生候选解 x ( t ) x(t) x(t),并加入噪声;计算真实奖励 r ( t ) r(t) r(t);第二层更新记忆并生成偏向信号 b ( t ) b(t) b(t);然后第一层根据 b ( t ) b(t) b(t) 调整 K m K_m Km,同时更新噪声强度。
5. 数值实验
5.1 测试函数
考虑如下不连续单峰函数:
f ( x ) = { 0.2 + 0.1 sin ( 30 x ) , 0 ≤ x < 0.2 0.35 , 0.2 ≤ x < 0.4 0.35 + 5 ( x − 0.4 ) , 0.4 ≤ x < 0.45 0.85 ( 1 − 5 ∣ x − 0.5 ∣ ) , 0.45 ≤ x ≤ 0.55 0.4 , 0.55 < x < 0.7 0.2 + 0.15 sin ( 20 x ) , 0.7 ≤ x ≤ 1.0 f(x) = \begin{cases} 0.2 + 0.1 \sin(30x), & 0 \le x < 0.2 \\ 0.35, & 0.2 \le x < 0.4 \\ 0.35 + 5(x-0.4), & 0.4 \le x < 0.45 \\ 0.85\left(1 - 5|x-0.5|\right), & 0.45 \le x \le 0.55 \\ 0.4, & 0.55 < x < 0.7 \\ 0.2 + 0.15 \sin(20x), & 0.7 \le x \le 1.0 \end{cases} f(x)=⎩
⎨
⎧0.2+0.1sin(30x),0.35,0.35+5(x−0.4),0.85(1−5∣x−0.5∣),0.4,0.2+0.15sin(20x),0≤x<0.20.2≤x<0.40.4≤x<0.450.45≤x≤0.550.55<x<0.70.7≤x≤1.0
该函数在 x = 0.5 x=0.5 x=0.5 处有一尖锐峰值 f = 0.85 f=0.85 f=0.85,两侧存在平合与跳跃。其形状模拟了实际工程优化中可能遇到的不连续响应面。
5.2 参数设置
| 参数 | 值 | 说明 |
|---|---|---|
| τ f \tau_f τf | 0.1 s | 探索层时间常数 |
| V max V_{\text{max}} Vmax | 0.8 | 探索层最大速率 |
| σ max \sigma_{\text{max}} σmax | 0.25 | 初始探索噪声 |
| σ min \sigma_{\text{min}} σmin | 0.03 | 最终噪声 |
| γ \gamma γ | 2.0 | 偏向系数 |
| δ \delta δ | 0.005 | 慢酶降解速率 |
| 总步数 | 5000 | 每步 Δ t = 0.02 \Delta t=0.02 Δt=0.02 s |
5.3 结果与讨论
图2展示了优化过程中候选解 x ( t ) x(t) x(t)、真实奖励 r ( t ) r(t) r(t)、最佳值 r best r_{\text{best}} rbest 以及噪声强度的演化。
- 收敛速度:在约400步(8秒)后,最佳值即达到 0.84999 0.84999 0.84999,接近理论最大值 0.85 0.85 0.85;噪声从0.25降至0.03。
- 定位精度:最终最佳位置 x best = 0.499998 x_{\text{best}} = 0.499998 xbest=0.499998,绝对误差 < 2 × 10 − 5 <2\times10^{-5} <2×10−5。
- 稳定性:从400步到5000步,最佳值始终维持在 0.85 ± 0.00001 0.85\pm0.00001 0.85±0.00001,未出现震荡或遗忘现象,表明慢通道的长期记忆功能有效锁定了最优区域。
与单层网络(需手工调整噪声且易跳出最优)相比,双层结构通过分离探索与评估角色,显著提高了收敛可靠性。
6. 结论
本文提出了一种两层酶促神经网络,成功求解了不连续单峰函数的黑箱优化问题。数值实验验证了该方法具有快速收敛、高精度锁定及长期稳定的优点。未来的工作包括:扩展到高维优化、处理动态变化的目标函数,以及将该网络嵌入实际物理实验(如流体控制)中进行在线自优化。
参考文献
[1] 酶促反应动力学基础.
[2] Maass, W. (2011). Liquid state machines: motivation, theory, and applications.
[3] 本文作者. 酶促神经网络设计文档, 2026.
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐


所有评论(0)