一般的线性系统

我们首先考虑常系数齐次系统 \[ \dot{x} = Ax \\ x(0) = x_0 \] 该方程的解为 \[ x(t) = x_0 e^{At} \] 是不是很简单? 好, 我们继续再考虑系数随时间变化的系统 \[ \dot{x} = A(t)x \\ x(0) = x_0 \] well, 这样子方程就不太容易直接看出解出来了. 因为从形式上来说, 我们只能确定 \(e^{At}\), 并验证该解满足方程. 但是对于 \(e^{A(t)t}\), 微分得到的结果为 \[ \frac{\mathrm{d}~}{\mathrm{d} t} e^{A(t)t} = \frac{\mathrm{d}~}{\mathrm{d} t} \sum_{k=0}^{\infty} \frac{t^k}{k!}A(t)^k = A(t)\sum_{k=1}^{\infty} \frac{t^{k}}{k!}A(t)^{k} + \sum_{k=0}^{\infty} \frac{t^{k}}{k!}\frac{\mathrm{d}~}{\mathrm{d} t}A(t)^{k} \] 最后又多出一项,

不过我们可以先设解的存在, 将基本解定义为 \[ \Psi(t) = \begin{pmatrix} \psi_{11}(t) & \psi_{12}(t) \\ \psi_{21}(t) & \psi_{22}(t) \end{pmatrix}, \quad \Psi(0) = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} \] 并满足方程, 这样, 解就可以表示为 \[ x(t) = \Psi(t) x_0 \] 注意到对于常系数矩阵 \(A\), 有公式 \[ \frac{\mathrm{d}~}{\mathrm{d} t} \det e^{At} = \mathrm{tr} A~\det e^{At} \] 一般的, 对于矩阵 \(A(t)\), 同样有 \[ \frac{\mathrm{d}~}{\mathrm{d} t} \det e^{A(t)} = \mathrm{tr}A(t) \det e^{A(t)} \] 好, 接下来我们接触最复杂的情况: 非齐次方程 \[ \dot{x} = A(t)x + g(t) \\ x(0) = x_0 \] 对于线性方程, 我们总是可以通过叠加原理, 将方程转化为我们已经处理过的情况. 对于本问题, 我们可以做如下分解 \[ \dot{x} = A(t)x, \quad x(0) = x_0 \\ \dot{x} = A(t)x + g(t), \quad x(0) = 0 \] 这样, 我们就将非齐次方程中的初值转化为 0, 所以我们现在就可以只关注于非齐次项的处理. 我们假设方程的解为 \[ x(t) = \Psi(t) c(t) \] 求一次导数得到 \[ \dot{x}(t) = \dot{\Psi}(t)c(t) + \Psi(t) \dot{c}(t) \] 代入到方程中得到 \[ \dot{\Psi}(t)c(t) + \Psi(t) \dot{c}(t) = A(t)x(t) + g(t) \] 如果令???? (这一步总是让我很不舒服, 为什么? 这样不是和变系数的假设相违背了呢?) \[ \dot{\Psi}(t)c(t) = A(t)x(t) \] 就得到关于系数 \(c(t)\) 的微分方程 \[ \dot{c}(t) = \Psi^{-1}(t) g(t) \] 积分得到 \[ c(t) = \int_0^t \Psi^{-1}(s) g(s) ~\mathrm{d}s \] 所以我们就得到了 Duhamel 原理 \[ x(t) = \Psi(t) x_0 + \int_0^t \Psi(t) \Psi^{-1}(s) g(s) ~\mathrm{d}s \] 现在我们回归到具体的方程, 比如常系数方程, 就得到 \[ x(t) = e^{At} x_0 + \int_0^t e^{A(t-s)} g(s) ~\mathrm{d}s \] 我们还可以用一种更形象的方式陈述 Duhamel 原理, 也即冲量原理. 设在时刻 \(s\), 在 \(\Delta s\) 的时间范围内, 方程的非齐次项产生冲量 \(g(s) \Delta s\). 该冲量将在未来的 \(t-s\) 时间内, 作为初值影响方程的解: \[ \Delta x = e^{A(t-s)} g(s) \Delta s \]\(\Delta s\) 积分得到 \(g(s)\) 在时间 \((0,t)\) 内对方程解的总贡献为 \[ x(t) = \int_0^t e^{A(t-s)} g(s) \mathrm{s} s \]