矩阵系统

首先,在集合的基础上,额外定义满足要求1的加法,就形成加群,再额外定义满足要求2的数乘,就形成向量空间,再额外定义满足要求3的向量内积,就形成了内积空间。
在这里,我们只需要基于向量空间就可以研究一种重要的映射:线性映射,可以说它是代数系统中最重要的映射方法。
经过分析,我们进一步可以知道线性映射所在的映射空间总是可以与矩阵空间同构,每一个线性映射因此可以利用矩阵进行研究。
所以可以简单的说,研究向量空间间的线性映射,其实就是研究矩阵,矩阵线性映射
从映射角度看,所有线性映射问题都可以通过矩阵进行研究,实现了形式的统一和简化。
从矩阵角度看,所有矩阵都可以经过分析转化为从某空间到另一空间的映射,进而把矩阵问题可以转化为更加基本的映射问题,拓展解决问题的思路。

线性代数基础概念

  • 域F
    满足若干条件的标量集合称为域。在这里,我们的研究范围为限定为复数域,没有特指时,被判为数的量一定是来自复数域的。
  • 向量空间
    定义:集合V在域F上定义了封闭的“数乘”和封闭的“元素之间的加法”(这里数乘中一个因子来自V,另一个因子来自F),且这两种运算满足“8定则”,则称之为向量空间,V的元素称为向量.我们将研究范围限定为有限维.
  • 向量空间的基,维数,坐标
    基: 空间V的一个最大无关组可称为V的一个基,值得强调的是,由于思维惯性的存在,我们应当尽可能的避免各种形式的换基行为,尤其在复杂情况下,换基会导致复杂的问题.
    例如:将物体向右平移一个单位,再绕(1,1)点旋转90度.
    在这里,若在第一步平移时采取换基的策略,那么第二步其实应当是绕新基下的(0,1)点旋转,此时若再绕(1,1)旋转,就会出现错误
    维数:基中向量的个数称为维数. 我们将研究范围限定在有限维内。
    坐标:向量y在基[ai]下的线性组合称为y在[ai]下的坐标
  • 子空间和张成空间
    子空间一定是一个相对概念,只有在比较时才有子空间的说法.
    张成空间:spanS,是用S的最大无关组为基的空间.
  • 酉空间(复内积空间)
    限定为复域,且定义了内积值为复数的向量内积,则可以称向量空间为酉空间.
    注意,酉空间内的数乘是最宽泛的定义,有严格的顺序之分
    $$(ax,by) = abar b(x,y) = a{b^H}(x,y) = {(by,ax)^H}$$
    当限定内积为实数时,称为欧氏空间(实内积空间)时,内积才有简单的可交换性.

线性映射

基本定理:在基确定时,线性映射总是可以由唯一确定的矩阵决定.
思想:在基确定时,由于线性,线性和的映射可以化为映射的线性和.而V中[ai]基在W中的像总是可以由W的基[bi]唯一的表达,这个唯一的表达就代表了空间内的映射.

线性变换

当原集和像集是同一个空间时,可以认为映射其实就是在基不变时,将空间内的一组元素以某种规则变换为另一组元素.这种思想非常重要.
另外,理解为换坐标,而不是换基,是因为人的思考有惯性,换基后需要更换思维模式,这与惯性产生冲突,会导致逻辑的混乱

正交变换与空间正交分解

正交变换下内积相关量是不变的,且正交基正交变换仍为正交基(酉阵*酉阵仍为酉阵).

另外,若已知[ai]是空间V的一组基,那么它的一个子空间可以很容易的求出正交补
$$\eqalign{
& W = span([{a_i}]A) \cr
& {W^ \bot } = span([{a_i}]{N(A^H)}) \cr
& V = W \oplus {W^ \bot } \cr} $$

范数理论

  • 范数理论
    它是非常重要的一种测度方法,它将向量映射到实数,进而可以对向量进行测度.对于某一空间,能作为其范数的算法在有限维空间内彼此是等价的,这对于转化或简化问题非常有利.
  • 范数的相容性(一致性)
    范数相容对于研究问题十分重要,它是建立不等式的基础,进而是确立极限不等式的基础.
    例如,算子范数原理直观的道出”对于任意矩阵范数a,总可以用算子方法找到与之相容的向量范数”

矩阵分解

分解矩阵的方法千千万,先人思路广,这里先提示一下特征向量阵,特征向量阵通常是不唯一的,即使特征向量阵是酉阵,也可以对任意列乘以-1得到一个不通的特征向量阵。

奇异值分解

奇异值分解应该是所有分解方法中最为优美的.
对任意A都可进行SVD分解,[latex]A = VSU[/latex],主要获得了两个有关联的酉阵U,V,和一个对角型S. U矩阵是[latex]{A^H}A[/latex]的一个特征向量阵,V是[latex]A{A^H}[/latex]的一个特征向量阵,一个确定后,另一者就确定了,二者之间可由
$$V = [{A_{m times n}}{U_{n times r}}S_{r times r}^{ – 1},N({[{A_{m times n}}{U_{n times r}}S_{r times r}^{ – 1}]^H})] = [{A_{m times n}}{U_{n times r}}S_{r times r}^{ – 1},N({A^H})]$$
建立联系.当矩阵为正定正规时,其奇异值分解退化为酉对角分解。

相似上三角分解

拥有众多的形态,也有广泛的应用,其中以:Schur分解意义最重大,Jordan分解最为常用
Schur分解指出任意方阵都能相似分解为上三角,也必然可以酉相似分解(利用酉阵进行相似分解)为上三角形.(Schur分解不唯一)
Schur分解的主要意义在于引导学者们进行各种各样的相似分解尝试,并不是一种具体的分解方法,它的一个附属结论是:当相似分解为上三角型时,对角线上为特征值.
Jordan分解则指出任意方阵都能相似分解为Jordan标准型,但P比较难求,方法多样.(Jordan型唯一,但不一定能酉相似分解为Jordan型)
当Jordan标准型为对角形式,称之为对角分解(可以对角分解的矩阵称为单纯矩阵),对角分解时矩阵P比较容易求,当对角分解依赖的矩阵P满足:不同特征值的特征向量正交时,可进行酉对角分解(可以酉对角分解的矩阵称为正规矩阵)

谱分解

谱分解又称特征值分解,它基于对角分解,将非零特征值称为谱值(0也是谱值,但是在谱分解中没有具体意义),谱分解要求可对角化,基于对角化方法,利用特征向量构造谱阵。
而广义谱分解则基于幂定义下矩阵函数的谱上一致公式,不要求对角化,由矩阵函数的谱上一致公式变形得到.
特征值理论则需要针对具体问题,在不同问题中特征值,特征向量总有一个确定的物理意义.
另外,特征值估计的盖尔方法对于诸多工程问题有着积极意义.

广义逆理论

矩阵的广义逆,或者可以说就是彭罗斯逆,从理论上圆满的解决了线性方程组的所有问题.另外,广义逆在可矩阵逆时会退化为普通逆,体现了其普适性,是一种优美的理论.
广义逆主要依据其位置有四个基本类型:中心逆,外维逆,右共轭逆,左共轭逆.广义逆的组合有无穷种,然而由于其局限性,仅有(1,3),(1),(1,4),(1,2,3,4)四种可以有限的应用于线性方程组中,其余广义逆并没有展现出优美的应用.
#基于矩阵幂的矩阵函数理论
矩阵级数的审敛一定成都上可以化为任意范数的正项审敛,进而作为矩阵级数的基础。
进一步,基于矩阵级数可以定义矩阵函数,矩阵函数对于三角和指数都比较友好,有和对应函数相似的运算结构.利用矩阵函数可以便利的简化矩阵函数的书写结构,在形式上将问题进行了简化.(写表达式推导时更加容易)