In this short note, we show that the higher order derivatives of the adjugate matrix $\mbox{Adj}(z-A)$, are related to the nilpotent matrices and projections in the Jordan decomposition of the matrix $A$. These relations appear as a factorization of the derivative of the adjugate matrix as a product of factors related to the eigenvalues, nilpotent matrices and projectors. The novel relations are obtained using the Riesz projector and functional calculus. The results presented here can be considered a generalization of the Thompson and McEnteggert theorem that relates the adjugate matrix with the orthogonal projection on the eigenspace of simple eigenvalues for symmetric matrices. They can also be viewed as a complement to some previous results by B. Parisse, M. Vaughan that related derivatives of the adjugate matrix with the invariant subspaces associated with an eigenvalue. Our results can also be interpreted as a general eigenvector-eigenvalue identity. Many previous works have dealt with relations between the projectors on the eigenspaces and derivatives of the adjugate matrix with the characteristic spaces but it seems there is no explicit mention in the literature of the factorization of the higher-order derivatives of the adjugate matrix as a product involving nilpotent and projector matrices that appears in the Jordan decomposition theorem.


翻译:在这篇简短的文章中,我们展示了伴随矩阵 $\mbox{Adj}(z-A)$ 的高阶导数与$A$ 矩阵相关的 Jordan 分解中的幂零矩阵和投影矩阵的关系。这些关系表现为伴随矩阵导数的分解形式,可以看做是与特征值、幂零矩阵和投影矩阵有关的因子的乘积。这些新颖的结果是通过 Riesz 项目和函数演算得到的。这里所提供的结果可以看作是 Thompson 和 McEnteggert 定理的推广,后者将对称矩阵的伴随矩阵与简单特征值的特征空间上的正交投影相关联。这些结果也可以看作是 B. Parisse 和 M. Vaughan 之前的研究成果的补充,后者将伴随矩阵的导数与与特定特征值相关联的不变子空间相联系。我们的结果也可以被解释为一个一般化的特征向量-特征值恒等式。许多前人的工作涉及到特征空间上的投影矩阵和伴随矩阵的导数以及特征子空间的关系,但是文献中似乎没有直接提到伴随矩阵高阶导数的分解形式,即涉及到在 Jordan 分解定理中出现的幂零矩阵和投影矩阵。

0
下载
关闭预览

相关内容

【干货书】深度学习数学:理解神经网络,347页pdf
专知会员服务
258+阅读 · 2022年7月3日
不可错过!《机器学习100讲》课程,UBC Mark Schmidt讲授
专知会员服务
70+阅读 · 2022年6月28日
【2021新书】高阶网络,150页pdf,Higher-Order Networks
专知会员服务
85+阅读 · 2021年11月26日
专知会员服务
75+阅读 · 2021年3月16日
专知会员服务
50+阅读 · 2020年12月14日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
30+阅读 · 2020年4月15日
图神经网络理论基础 | 谱图理论 Ch1: Introduction
图与推荐
1+阅读 · 2022年8月18日
征稿 | International Joint Conference on Knowledge Graphs (IJCKG)
开放知识图谱
2+阅读 · 2022年5月20日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月9日
Arxiv
0+阅读 · 2023年5月8日
Arxiv
0+阅读 · 2023年5月5日
VIP会员
相关资讯
图神经网络理论基础 | 谱图理论 Ch1: Introduction
图与推荐
1+阅读 · 2022年8月18日
征稿 | International Joint Conference on Knowledge Graphs (IJCKG)
开放知识图谱
2+阅读 · 2022年5月20日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员