La transposée A T d'une matrice A s'obtient par symétrie axiale par rapport à la diagonale principale de la matrice. La transposée de la transposée (A T )T est la matrice A d'origine. En mathématiques , la matrice transposée (ou la transposée ) d'une matrice A ∈ M m , n ( K ) {\displaystyle A\in \mathrm {M} _{m,n}(K)} est la matrice A T ∈ M n , m ( K ) {\displaystyle A^{\mathsf {T}}\in \mathrm {M} _{n,m}(K)} , également notée A t {\displaystyle A^{\operatorname {t} }} , t A {\displaystyle ^{\operatorname {t} }\!A} ou A ′ {\displaystyle A'} [ 1] , obtenue en échangeant les lignes et les colonnes de A {\displaystyle A} .
Plus précisément, si on note a i , j {\displaystyle a_{i,j}} pour ( i , j ) ∈ { 1 , … , m } × { 1 , … , n } {\displaystyle (i,j)\in \{1,\ldots ,m\}\times \{1,\ldots ,n\}} et b i , j {\displaystyle b_{i,j}} pour ( i , j ) ∈ { 1 , … , n } × { 1 , … , m } {\displaystyle (i,j)\in \{1,\ldots ,n\}\times \{1,\ldots ,m\}} les coefficients respectivement de A {\displaystyle A} et de A T {\displaystyle A^{\mathsf {T}}} alors pour tout ( i , j ) ∈ { 1 , … , n } × { 1 , … , m } {\displaystyle (i,j)\in \{1,\ldots ,n\}\times \{1,\ldots ,m\}} on a b i , j = a j , i {\displaystyle b_{i,j}=a_{j,i}} .
Par exemple, si
A = ( 1 3 5 2 4 6 ) {\displaystyle A={\begin{pmatrix}1&3&5\\2&4&6\end{pmatrix}}} alors
A T = ( 1 2 3 4 5 6 ) {\displaystyle A^{\mathsf {T}}={\begin{pmatrix}1&2\\3&4\\5&6\end{pmatrix}}} . On suppose ici que K est un anneau commutatif . On note A {\displaystyle A} et B {\displaystyle B} deux matrices quelconques de M m , n ( K ) {\displaystyle \mathrm {M} _{m,n}(K)} et α ∈ K {\displaystyle \alpha \in K} un scalaire.
L'application « transposition » est linéaire : ( A + B ) T = A T + B T , ( α A ) T = α A T {\displaystyle (A+B)^{\mathsf {T}}=A^{\mathsf {T}}+B^{\mathsf {T}},\qquad (\alpha A)^{\mathsf {T}}=\alpha A^{\mathsf {T}}} . La transposée de A T {\displaystyle A^{\mathsf {T}}} est A {\displaystyle A} . Par conséquent, l'application « transposition » T : M m , n ( K ) → M n , m ( K ) {\displaystyle ^{\mathsf {T}}:\mathrm {M} _{m,n}(K)\to \mathrm {M} _{n,m}(K)} est bijective . C'est donc un isomorphisme d'espaces vectoriels . En particulier — pour les matrices carrées — c'est une involution de M n ( K ) {\displaystyle \mathrm {M} _{n}(K)} ; c'est donc la symétrie par rapport au sous-espace des matrices symétriques , parallèlement à celui des matrices antisymétriques . La transposée du produit de deux matrices est égale au produit des transposées de ces deux matrices, mais dans l'ordre inverse : ( A B ) T = B T A T {\displaystyle (AB)^{\mathsf {T}}=B^{\mathsf {T}}\,A^{\mathsf {T}}} . En particulier, l'application « transposition » est donc un antiautomorphisme de l'algèbre M n ( K ) {\displaystyle \mathrm {M} _{n}(K)} . Si une matrice carrée A {\displaystyle A} est inversible , alors sa transposée l'est aussi, et la transposée de l'inverse de A {\displaystyle A} est égale à l'inverse de sa transposée : ( A − 1 ) T = ( A T ) − 1 {\displaystyle \left(A^{-1}\right)^{\mathsf {T}}=\left(A^{\mathsf {T}}\right)^{-1}} . Une matrice carrée et sa transposée ont la même diagonale principale (et par conséquent la même trace ). En particulier, toute matrice diagonale est symétrique , c'est-à-dire égale à sa transposée. Plus généralement, deux matrices carrées transposées l'une de l'autre ont même polynôme caractéristique donc mêmes valeurs propres , comptées avec leurs multiplicités (en particulier, non seulement même trace mais aussi même déterminant ), et même polynôme minimal . Mieux : sur un corps, elles sont semblables [ 2] . Cela peut se montrer en remarquant qu'elles ont les mêmes invariants de similitude , ou bien en utilisant la réduction de Jordan , et en remarquant que S J S − 1 = J T {\displaystyle SJS^{-1}=J^{\mathsf {T}}} , où J est un bloc de Jordan et S une matrice de permutation antidiagonale (en) . Dans le cadre des espaces euclidiens , si A représente une application linéaire f : E → E' par rapport à deux bases orthonormales B et B' , alors sa transposée A T est la matrice, dans les bases B' et B , de son opérateur adjoint f * : E' → E , caractérisé par
∀ x ∈ E , ∀ y ∈ E ′ , ⟨ x , f ∗ ( y ) ⟩ E = ⟨ f ( x ) , y ⟩ E ′ . {\displaystyle \forall x\in E,\ \forall y\in E',\quad \langle x,f^{*}(y)\rangle _{E}=\langle f(x),y\rangle _{E\,'}.} Plus généralement, si A représente une application linéaire par rapport à deux bases , alors sa transposée A T est la matrice de la transposée de l'application par rapport aux bases duales (voir « Espace dual »).
Dans la théorie des hypergraphes , si l'on représente un hypergraphe par la matrice à coefficients dans {0,1} qui lui est associée, l'hypergraphe dual est défini par la transposée de cette matrice.
Si K {\displaystyle K} est un anneau non commutatif , on considère la transposée A T {\displaystyle A^{\mathsf {T}}} d'une matrice A {\displaystyle A} de M m , n ( K ) {\displaystyle \mathrm {M} _{m,n}(K)} plutôt comme un élément de M n , m ( K o p ) {\displaystyle \mathrm {M} _{n,m}(K^{op})} , où K o p {\displaystyle K^{op}} est l'anneau opposé de K {\displaystyle K} , de manière à conserver la compatibilité avec la multiplication,
( A B ) T = B T ⋅ A T {\displaystyle (AB)^{\mathsf {T}}=B^{\mathsf {T}}\cdot A^{\mathsf {T}}} . Complément
Vérifions qu'on peut identifier l'anneau
M 1 , 1 ( K ) {\displaystyle \mathrm {M} _{1,1}(K)} avec l'anneau
K {\displaystyle K} , la transposition étant compatible avec cette identification : en identifiant
l'ensemble M 1 , 1 ( K ) {\displaystyle \mathrm {M} _{1,1}(K)} avec l'ensemble
K {\displaystyle K} , les matrices
A , B ∈ M 1 , 1 ( K ) {\displaystyle A,B\in \mathrm {M} _{1,1}(K)} s'identifient à leurs éléments respectifs
a , b ∈ K {\displaystyle a,b\in K} . L'application
a ↦ A {\displaystyle a\mapsto A} de
K {\displaystyle K} dans
M 1 , 1 ( K ) {\displaystyle \mathrm {M} _{1,1}(K)} est clairement un isomorphisme d'anneaux, d'où l'identification de
l'anneau M 1 , 1 ( K ) {\displaystyle \mathrm {M} _{1,1}(K)} avec l'anneau
K {\displaystyle K} ; en particulier,
A B {\displaystyle AB} s'identifie à
a b {\displaystyle ab} . Il reste à montrer que la transposition est compatible avec cette identification. En identifiant les matrices transposées
A T , B T ∈ M 1 , 1 ( K ) {\displaystyle A^{\mathsf {T}},B^{\mathsf {T}}\in \mathrm {M} _{1,1}(K)} à
a , b ∈ K {\displaystyle a,b\in K} respectivement, on a dans
M 1 , 1 ( K ) {\displaystyle \mathrm {M} _{1,1}(K)} , d'après ce qui précède,
( A B ) T = B T ⋅ A T = B ⋅ A {\displaystyle (AB)^{\mathsf {T}}=B^{\mathsf {T}}\cdot A^{\mathsf {T}}=B\cdot A} où
B ⋅ A {\displaystyle B\cdot A} est le produit de
a {\displaystyle a} et
b {\displaystyle b} dans
K o p {\displaystyle K^{op}} , à savoir
b ⋅ a = a b {\displaystyle b\cdot a=ab} . Par conséquent,
( A B ) T = a b {\displaystyle (AB)^{\mathsf {T}}=ab} , donc
( A B ) T {\displaystyle (AB)^{\mathsf {T}}} s'identifie à
a b {\displaystyle ab} , ce qui exprime la compatibilité attendue.
Sur les autres projets Wikimedia :
Forme Transformée Relation Propriété Famille Associée Résultats Articles liés