Bonsoir, je n’arrive pas à comprendre cette démonstration :
En particulier l’interprétation de l’équation matricielle $A = \land B$ du point de vue des colonnes…
Quelqu’un pourrait-il m’expliquer? Je précise ne pas avoir aborder les applications linéaires, car j’ai vu que certaines interprétations se font en termes d’applications linéaires.
En fait cette équation exprime juste un produit matriciel.
Maintenant, comme n’importe quelle matrice, tu peux lire selon les lignes ou selon les colonnes. Donc si t’as une égalité sur les lignes, tu obtiens une égalité sur les colonnes.
Ici, les démonstrations de ce résultat sont évidentes (dans le sens ou il faut pas avoir une idée de "génie" et que c’est juste plein de bidouillages d’indices et de calcul) mais pour moi sans vouloir démontrer et juste en se représentant les applications linéaires associés aux matrices ça n’a rien d’évident.
Par exemple, à partir d’une matrice $A$ inversible $2 \times 2$, je ne sais pas comment me représenter sa matrice transposée dans le plan.
@Ozmox, je ne comprends pas ce que tu ne comprends pas. Si tu as vu la multiplication matricielle, normalement ça devrait aller (ou alors c’est la lettre grecque $\Lambda$ qui te fait peur :p).
EDIT : en fait j’avais mal compris ce qu’a dit Holosmos Je pensais que tu voulais dire que si une opération est vraie sur les colonnes elle est vraie sur les lignes… (par exemple le fait que $\det(A) =\det(A^t)$, alors qu’effectivement c’est évident de dire que si les colonnes de deux matrices sont égales alors les matrices sont égales et donc leurs lignes aussi.
Bah en fait c’est évident à partir du moment où t’as la notion d’espace dual. En utilisant l’association $\langle Ax,\cdot\rangle = \langle x,A^T\cdot\rangle$ ça devient assez facile à sentir.
Mais sans notion d’application linéaire, le mieux reste de le comprendre sur les indices.
Bon tes notations sont un peu difficiles à appréhender, voilà ce que je te conseille comme écriture (point de vu subjectif … mais qui à fait ses preuves pour moi).
On écrit une matrice $A$ selon ses coordonnées : $A_{ij}$ où $i$ désigne la ligne et $j$ la colonnes. Le produit matriciel dit que :
$$A_{ij} = \sum_k \Lambda_{ik}B_{kj}$$
Maintenant on peut lire ça de deux façons : ou bien comme une combinaison des lignes de $B$ : $B_{kj}$ ne varie que selon $k$ qui désigne les lignes ; ou bien comme combinaison des colonnes de $\Lambda$ : $\Lambda_{ik}$ ne varie que selon $k$ qui désigne les colonnes.
je trouve étrange d’étudier la multiplication matriciel avant de voir les applications linéaires.
Enfin si c’est dans un cadre appliqué et qu’on est prêt a admettre bcp de chose pourquoi pas mais dans le cade d’un cours de maths ça me parait étrange.
(après vu le Théorème que tu sors je ne conseillerai sans doute pas ce cour pour une première approche de l’algèbre linéaire )
Le problème quand les applications linéaires sont abordées avant c’est que les étudiants croient après pour la plupart que matrice = application linéaire, alors que ça n’est pas le cas. (On a déjà beaucoup discuté sur ce forum de la nature d’une matrice. En court : c’est un tableau de nombres, et c’est tout.)
Yep mais lorsque c’est un simple tableau de nombre la multiplication matriciel "usuel" n’a pas plus de raison d’être qu’une autre et parait même inutilement compliqué (et à raison).
Lorsque les matrices sont à coefficients dans un corps $\mathbb{K}$ c’est toujours des applications linéaires, tu faisais allusion à des choses du type ? :
On peut choisir (modulo parfois axiome du choix) mais en revanche ça montre bien qu’une matrice n’est pas une application linéaire. Si c’était le cas, il n’y aurait rien à choisir du tout
Connectez-vous pour pouvoir poster un message.
Connexion
Pas encore membre ?
Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte