Un espace vectoriel réel (abrégé EV) est un ensemble V V V dont les éléments sont appelés "vecteurs", muni de deux opérations, l'addition "+" et la multiplication par des scalaires ( ∈ R ) (\in\R) ( ∈ R ) , tel que les propriétés suivantes soient satisfaites :
U + V = V + U ∀ u , v ∈ V U+V=V+U\quad\forall u,v\in V U + V = V + U ∀ u , v ∈ V
U + ( V + W ) = ( U + V ) + W ∀ u , v , w ∈ V U+(V+W)=(U+V)+W\quad\forall u,v,w\in V U + ( V + W ) = ( U + V ) + W ∀ u , v , w ∈ V
Il existe un vecteur nul noté "0 0 0 " (ou parfois "0 V 0_V 0 V "), tel que v + 0 = 0 + v = v ∀ v ∈ V v+0=0+v=v\quad\forall v\in V v + 0 = 0 + v = v ∀ v ∈ V
∀ v ∈ V \forall v\in V ∀ v ∈ V , il existe un opposé dans V V V , noté "− v -v − v ", tel que v + ( − v ) = ( − v ) + v = 0 v+(-v)=(-v)+v=0 v + ( − v ) = ( − v ) + v = 0
λ ( u + v ) = λ u + λ v ∀ λ ∈ R , ∀ u , v ∈ V \lambda (u+v)=\lambda u+\lambda v\quad\forall\lambda\in\R,\forall u,v\in V λ ( u + v ) = λ u + λ v ∀ λ ∈ R , ∀ u , v ∈ V
( λ + μ ) v = λ v + μ v ∀ λ , μ ∈ R , ∀ v ∈ V (\lambda+\mu)v=\lambda v+\mu v\quad\forall\lambda,\mu\in\R,\forall v\in V ( λ + μ ) v = λ v + μ v ∀ λ , μ ∈ R , ∀ v ∈ V
λ ( μ v ) = μ ( λ v ) = ( μ λ ) v ∀ λ , μ ∈ R , ∀ v ∈ V \lambda(\mu v)=\mu(\lambda v)=(\mu\lambda)v\quad\forall\lambda,\mu\in\R,\forall v\in V λ ( μ v ) = μ ( λ v ) = ( μ λ ) v ∀ λ , μ ∈ R , ∀ v ∈ V
1 v = v ∀ v ∈ V 1v=v\quad\forall v\in V 1 v = v ∀ v ∈ V
V = R n , v : vecteur de R n { + : addition vectorielle multiplication par λ ∈ R \begin{aligned}V=\R^n,&\qquad v:\text{vecteur de }\R^n\\&\begin{cases}&+:\text{addition vectorielle}\\&\text{multiplication par }\lambda\in\R\end{cases}\end{aligned} V = R n , v : vecteur de R n { + : addition vectorielle multiplication par λ ∈ R
V = { fonctions f : [ a ; b ] → R } V=\{\text{fonctions }f:[a;b]\rightarrow\R\} V = { fonctions f : [ a ; b ] → R }
(Spécifier un $f\in V$, c'est définir $f(t)\quad\forall t\in[a;b]$ !)
- **Le "+" :** si $f,g\in V,f+g\in V$ est défini par $(f\textcolor{blue}{+}g)(t)\coloneqq f(t)\textcolor{red}{+}g(t),\forall t\in[a;b] $
> **Remarque :**
>
> $\textcolor{blue}{+}\text{ dans V}\\\textcolor{red}{+}\text{dans }\R$
- **La multiplication par un scalaire :** si $\lambda\in\R,f\in V,\lambda f\in V$ est défini par $(\lambda f)(t)\coloneqq\lambda f(t)$
Vérifions que $V$, muni de ces deux opérations, est un EV :
$$
\left.\begin{aligned}
&\bullet f+g=g+f\\
&\bullet f+(g+h)=(f+g)+h\\
&\bullet \lambda (f+g)=\lambda f+\lambda g\\
&\bullet (\lambda +\mu) f=\lambda f+\mu f \\
&\bullet \lambda (\mu f)=(\lambda\mu)f=\mu(\lambda f)\\
&\bullet 1f=f\\
\end{aligned}\right\}\text{OK}
$$
Vecteur nul : c'est la fonction 0 V : [ a ; b ] → R t ↦ 0 V ( t ) ≔ 0 \begin{aligned}\textcolor{blue}{0_V}:[a;b]&\rightarrow\R\\t&\mapsto0_V(t)\coloneqq\textcolor{red}{0}\end{aligned} 0 V : [ a ; b ] t → R ↦ 0 V ( t ) : = 0
Remarque :
0 V \textcolor{blue}{0_V} 0 V est le "zéro" dans V V V .
0 \textcolor{red}{0} 0 est le "zéro" dans R \R R .
Opposé : si f ∈ V , − f ∈ V f\in V,-f\in V f ∈ V , − f ∈ V est donnée par ( − f ) ( t ) = − f ( t ) (-f)(t)=-f(t) ( − f ) ( t ) = − f ( t )
V = { matrices 2 × 2 a ˋ coefficients r e ˊ els } = { ( a b c d ) ∣ a , b , c , d ∈ R } V=\{\text{matrices }2\times2\text{ à coefficients réels}\}=\begin{Bmatrix} \left. \begin{pmatrix} a&b\\ c&d \end{pmatrix}\right\vert a,b,c,d\in\R \end{Bmatrix} V = { matrices 2 × 2 a ˋ coefficients r e ˊ els } = { ( a c b d ) ∣ ∣ ∣ ∣ ∣ a , b , c , d ∈ R }
Le "+" : ( a b c d ) + ( e f g h ) ≔ ( a + e b + f c + g d + h ) \begin{pmatrix}a&b\\c&d\end{pmatrix}+\begin{pmatrix}e&f\\g&h\end{pmatrix}\coloneqq\begin{pmatrix}a+e&b+f\\c+g&d+h\end{pmatrix} ( a c b d ) + ( e g f h ) : = ( a + e c + g b + f d + h )
La multiplication : λ ( a b c d ) ≔ ( λ a λ b λ c λ d ) \lambda\begin{pmatrix}a&b\\c&d\end{pmatrix}\coloneqq\begin{pmatrix}\lambda a&\lambda b\\\lambda c&\lambda d\end{pmatrix} λ ( a c b d ) : = ( λ a λ c λ b λ d )
Exercice : vérifier que V V V est un EV.
V = { suite de r e ˊ els x = ( x n ) n ⩾ 1 , x n ∈ R , ∀ n ⩾ 1 } V=\{\text{suite de réels }\bm{x}=(x_n)_{n\geqslant1},x_n\in\R,\forall n\geqslant1\} V = { suite de r e ˊ els x = ( x n ) n ⩾ 1 , x n ∈ R , ∀ n ⩾ 1 }
Le "+" : Si x = ( x 1 , x 2 , x 3 , … ) y = ( y 1 , y 2 , y 3 , … ) x + y ≔ ( x 1 + y 1 , x 2 + y 2 , x 3 + y 3 , … ) \begin{aligned}\bm{x}&=(x_1,x_2,x_3,\ldots)\\\bm{y}&=(y_1,y_2,y_3,\ldots)\\\bm{x}+\bm{y}&\coloneqq(x_1\textcolor{red}{+}y_1,x_2\textcolor{red}{+}y_2,x_3\textcolor{red}{+}y_3,\ldots)\end{aligned} x y x + y = ( x 1 , x 2 , x 3 , … ) = ( y 1 , y 2 , y 3 , … ) : = ( x 1 + y 1 , x 2 + y 2 , x 3 + y 3 , … )
Remarque : + \textcolor{red}{+} + est le "plus" dans R \R R .
La multiplication : Si λ ∈ R , λ x ≔ ( λ x 1 , λ x 2 , λ x 3 , … ) \lambda\in\R,\\\lambda\bm{x}\coloneqq(\lambda x_1,\lambda x_2,\lambda x_3,\ldots) λ ∈ R , λ x : = ( λ x 1 , λ x 2 , λ x 3 , … )
Exercice : vérifier que V V V est un EV.
Intéressant : on peut importer toutes les notions vues jusqu'à présent pour R n \R^n R n dans le cadre général d'un EV abstrait. Par exemple :
V = { fonctions f : [ 0 ; 1 ] → R } V=\{\text{fonctions }f:[0;1]\rightarrow\R\} V = { fonctions f : [ 0 ; 1 ] → R }
Soit f ∈ V f\in V f ∈ V , défini par f ( t ) ≔ t ∀ t ∈ [ 0 ; 1 ] f(t)\coloneqq t\quad\forall t \in[0;1] f ( t ) : = t ∀ t ∈ [ 0 ; 1 ]
Soit g ∈ V g\in V g ∈ V , défini par g ( t ) ≔ t 2 ∀ t ∈ [ 0 ; 1 ] g(t)\coloneqq t^2\quad\forall t \in[0;1] g ( t ) : = t 2 ∀ t ∈ [ 0 ; 1 ]
Question : { f ; g } \{f;g\} { f ; g } est-elle une famille libre ou liée ?
On étudie l'équation
α 1 f + α 2 g = 0 V , α 1 , α 2 ∈ R \alpha_1f+\alpha_2g=0_V,\quad\alpha_1,\alpha_2\in\R α 1 f + α 2 g = 0 V , α 1 , α 2 ∈ R
qui signifie :
∀ t ∈ [ 0 ; 1 ] , α 1 f ( t ) + α 2 f ( t ) = 0 V ( t ) ⏟ = 0 ∀ t ∈ [ 0 ; 1 ] , α 1 t + α 2 t 2 ⏟ p ( t ) , polyn o ˆ me de degr e ˊ 2 = 0 \begin{array}{lcr} \forall t\in[0;1],\quad&\underbrace{\alpha_1f(t)+\alpha_2f(t)=0_V(t)}&=0\\ \forall t\in[0;1],\quad&\underbrace{\alpha_1t+\alpha_2t^2}_{p(t), \text{ polynôme de degré }2}&=0 \end{array} ∀ t ∈ [ 0 ; 1 ] , ∀ t ∈ [ 0 ; 1 ] , α 1 f ( t ) + α 2 f ( t ) = 0 V ( t ) p ( t ) , polyn o ˆ me de degr e ˊ 2 α 1 t + α 2 t 2 = 0 = 0
Rappel : si un polynôme p ( t ) = α 0 + α 1 t + α 2 t 2 + … + α n t n p(t)=\alpha_0+\alpha_1t+\alpha_2t^2+\ldots+\alpha_nt^n p ( t ) = α 0 + α 1 t + α 2 t 2 + … + α n t n s'annule partout ( p ( t ) = 0 ∀ t dans un intervalle ) (p(t)=0\quad\forall t\text{ dans un intervalle}) ( p ( t ) = 0 ∀ t dans un intervalle ) , alors tous ses coefficients sont nuls : α 0 = α 1 = … = a n = 0 \alpha_0=\alpha_1=\ldots=a_n=0 α 0 = α 1 = … = a n = 0 .
⟶ α 1 = 0 \longrightarrow\alpha_1=0 ⟶ α 1 = 0 et α 2 = 0 \alpha_2=0 α 2 = 0 .
⟶ { f ; g } \longrightarrow\{f;g\} ⟶ { f ; g } est libre.
V = { fonctions f : R → R } V=\{\text{fonctions }f:\R\rightarrow\R\} V = { fonctions f : R → R } Soit f ∈ V f\in V f ∈ V , défini par f ( t ) ≔ 7 ∀ t ∈ R f(t)\coloneqq 7 \forall t \in\R f ( t ) : = 7 ∀ t ∈ R Soit g ∈ V g\in V g ∈ V , défini par g ( t ) ≔ cos ( 2 t ) ∀ t ∈ R g(t)\coloneqq \cos(2t) \forall t \in\R g ( t ) : = cos ( 2 t ) ∀ t ∈ R Soit h ∈ V h\in V h ∈ V , défini par h ( t ) ≔ cos 2 ( t ) ∀ t ∈ R h(t)\coloneqq \cos^2(t) \forall t \in\R h ( t ) : = cos 2 ( t ) ∀ t ∈ R Question : { f ; g ; h } \{f;g;h\} { f ; g ; h } est-elle libre ou liée ? On étudie l'équation α 1 f + α 2 g + α 3 h = 0 \alpha_1f+\alpha_2g+\alpha_3h=0 α 1 f + α 2 g + α 3 h = 0 Remarquons que cos 2 ( t ) = 1 + cos ( 2 t ) 2 = 1 14 7 + 1 2 cos ( 2 t ) ∀ t ∈ R \begin{aligned} \cos^2(t)&=\frac{1+\cos(2t)}{2}\\ &=\frac{1}{14}7+\frac{1}{2}\cos(2t)\quad\forall t\in\R \end{aligned} cos 2 ( t ) = 2 1 + cos ( 2 t ) = 1 4 1 7 + 2 1 cos ( 2 t ) ∀ t ∈ R Donc h = 1 14 f + 1 2 g ⟺ { f ; g ; h } h=\frac{1}{14}f+\frac{1}{2}g\iff\{f;g;h\} h = 1 4 1 f + 2 1 g ⟺ { f ; g ; h } est liée.
Soit V V V un EV. Un sous-ensemble W ⊂ V W\sub V W ⊂ V est un sous-espace vectoriel de V V V , dit "SEV" si :
W W W contient le 0 V 0_V 0 V
w 1 , w 2 ∈ W w_1,w_2\in W w 1 , w 2 ∈ W , alors w 1 + w 2 ∈ W w_1+w_2\in W w 1 + w 2 ∈ W
w 1 ∈ W , λ ∈ R w_1\in W,\lambda\in\R w 1 ∈ W , λ ∈ R , alors λ w ∈ W \lambda w\in W λ w ∈ W
Note : en faisant des combinaisons linéaires dans W W W , on reste dans W W W .
V = R 2 , W = { V=\R^2,\quad W=\{ V = R 2 , W = { vecteurs de R 2 \R^2 R 2 dont l'extrémité est dans le carré de côté 2 2 2 centré à l'origine } \} }
W W W n'est pas un SEV, car on peut "sortir" de W W W en faisant des combinaisons linéaires de vecteurs de w ⃗ 1 , w ⃗ 2 ∈ W \vec{w}_1,\vec{w}_2\in W w 1 , w 2 ∈ W .
V = R 2 , W = { V=\R^2,\quad W=\{ V = R 2 , W = { une droite dirigée par un v ⃗ \vec{v} v passant par l'origine} \} }
W W W est un SEV de V V V .
V = R 3 , W = { V=\R^3,\quad W=\{ V = R 3 , W = { un plan contenant l'origine } \} } .
W W W est un SEV de V V V .
V = { fonctions f : [ a ; b ] → R } V=\{\text{fonctions }f:[a;b]\rightarrow\R\} V = { fonctions f : [ a ; b ] → R } .
W ≔ { f : [ a ; b ] → R telles que f ( a ) = f ( b ) } W\coloneqq\{f:[a;b]\rightarrow\R\text{ telles que }f(a)=f(b)\} W : = { f : [ a ; b ] → R telles que f ( a ) = f ( b ) } .
W W W est un SEV de V V V car :
la fonction " 0 V " ∈ W "0_V"\in W " 0 V " ∈ W , puisque 0 V ( a ) = 0 V ( b ) = 0 0_V(a)=0_V(b)=0 0 V ( a ) = 0 V ( b ) = 0
si f , g ∈ W f,g\in W f , g ∈ W , alors f + g ∈ W f+g\in W f + g ∈ W car
( f + g ) ( a ) = f ( a ) + g ( a ) ↓ f ∈ W ↓ g ∈ W = f ( b ) + g ( b ) = ( f + g ) ( b ) \begin{aligned}(f+g)(a)&=&f(a)+&g(a)\\ &&\downarrow_{f\in W} &\downarrow_{g\in W}\\ &=&f(b)+&g(b)=(f+g)(b) \end{aligned} ( f + g ) ( a ) = = f ( a ) + ↓ f ∈ W f ( b ) + g ( a ) ↓ g ∈ W g ( b ) = ( f + g ) ( b )
si f ∈ W , λ ∈ R f\in W,\lambda \in \R f ∈ W , λ ∈ R , alors λ f ∈ W \lambda f\in W λ f ∈ W car
( λ f ) ( a ) = λ ⋅ f ( a ) = λ ⋅ f ( b ) = ( λ f ) ( b ) ↑ f ∈ W \begin{aligned}(\lambda f)(a)=\lambda\cdot f(a)&=\lambda\cdot f(b)=(\lambda f)(b)\\ &\uparrow_{f\in W} \end{aligned} ( λ f ) ( a ) = λ ⋅ f ( a ) = λ ⋅ f ( b ) = ( λ f ) ( b ) ↑ f ∈ W
Un moyen standard de construire des SEV est de former des combinaisons linéaires d'une famille de vecteurs choisis de V V V .
Soit V V V un EV, v 1 , v 2 , … , v p ∈ V v_1,v_2,\ldots,v_p\in V v 1 , v 2 , … , v p ∈ V on note
Vect { v 1 , v 2 , … , v p } \text{Vect}\{v_1,v_2,\ldots,v_p\} Vect { v 1 , v 2 , … , v p }
le sous-ensemble de V V V contenant toutes les combinaisons linéaires possibles des v 1 , v 2 , … , v p v_1,v_2,\ldots,v_p v 1 , v 2 , … , v p .
W ≔ Vect { v 1 , v 2 , … , v p } ⊂ V W\coloneqq\text{Vect}\{v_1,v_2,\ldots,v_p\}\sub V W : = Vect { v 1 , v 2 , … , v p } ⊂ V est un SEV de V V V , appelé le sous-espace engendré par v 1 , v 2 , … , v p v_1,v_2,\ldots,v_p v 1 , v 2 , … , v p .
W ≔ Vect { v 1 , v 2 , … , v p } W\coloneqq\text{Vect}\{v_1,v_2,\ldots,v_p\} W : = Vect { v 1 , v 2 , … , v p } est bien un SEV de V V V , puisque :
0 V ∈ W 0_V\in W 0 V ∈ W , car 0 v 1 + 0 v 2 + … + 0 v p = 0 V \textcolor{red}{0}v_1+\textcolor{red}{0}v_2+\ldots+\textcolor{red}{0}v_p=0_V 0 v 1 + 0 v 2 + … + 0 v p = 0 V
Note : 0 ∈ R \textcolor{red}{0}\in\R 0 ∈ R !
Soient w 1 , w 2 ∈ W : ∃ α 1 , α 2 , … , α p tel que w 1 = α 1 v 1 + α 2 v 2 + … + α p v p ∃ β 1 , β 2 , … , β p tel que w 2 = β 1 v 1 + β 2 v 2 + … + β p v p \begin{aligned}w_1,w_2\in W:\quad&\exist\alpha_1,\alpha_2,\ldots,\alpha_p&\text{ tel que } w_1&=\alpha_1v_1+\alpha_2v_2+\ldots+\alpha_pv_p\\&\exist\beta_1,\beta_2,\ldots,\beta_p&\text{ tel que } w_2&=\beta_1v_1+\beta_2v_2+\ldots+\beta_pv_p\end{aligned} w 1 , w 2 ∈ W : ∃ α 1 , α 2 , … , α p ∃ β 1 , β 2 , … , β p tel que w 1 tel que w 2 = α 1 v 1 + α 2 v 2 + … + α p v p = β 1 v 1 + β 2 v 2 + … + β p v p
Donc :
w 1 + w 2 = ( α 1 + β 1 ) ⏞ ∈ R v 1 + ( α 2 + β 2 ) ⏞ ∈ R v 2 + ( α p + β p ) ⏞ ∈ R v p ∈ W w_1+w_2=\overbrace{(\alpha_1+\beta_1)}^{\in\R}v_1+\overbrace{(\alpha_2+\beta_2)}^{\in\R}v_2+\overbrace{(\alpha_p+\beta_p)}^{\in\R}v_p\in W w 1 + w 2 = ( α 1 + β 1 ) ∈ R v 1 + ( α 2 + β 2 ) ∈ R v 2 + ( α p + β p ) ∈ R v p ∈ W
Soient w ∈ W , λ ∈ R w\in W,\lambda\in\R w ∈ W , λ ∈ R . Alors λ w ∈ W \lambda w\in W λ w ∈ W puisque
w = α 1 v 1 , α 2 v 2 , … , α p v p → λ w = ( λ α 1 ) ⏟ ∈ R v 1 + ( λ α 2 ) ⏟ ∈ R v 2 + … + ( λ α p ) ⏟ ∈ R v p ∈ W □ \begin{array}{llr} &w=\alpha_1v_1,\alpha_2v_2,\ldots,\alpha_pv_p\\ &\rightarrow \lambda w=\underbrace{(\lambda\alpha_1)}_{\in\R}v_1+\underbrace{(\lambda\alpha_2)}_{\in\R}v_2+\ldots+\underbrace{(\lambda\alpha_p)}_{\in\R}v_p\in W\\ & &\square \end{array} w = α 1 v 1 , α 2 v 2 , … , α p v p → λ w = ∈ R ( λ α 1 ) v 1 + ∈ R ( λ α 2 ) v 2 + … + ∈ R ( λ α p ) v p ∈ W □
V = { fonctions f : R → R } V=\{\text{fonctions }f:\R\rightarrow\R\} V = { fonctions f : R → R }
Soit f ∈ V f\in V f ∈ V , défini par f ( t ) ≔ t ∀ t ∈ R f(t)\coloneqq t\quad\forall t \in\R f ( t ) : = t ∀ t ∈ R
Soit g ∈ V g\in V g ∈ V , défini par g ( t ) ≔ t 2 ∀ t ∈ R g(t)\coloneqq t^2\quad\forall t \in\R g ( t ) : = t 2 ∀ t ∈ R
Soit W ≔ Vect { f ; g } ⊂ V W\coloneqq\text{Vect}\{f;g\}\sub V W : = Vect { f ; g } ⊂ V
W W W est l'ensemble des polynômes de degré au plus 2 2 2 qui prennent la valeur 0 0 0 en t = 0 t=0 t = 0 .
V = { fonctions f : R → R } V=\{\text{fonctions }f:\R\rightarrow\R\} V = { fonctions f : R → R }
Soit f ∈ V f\in V f ∈ V , défini par f ( t ) ≔ sin ( t ) ∀ t ∈ R f(t)\coloneqq \sin(t) \forall t \in\R f ( t ) : = sin ( t ) ∀ t ∈ R
Soit g ∈ V g\in V g ∈ V , défini par g ( t ) ≔ cos ( 2 t ) ∀ t ∈ R g(t)\coloneqq \cos(2t) \forall t \in\R g ( t ) : = cos ( 2 t ) ∀ t ∈ R
Remarque : { f ; g } \{f;g\} { f ; g } est libre.
Soit W ≔ Vect { f ; g } W\coloneqq\text{Vect}\{f;g\} W : = Vect { f ; g }
P ≔ { polyn o ˆ mes t ↦ p ( t ) a ˋ coefficients r e ˊ els } \mathbb{P}\coloneqq\{\text{polynômes }t\mapsto p(t)\text{ à coefficients réels}\} P : = { polyn o ˆ mes t ↦ p ( t ) a ˋ coefficients r e ˊ els }
Par exemple, p ( t ) = 1 + t + 2 t 2 ∈ P p(t)=1+t+2t^2\in\mathbb{P} p ( t ) = 1 + t + 2 t 2 ∈ P
Montrer que P \mathbb{P} P , muni d'un "+ + + " et d'une multiplication par des scalaires, est un EV.
Si p 1 ( t ) ≔ 1 + 2 t 3 , p 2 ( t ) = 2 + t − 3 t 2 , p 3 ( t ) = − t + 2 t 2 − t 3 p_1(t)\coloneqq1+2t^3,p_2(t)=2+t-3t^2,p_3(t)=-t+2t^2-t^3 p 1 ( t ) : = 1 + 2 t 3 , p 2 ( t ) = 2 + t − 3 t 2 , p 3 ( t ) = − t + 2 t 2 − t 3 , est-ce que la famille { p 1 , p 2 , p 3 } \{p_1,p_2,p_3\} { p 1 , p 2 , p 3 } est libre ou liée ?
P n ≔ { polyn o ˆ mes p ∈ P de degr e ˊ au plus ‾ n } \mathbb{P}_n\coloneqq\{\text{polynômes }p\in\mathbb{P}\text{ de degré }\color{red}\underline{\color{black}\text{au plus}}\color{black}\,n\} P n : = { polyn o ˆ mes p ∈ P de degr e ˊ au plus n }
P n \mathbb{P}_n P n est un SEV de P \mathbb{P} P .
Soient V , V ′ V,V' V , V ′ deux espaces vectoriels. On considère une application de V V V dans V ′ V' V ′ , T : V → V ′ T:V\rightarrow V' T : V → V ′ , c'est-à-dire une règle qui associe à chaque v ∈ V v\in V v ∈ V un (et un seul) v ′ ∈ V ′ v'\in V' v ′ ∈ V ′ , noté v ′ : T ( v ) v':T(v) v ′ : T ( v ) .
Ensemble image de T T T :
Im ( T ) ≔ { v ′ ∈ V ′ ∣ ∃ (au moins) un v ∈ V tel que T ( v ) = v ′ } ⊂ V ′ \text{Im}(T)\coloneqq\{v'\in V'\vert\exist\text{ (au moins) un } v\in V\text{ tel que }T(v)=v'\}\sub V' Im ( T ) : = { v ′ ∈ V ′ ∣ ∃ (au moins) un v ∈ V tel que T ( v ) = v ′ } ⊂ V ′
T T T est injective si v 1 ≠ v 2 v_1\ne v_2 v 1 = v 2 et $ v_1,v_2\in V$ implique T ( v 1 ) ≠ T ( v 2 ) T(v_1)\ne T(v_2) T ( v 1 ) = T ( v 2 ) . De façon équivalente, T T T est injective si T ( v 1 ) = T ( v 2 ) ⟹ v 1 = v 2 T(v_1)=T(v_2)\implies v_1=v_2 T ( v 1 ) = T ( v 2 ) ⟹ v 1 = v 2 .
T T T est surjective si Im(T) = V ′ \text{Im(T)}=V' Im(T) = V ′ .
V = vecteurs de R n V=\text{vecteurs de }\R^n V = vecteurs de R n , avec le "+ + + ",
V ′ = R V'=\R V ′ = R
T : V → V ′ T:V\rightarrow V' T : V → V ′
v ′ = ( v 1 ⋮ v n ) ↦ t ( v ⃗ ) = v 1 v'=\begin{pmatrix}v_1\\\vdots\\v_n\end{pmatrix}\mapsto t(\vec{v})=v_1 v ′ = ⎝ ⎜ ⎜ ⎛ v 1 ⋮ v n ⎠ ⎟ ⎟ ⎞ ↦ t ( v ) = v 1
Im ( T ) = V ′ = R \text{Im}(T)=V'=\R Im ( T ) = V ′ = R , donc T T T est surjective.
T T T n'est pas injective, car si v ⃗ , w ⃗ \vec{v},\vec{w} v , w sont des vecteurs différents de R n \R^n R n , avec v 1 = w 1 v_1=w_1 v 1 = w 1 . Alors T ( v ⃗ ) = T ( w ⃗ ) T(\vec{v})=T(\vec{w}) T ( v ) = T ( w ) , mais v ⃗ ≠ w ⃗ \vec{v}\ne\vec{w} v = w .
V = R n T : V → V ′ V ′ = R m v ⃗ ↦ T ( v ⃗ ) ≔ A v ⃗ , \begin{array}{lll} V=\R^n &T:&V\rightarrow V'\\ V'=\R^m&&\vec{v}\mapsto T(\vec{v})\coloneqq A\vec{v},\end{array} V = R n V ′ = R m T : V → V ′ v ↦ T ( v ) : = A v ,
où A A A est une matrice m × n m\times n m × n fixée.
Une application T : V → V ′ T:V\rightarrow V' T : V → V ′ est linéaire si
∀ v , w ∈ V , T ( v + w ) = T ( v ) + T ( w ) \forall v,w\in V,\quad T(v+w)=T(v)+T(w) ∀ v , w ∈ V , T ( v + w ) = T ( v ) + T ( w )
∀ v ∈ V , ∀ λ ∈ R , T ( λ v ) = λ T ( v ) \forall v\in V,\forall\lambda\in\R,\quad T(\lambda v)=\lambda T(v) ∀ v ∈ V , ∀ λ ∈ R , T ( λ v ) = λ T ( v )
De manière équivalente, T : V → V ′ T:V\rightarrow V' T : V → V ′ est linéaire si
T ( λ 1 v 1 + λ 2 v 2 + … + λ k v k ) = λ 1 T ( v 1 ) + λ 2 T ( v 2 ) + … + λ k T ( v k ) ( ∀ λ 1 v 1 , λ 2 v 2 , … , λ k v k ∈ R , ∀ v 1 , v 2 , … , v k ∈ V ) \begin{aligned} &\boxed{T(\lambda_1v_1+\lambda_2v_2+\ldots+\lambda_kv_k)=\lambda_1T(v_1)+\lambda_2T(v_2)+\ldots+\lambda_kT(v_k)}\\ &(\forall\lambda_1v_1,\lambda_2v_2,\ldots,\lambda_kv_k\in\R,\forall v_1,v_2,\ldots,v_k\in V) \end{aligned} T ( λ 1 v 1 + λ 2 v 2 + … + λ k v k ) = λ 1 T ( v 1 ) + λ 2 T ( v 2 ) + … + λ k T ( v k ) ( ∀ λ 1 v 1 , λ 2 v 2 , … , λ k v k ∈ R , ∀ v 1 , v 2 , … , v k ∈ V )
T : R → R x ↦ T ( x ) ≔ x 2 n’est pas lin e ˊ aire. \begin{aligned}T:\R&\rightarrow\R\\x&\mapsto T(x)\coloneqq x^2\text{ n'est pas linéaire.}\end{aligned} T : R x → R ↦ T ( x ) : = x 2 n’est pas lin e ˊ aire.
Par exemple, T ( 1 ) = 1 T ( 2 ) = 4 T ( 1 + 2 ) = T ( 3 ) = 9 \begin{aligned}&T(1)=1\\&T(2)=4\\&T(1+2)=T(3)=9\end{aligned} T ( 1 ) = 1 T ( 2 ) = 4 T ( 1 + 2 ) = T ( 3 ) = 9 ,
donc T ( 1 + 2 ) ≠ T ( 1 ) + T ( 2 ) T(1+2)\ne T(1)+T(2) T ( 1 + 2 ) = T ( 1 ) + T ( 2 ) .
Le même qu'avant :
T : R n → R v ⃗ = ( v 1 ⋮ v n ) ↦ T ( v ⃗ ) = v 1 \begin{aligned}T:\R^n&\rightarrow\R\\&\vec{v}=\begin{pmatrix}v_1\\\vdots\\v_n\end{pmatrix}&\mapsto T(\vec{v})=v_1\end{aligned} T : R n → R v = ⎝ ⎜ ⎜ ⎛ v 1 ⋮ v n ⎠ ⎟ ⎟ ⎞ ↦ T ( v ) = v 1 ,
est linéaire car :
∙ ∀ v ⃗ = ( v 1 ⋮ v n ) , w ⃗ = ( w 1 ⋮ w n ) T ( v ⃗ + w ⃗ ) = T ( ( v 1 + w 1 ⋮ v n + w n ) ) = v 1 + w 1 = T ( v ⃗ ) + T ( w ⃗ ) ∙ ∀ λ ∈ R , T ( λ v ⃗ ) = T ( ( λ v 1 ⋮ λ v n ) ) = λ v 1 = λ T ( v ⃗ ) \begin{array}{ll} &\begin{array}{lll} \bullet&\forall\vec{v}=\begin{pmatrix}v_1\\\vdots\\v_n\end{pmatrix}, \vec{w}=\begin{pmatrix}w_1\\\vdots\\w_n\end{pmatrix}\\ &\begin{aligned} T(\vec{v}+\vec{w})&=T\left(\begin{pmatrix}v_1+w_1\\\vdots\\v_n+w_n\end{pmatrix}\right)\\ &=v_1+w_1\\ &=T(\vec{v})+T(\vec{w}) \end{aligned} \end{array} &\text{}\\ &\begin{array}{ll}\bullet\quad\forall\lambda\in\R,\quad T(\lambda\vec{v})&=T\left(\begin{pmatrix}\lambda v_1\\\vdots\\\lambda v_n\end{pmatrix}\right)\\ &=\lambda v_1\\ &=\lambda T(\vec{v}) \end{array} \end{array} ∙ ∀ v = ⎝ ⎜ ⎜ ⎛ v 1 ⋮ v n ⎠ ⎟ ⎟ ⎞ , w = ⎝ ⎜ ⎜ ⎛ w 1 ⋮ w n ⎠ ⎟ ⎟ ⎞ T ( v + w ) = T ⎝ ⎜ ⎜ ⎛ ⎝ ⎜ ⎜ ⎛ v 1 + w 1 ⋮ v n + w n ⎠ ⎟ ⎟ ⎞ ⎠ ⎟ ⎟ ⎞ = v 1 + w 1 = T ( v ) + T ( w ) ∙ ∀ λ ∈ R , T ( λ v ) = T ⎝ ⎜ ⎜ ⎛ ⎝ ⎜ ⎜ ⎛ λ v 1 ⋮ λ v n ⎠ ⎟ ⎟ ⎞ ⎠ ⎟ ⎟ ⎞ = λ v 1 = λ T ( v )
T : R n → R m v ⃗ ↦ T ( v ⃗ ) ≔ A ( v ⃗ ) est lin e ˊ aire (voir plus haut). \begin{aligned}T:\R^n&\rightarrow\R^m\\\vec{v}&\mapsto T(\vec{v})\coloneqq A(\vec{v})\text{ est linéaire (voir plus haut).}\end{aligned} T : R n v → R m ↦ T ( v ) : = A ( v ) est lin e ˊ aire (voir plus haut).
V = { fonctions f : [ 0 ; 1 ] → R continues } V=\{\text{fonctions }f:[0;1]\rightarrow\R\text{ continues}\} V = { fonctions f : [ 0 ; 1 ] → R continues } (V V V est un EV).
∙ V ′ = R T : V → V ′ f ↦ T ( f ) ≔ f ( 0 ) est lin e ˊ aire . ∙ V ′ = R 2 T : V → V ′ f ↦ T ( f ) ≔ ( ∫ 0 1 / 2 f ( x ) d x ∫ 1 / 2 1 f ( x ) d x ) est lin e ˊ aire . \begin{array}{ll}\bullet \quad V'=\R\\&\begin{aligned}T:V&\rightarrow V'\\f&\mapsto T(f) \coloneqq f(0) \text{ est linéaire}.\end{aligned}\\\bullet \quad V'=\R^2\\&\begin{aligned}T:V&\rightarrow V'\\f&\mapsto T(f) \coloneqq \begin{pmatrix}\int^{1/2}_{0}f(x)\mathrm{d}x\\\text{}\\\int^{1}_{1/2}f(x)\mathrm{d} x\end{pmatrix}\text{ est linéaire}.\end{aligned}\end{array} ∙ V ′ = R ∙ V ′ = R 2 T : V f → V ′ ↦ T ( f ) : = f ( 0 ) est lin e ˊ aire . T : V f → V ′ ↦ T ( f ) : = ⎝ ⎜ ⎜ ⎛ ∫ 0 1 / 2 f ( x ) d x ∫ 1 / 2 1 f ( x ) d x ⎠ ⎟ ⎟ ⎞ est lin e ˊ aire .
Si T : V → V ′ T:V\rightarrow V' T : V → V ′ est linéaire,
T ( v + w ) = T ( v ) + T ( w ) T(v\textcolor{red}{+}w)=T(v)\textcolor{blue}{+}T(w) T ( v + w ) = T ( v ) + T ( w ) .
Note :
Le "+ \color{red}+ + " dans V V V !
Le "+ \color{blue}+ + " dans V ′ V' V ′ !
Si T : V → V ′ T:V\rightarrow V' T : V → V ′ est linéaire, alors
T ( 0 ) = 0 ′ T(\textcolor{red}{0})=\textcolor{blue}{0'} T ( 0 ) = 0 ′
Note :
Le "0 \color{red}0 0 " dans V V V !
Le "0 \color{blue}0 0 " dans V ′ V' V ′ !
En effet, T ( 0 ) = T ( v − v ) o u ˋ v ∈ V ↓ T lin e ˊ aire = T ( v ) − T ( v ) = 0 ! \begin{aligned}T(0)&=T(v-v)\quad \text{où }v \in V\\ &\Big\downarrow{T\text{ linéaire}}\\&=T(v)-T(v)=0!\end{aligned} T ( 0 ) = T ( v − v ) o u ˋ v ∈ V ↓ ⏐ ⏐ ⏐ T lin e ˊ aire = T ( v ) − T ( v ) = 0 !
Soit T : V → V ′ T:V\rightarrow V' T : V → V ′ linéaire. Le noyau de T T T est K e r ( T ) ≔ { v ∈ V ∣ T ( v ) = 0 ′ } ⊂ V \mathrm{Ker}(T)\coloneqq\{v\in V\vert T(v)=0'\}\sub V K e r ( T ) : = { v ∈ V ∣ T ( v ) = 0 ′ } ⊂ V .
Rappel : K e r ( T ) \mathrm{Ker}(T) K e r ( T ) n'est jamais vide : 0 ∈ K e r ( T ) 0\in\mathrm{Ker}(T) 0 ∈ K e r ( T ) .
Soit T : V → V ′ T:V\rightarrow V' T : V → V ′ linéaire. Alors
K e r ( T ) \mathrm{Ker}(T) K e r ( T ) est un SEV de V V V . ( K e r ( T ) ⊂ V ) \quad (\mathrm{Ker}(T)\sub V) ( K e r ( T ) ⊂ V ) .
I m ( T ) \mathrm{Im}(T) I m ( T ) est un SEV de V ′ V' V ′ . ( I m ( T ) ⊂ V ′ ) \quad (\mathrm{Im}(T)\sub V') ( I m ( T ) ⊂ V ′ ) .
Soient v , w ∈ K e r ( T ) v,w\in\mathrm{Ker}(T) v , w ∈ K e r ( T ) . Alors
v , w ∈ K e r ( T ) ↷ ∙ T ( v + w ) = T ( v ) + T ( w ) = 0 ′ + 0 ′ = 0 ′ Donc v + w ∈ K e r ( T ) . \begin{array}{lll}& &_{v,w\in\mathrm{Ker}(T)}&\\&&\curvearrowright\\\bullet &T(v+w)\quad= T(v)+T(w)&=0'+0'=0'&\\&\text{Donc }v+w\in\mathrm{Ker}(T).&&\end{array} ∙ T ( v + w ) = T ( v ) + T ( w ) Donc v + w ∈ K e r ( T ) . v , w ∈ K e r ( T ) ↷ = 0 ′ + 0 ′ = 0 ′
∙ ∀ λ ∈ R , T ( λ v ) = λ T ( v ) = λ 0 ′ = 0 ′ , Donc λ v ∈ K e r ( T ) . \begin{array}{llll}\bullet&\forall\lambda\in\R,\quad T(\lambda v)=\lambda T(v)=\lambda0'=0',\\&\text{Donc }\lambda v\in\mathrm{Ker}(T).\end{array} ∙ ∀ λ ∈ R , T ( λ v ) = λ T ( v ) = λ 0 ′ = 0 ′ , Donc λ v ∈ K e r ( T ) .
Comme 0 ∈ K e r ( T ) , on a bien que K e r ( T ) est un SEV de V . □ \begin{array}{lr} \text{Comme }0\in\mathrm{Ker}(T), \text{on a bien que }\mathrm{Ker}(T)\text{ est un SEV de }V.&\\ &\square \end{array} Comme 0 ∈ K e r ( T ) , on a bien que K e r ( T ) est un SEV de V . □
À faire en exercice.
T : R 3 → R v ⃗ = ( v 1 v 2 v 3 ) ↦ T ( v ⃗ ) ≔ v 1 \begin{aligned}T:\,&\R^3\rightarrow\R\\&\vec{v}=\begin{pmatrix}v_1\\v_2\\v_3\end{pmatrix}\mapsto T(\vec{v})\coloneqq v_1\end{aligned} T : R 3 → R v = ⎝ ⎜ ⎛ v 1 v 2 v 3 ⎠ ⎟ ⎞ ↦ T ( v ) : = v 1
Calculons K e r ( T ) = { v ⃗ = ( v 1 v 2 v 3 ) ∈ R 3 ∣ v 1 = 0 } = { ( 0 v 2 v 3 ) ∣ v 2 , v 3 libres } = { λ ( 0 1 0 ) ⏟ v ⃗ 1 + μ ( 0 0 1 ) ⏟ v ⃗ 2 ∣ λ , μ libres } = V e c t { v ⃗ 1 , v ⃗ 2 } . \begin{aligned}\mathrm{Ker}(T)&=\left\{\vec{v}=\left.\begin{pmatrix}v_1\\v_2\\v_3\end{pmatrix}\in\R^3\right\vert v_1=0\right\}\\&=\left\{\left.\begin{pmatrix} 0\\v_2\\v_3\end{pmatrix}\right\vert v_2,v_3\text{ libres}\right\}\\ &=\left\{\lambda\underbrace{\begin{pmatrix}0\\1\\0\end{pmatrix}}_{\vec{v}_1}+\mu\left.\underbrace{\begin{pmatrix}0\\0\\1\end{pmatrix}}_{\vec{v}_2}\right\vert\lambda,\mu\text{ libres}\right\}\\ &=\mathrm{Vect}\{\vec{v}_1,\vec{v}_2\}. \end{aligned} K e r ( T ) = ⎩ ⎪ ⎨ ⎪ ⎧ v = ⎝ ⎜ ⎛ v 1 v 2 v 3 ⎠ ⎟ ⎞ ∈ R 3 ∣ ∣ ∣ ∣ ∣ ∣ ∣ v 1 = 0 ⎭ ⎪ ⎬ ⎪ ⎫ = ⎩ ⎪ ⎨ ⎪ ⎧ ⎝ ⎜ ⎛ 0 v 2 v 3 ⎠ ⎟ ⎞ ∣ ∣ ∣ ∣ ∣ ∣ ∣ v 2 , v 3 libres ⎭ ⎪ ⎬ ⎪ ⎫ = ⎩ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎪ ⎪ ⎧ λ v 1 ⎝ ⎜ ⎛ 0 1 0 ⎠ ⎟ ⎞ + μ v 2 ⎝ ⎜ ⎛ 0 0 1 ⎠ ⎟ ⎞ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ λ , μ libres ⎭ ⎪ ⎪ ⎪ ⎪ ⎪ ⎬ ⎪ ⎪ ⎪ ⎪ ⎪ ⎫ = V e c t { v 1 , v 2 } .
T : R n → R m v ⃗ ↦ T ( v ⃗ ) ≔ A x ⃗ \begin{aligned}T:\,&\R^n\rightarrow\R^m\\&\vec{v}\mapsto T(\vec{v})\coloneqq A\vec{x}\end{aligned} T : R n → R m v ↦ T ( v ) : = A x
K e r ( T ) = { x ⃗ ∈ R n ∣ A x ⃗ = 0 ⃗ } = K e r ( A ) I m ( T ) = { y ∈ R m ∣ ∃ x ⃗ ∈ R n tel que A x ⃗ = y ⃗ } = { y ∈ R m ∣ y ⃗ est combinaison lin e ˊ aire des colonnes de A = [ a ⃗ 1 , a ⃗ 2 , … , a ⃗ n ] } = V e c t { a ⃗ 1 , a ⃗ 2 , … , a ⃗ n } = C o l ( A ) ou I m ( A ) \begin{aligned}\mathrm{Ker}(T)&=\{\vec{x}\in\R^n\vert A\vec{x}=\vec{0}\}=\mathrm{Ker}(A)\\ \mathrm{Im}(T)&=\{y\in\R^m\vert\exist\vec{x}\in\R^n\text{ tel que }A\vec{x}=\vec{y}\}\\ &=\{y\in\R^m\vert\vec{y}\text{ est combinaison linéaire des colonnes de }A=[\vec{a}_1,\vec{a}_2,\ldots,\vec{a}_n]\}\\ &=\mathrm{Vect}\{\vec{a}_1,\vec{a}_2,\ldots,\vec{a}_n\}\\ &=\mathrm{Col}(A)\text{ ou }\mathrm{Im}(A) \end{aligned} K e r ( T ) I m ( T ) = { x ∈ R n ∣ A x = 0 } = K e r ( A ) = { y ∈ R m ∣ ∃ x ∈ R n tel que A x = y } = { y ∈ R m ∣ y est combinaison lin e ˊ aire des colonnes de A = [ a 1 , a 2 , … , a n ] } = V e c t { a 1 , a 2 , … , a n } = C o l ( A ) ou I m ( A )
Comme K e r ( A ) , I m ( A ) \mathrm{Ker}(A),\mathrm{Im}(A) K e r ( A ) , I m ( A ) sont des SEV, on aimerait pouvoir les décrire comme étant engendrés par des familles finies de vecteurs particuliers.
Calculons K e r ( A ) \mathrm{Ker}(A) K e r ( A ) , où
A = ( − 3 6 − 1 + 1 − 7 1 − 2 2 3 − 1 2 − 4 5 8 − 4 ) A=\left(\begin{array}{rrrrr}-3&6&-1&\textcolor{white}{+}1&-7\\ 1&-2&2&3&-1\\ 2&-4&5&8&-4 \end{array}\right) A = ⎝ ⎜ ⎛ − 3 1 2 6 − 2 − 4 − 1 2 5 + 1 3 8 − 7 − 1 − 4 ⎠ ⎟ ⎞
A x ⃗ = 0 ⃗ ⟹ matrice augment e ˊ e ⇓ r e ˊ duction ( 1 − 2 0 − 1 3 0 0 0 + 1 2 − 2 0 0 0 0 0 0 0 ) \begin{array}{rl}A\vec{x}=\vec{0}&\Longrightarrow\text{matrice augmentée}\\ &\qquad\qquad\quad\Downarrow_{\text{ réduction}}\\ &\left(\begin{array}{rrrrr:r}\textcolor{blue}{1}&-2&0&-1&3&0\\ 0&0&\textcolor{white}{+}\textcolor{blue}{1}&2&-2&0\\ 0&0&0&0&0&0 \end{array}\right) \end{array} A x = 0 ⟹ matrice augment e ˊ e ⇓ r e ˊ duction ⎝ ⎜ ⎛ 1 0 0 − 2 0 0 0 + 1 0 − 1 2 0 3 − 2 0 0 0 0 ⎠ ⎟ ⎞
x 2 , x 4 , x 5 x_2,x_4,x_5 x 2 , x 4 , x 5 sont libres.
→ K e r ( A ) = { x ⃗ = λ ( 2 1 0 0 0 ) ⏟ v ⃗ 1 + μ ( 1 0 − 2 1 0 ) ⏟ v ⃗ 2 + ν ( − 3 0 2 0 1 ) ⏟ v ⃗ 3 ∣ λ , μ , ν libres } = V e c t { v ⃗ 1 , v ⃗ 2 , v ⃗ 3 } \begin{aligned}\rightarrow\mathrm{Ker}(A) &=\left\{\vec{x}=\lambda\left.\underbrace{\begin{pmatrix}2\\1\\0\\0\\0\end{pmatrix}}_{\vec{v}_1}+\mu\underbrace{\begin{pmatrix}1\\0\\-2\\1\\0\end{pmatrix}}_{\vec{v}_2}+\nu\underbrace{\begin{pmatrix}-3\\0\\2\\0\\1\end{pmatrix}}_{\vec{v}_3}\right\vert\lambda,\mu,\nu\text{ libres} \right\}\\ &=\mathrm{Vect}\{\vec{v}_1,\vec{v}_2,\vec{v}_3\} \end{aligned} → K e r ( A ) = ⎩ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎧ x = λ v 1 ⎝ ⎜ ⎜ ⎜ ⎜ ⎜ ⎛ 2 1 0 0 0 ⎠ ⎟ ⎟ ⎟ ⎟ ⎟ ⎞ + μ v 2 ⎝ ⎜ ⎜ ⎜ ⎜ ⎜ ⎛ 1 0 − 2 1 0 ⎠ ⎟ ⎟ ⎟ ⎟ ⎟ ⎞ + ν v 3 ⎝ ⎜ ⎜ ⎜ ⎜ ⎜ ⎛ − 3 0 2 0 1 ⎠ ⎟ ⎟ ⎟ ⎟ ⎟ ⎞ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ ∣ λ , μ , ν libres ⎭ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎬ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎫ = V e c t { v 1 , v 2 , v 3 }
Remarques :
{ v ⃗ 1 , v ⃗ 2 , v ⃗ 3 } \{\vec{v}_1,\vec{v}_2,\vec{v}_3\} { v 1 , v 2 , v 3 } sont linéairement indépendants !
Le nombre de vecteurs qui sont nécessaires pour engendre le K e r ( A ) \mathrm{Ker}(A) K e r ( A ) est égal au nombre de variables libres dans A x ⃗ = 0 ⃗ A\vec{x}=\vec{0} A x = 0 .
En général, K e r ( A ) \mathrm{Ker}(A) K e r ( A ) pourra toujours être engendré par k k k vecteurs linéairement indépendants, où k k k est le nombre de variables libres dans A x ⃗ = 0 ⃗ A\vec{x}=\vec{0} A x = 0 .
Soit W ⊂ V W\sub V W ⊂ V un SEV de V V V , et B = { v 1 , v 2 , … , v p } ⊂ W \mathcal{B}=\{v_1,v_2,\ldots,v_p\}\sub W B = { v 1 , v 2 , … , v p } ⊂ W une famille non-vide de vecteurs de W W W .
On dit que B \mathcal{B} B est une base de W W W si
B \mathcal{B} B engendre W : W = V e c t { v 1 , v 2 , … , v p } W:W=\mathrm{Vect}\{v_1,v_2,\ldots,v_p\} W : W = V e c t { v 1 , v 2 , … , v p } , et
B \mathcal{B} B est libre.
Si B = { v 1 , v 2 , … , v p } \mathcal{B}=\{v_1,v_2,\ldots,v_p\} B = { v 1 , v 2 , … , v p } est une base de W W W , prenons un w ∈ W w\in W w ∈ W . Puisque B \mathcal{B} B engendre W , ∃ α 1 , α 2 , … , α p ∈ R W,\exist\alpha_1,\alpha_2,\ldots,\alpha_p\in\R W , ∃ α 1 , α 2 , … , α p ∈ R tels que w = α 1 v 1 + α 2 v 2 + … + α p v p ( ∗ ) \boxed{w=\alpha_1v_1+\alpha_2v_2+\ldots+\alpha_pv_p}\quad(*) w = α 1 v 1 + α 2 v 2 + … + α p v p ( ∗ )
Ces α 1 , α 2 , … , α p \alpha_1,\alpha_2,\ldots,\alpha_p α 1 , α 2 , … , α p sont les composantes de w w w relativement à B \mathcal{B} B .
Les α 1 , α 2 , … , α p \alpha_1,\alpha_2,\ldots,\alpha_p α 1 , α 2 , … , α p (associés à w w w via ( ∗ ) (*) ( ∗ ) ) sont uniques !
Supposons que w = α 1 v 1 + α 2 v 2 + … + α p v p et que − w = β 1 v 1 + β 2 v 2 + … + β p v p ‾ \begin{aligned}w=\alpha_1v_1+\alpha_2v_2+\ldots+\alpha_pv_p &\text{ et que}\\ \color{red}\underline{\color{black}\textcolor{red}{-}\quad w=\beta_1v_1+\beta_2v_2+\ldots+\beta_pv_p}\text{ }\\ \end{aligned} w = α 1 v 1 + α 2 v 2 + … + α p v p − w = β 1 v 1 + β 2 v 2 + … + β p v p et que
0 = ( α 1 − β 1 ) v 1 + … + ( α p − β p ) v p \qquad\qquad\qquad\qquad\text{ }0=(\alpha_1-\beta_1)v_1+\ldots+(\alpha_p-\beta_p)v_p 0 = ( α 1 − β 1 ) v 1 + … + ( α p − β p ) v p
Comme { v 1 , v 2 , … , v p } \{v_1,v_2,\ldots,v_p\} { v 1 , v 2 , … , v p } est libre (car B \mathcal{B} B est une base), on a que
α 1 − β 1 = 0 ⟹ α 1 = β 1 ⋮ α p − β p = 0 ⟹ α p = β p □ \begin{array}{lr}\begin{aligned}\alpha_1&-\beta_1=0&\implies\alpha_1=\beta_1\\ &\text{ }\vdots&\\ \alpha_p&-\beta_p=0&\implies\alpha_p=\beta_p \end{aligned}\\ &\square \end{array} α 1 α p − β 1 = 0 ⋮ − β p = 0 ⟹ α 1 = β 1 ⟹ α p = β p □
Remarque : il est important de souligner que la composante α k ( k ∈ { 1 , 2 , … , p } ) \alpha_k\quad(k\in\{1,2,\ldots,p\}) α k ( k ∈ { 1 , 2 , … , p } ) est associées à v k v_k v k ! Dorénavant, nous ferons donc attention à indiquer l'ordre des vecteurs v k v_k v k dans B \mathcal{B} B :
B = { v 1 , v 2 , … , v p } ⟹ B = ( v 1 , v 2 , … , v p ) \cancel{\mathcal{B}=\{v_1,v_2,\ldots,v_p\}} \Longrightarrow\mathcal{B}=(v_1,v_2,\ldots,v_p) B = { v 1 , v 2 , … , v p } ⟹ B = ( v 1 , v 2 , … , v p )
Ce qu'on construit, en introduisant les composantes de w w w dans la base B = ( v 1 , v 2 , … , v p ) \mathcal{B}=(v_1,v_2,\ldots,v_p) B = ( v 1 , v 2 , … , v p ) , c'est une fonction :
[ ⋅ ] B : W → R p w ↦ [ w ] B = ( α 1 ⋮ α p ) \begin{aligned}[\cdot]_{\mathcal{B}}:\,&W\rightarrow\R^p\\ &\textcolor{red}{w}\mapsto[w]_{\mathcal{B}}=\color{blue}\begin{pmatrix}\alpha_1\\\vdots\\\alpha_p\end{pmatrix} \end{aligned} [ ⋅ ] B : W → R p w ↦ [ w ] B = ⎝ ⎜ ⎜ ⎛ α 1 ⋮ α p ⎠ ⎟ ⎟ ⎞
Notes :
∙ w est un vecteur "abstrait" de W . ∙ ( α 1 ⋮ α p ) est la repr e ˊ sentation "concr e ˋ te" de w dans une base. \begin{array}{lll}&\bullet&\textcolor{red}{w} \text{ est un vecteur "abstrait" de }W.\\ &\bullet&\textcolor{blue}{\begin{pmatrix}\alpha_1\\\vdots\\\alpha_p\end{pmatrix}}\text{ est la représentation "concrète" de }w \text{ dans une base.}\end{array} ∙ ∙ w est un vecteur "abstrait" de W . ⎝ ⎜ ⎜ ⎛ α 1 ⋮ α p ⎠ ⎟ ⎟ ⎞ est la repr e ˊ sentation "concr e ˋ te" de w dans une base.
A A A , la matrice ( 3 × 5 ) (3\times5) ( 3 × 5 ) du mardi. On étudie
T : R 5 → R 3 x ⃗ ↦ T ( x ⃗ ) ≔ A x ⃗ \begin{aligned} T:\,&\R^5\rightarrow\R^3\\ &\vec{x}\mapsto T(\vec{x})\coloneqq A\vec{x} \end{aligned} T : R 5 → R 3 x ↦ T ( x ) : = A x
K e r ( A ) \mathrm{Ker}(A) K e r ( A ) est un SEV de R 5 \R^5 R 5 et on a vu que
K e r ( A ) = V e c t { v ⃗ 1 , v ⃗ 2 , v ⃗ 3 } \mathrm{Ker}(A)=\mathrm{Vect}\{\vec{v}_1,\vec{v}_2,\vec{v}_3\} K e r ( A ) = V e c t { v 1 , v 2 , v 3 } , donc { v ⃗ 1 , v ⃗ 2 , v ⃗ 3 } \{\vec{v}_1,\vec{v}_2,\vec{v}_3\} { v 1 , v 2 , v 3 } engendre K e r ( A ) \mathrm{Ker}(A) K e r ( A ) . De plus, est est libre, donc B = ( v ⃗ 1 , v ⃗ 2 , v ⃗ 3 ) \mathcal{B}=(\vec{v}_1,\vec{v}_2,\vec{v}_3) B = ( v 1 , v 2 , v 3 ) est une base de K e r ( A ) \mathrm{Ker}(A) K e r ( A ) .
Si x ⃗ ∈ K e r ( A ) \vec{x}\in\mathrm{Ker}(A) x ∈ K e r ( A ) s'écrit x ⃗ = λ v ⃗ 1 + μ v ⃗ 2 + ν v ⃗ 3 \vec{x}=\lambda\vec{v}_1+\mu\vec{v}_2+\nu\vec{v}_3 x = λ v 1 + μ v 2 + ν v 3 , on a donc
[ x ⃗ ] B = ( λ μ ν ) [\vec{x}]_{\mathcal{B}}=\begin{pmatrix}\lambda\\\mu\\\nu\end{pmatrix} [ x ] B = ⎝ ⎜ ⎛ λ μ ν ⎠ ⎟ ⎞
Ainsi, même si x ⃗ ∈ R 5 \vec{x}\in\R^5 x ∈ R 5 , pour décrire K e r ( A ) \mathrm{Ker}(A) K e r ( A ) on n'a besoin que de 3 composantes !
(Cas W = V W=V W = V ) : on dit que B = ( v 1 , … , v n ) ⊂ V \mathcal{B}=(v_1,\ldots,v_n)\sub V B = ( v 1 , … , v n ) ⊂ V est une base de V V V si
B \mathcal{B} B engendre V V V :
V = V e c t { v 1 , … , v p } V=\mathrm{Vect}\{v_1,\ldots,v_p\} V = V e c t { v 1 , … , v p }
B \mathcal{B} B est libre.
V = R n : si x ⃗ ∈ R n V=\R^n:\text{si }\vec{x}\in\R^n V = R n : si x ∈ R n ,
x ⃗ = ( x 1 x 2 x 3 ⋮ x n ) = x 1 ( 1 0 0 ⋮ 0 ) + x 2 ( 0 1 0 ⋮ 0 ) + … + x n ( 0 0 0 ⋮ 1 ) \vec{x}=\begin{pmatrix}x_1\\x_2\\x_3\\\vdots\\x_n\end{pmatrix}=x_1\begin{pmatrix}1\\0\\0\\\vdots\\0\end{pmatrix}+x_2\begin{pmatrix}0\\1\\0\\\vdots\\0\end{pmatrix}+\ldots+x_n\begin{pmatrix}0\\0\\0\\\vdots\\1\end{pmatrix} x = ⎝ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎛ x 1 x 2 x 3 ⋮ x n ⎠ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎞ = x 1 ⎝ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎛ 1 0 0 ⋮ 0 ⎠ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎞ + x 2 ⎝ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎛ 0 1 0 ⋮ 0 ⎠ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎞ + … + x n ⎝ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎛ 0 0 0 ⋮ 1 ⎠ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎞
Donc B ≔ ( e ⃗ 1 , e ⃗ 2 , … , e ⃗ n ) \mathcal{B}\coloneqq(\vec{e}_1,\vec{e}_2,\ldots,\vec{e}_n) B : = ( e 1 , e 2 , … , e n )
∙ engendre R n ∙ est libre. } B est une base, appel e ˊ e base canonique de R n \left.\begin{array}{l}\quad\bullet\quad\text{engendre }\R^n\\ \quad\bullet\quad\text{est libre.} \end{array}\right\}\mathcal{B}\text{ est une base, appelée }\textbf{base canonique }\text{de }\R^n ∙ engendre R n ∙ est libre. } B est une base, appel e ˊ e base canonique de R n
Remarque : dans ce cas,
[ x ⃗ ] B = ( x 1 ⋮ x n ) [\vec{x}]_{\mathcal{B}}=\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix} [ x ] B = ⎝ ⎜ ⎜ ⎛ x 1 ⋮ x n ⎠ ⎟ ⎟ ⎞
P n = { polyn o ˆ mes p , de degr e ˊ au plus e ˊ gal a ˋ n } \mathbb{P}_n=\{\text{polynômes }p,\text{ de degré au plus égal à }n\} P n = { polyn o ˆ mes p , de degr e ˊ au plus e ˊ gal a ˋ n }
Si p ∈ P , p ( t ) = a 0 + a 1 t + a 2 t 2 + … + a n t n p\in\mathbb{P},p(t)=a_0+a_1t+a_2t^2+\ldots+a_nt^n p ∈ P , p ( t ) = a 0 + a 1 t + a 2 t 2 + … + a n t n
Soit e 0 ( t ) ≔ 1 → e 0 ∈ P n e 1 ( t ) ≔ t → e 1 ∈ P n ⋮ e n ( t ) ≔ t n → e n ∈ P n \begin{aligned}e_0&(t)\coloneqq1&\rightarrow e_0\in\mathbb{P}_n\\ e_1&(t)\coloneqq t&\rightarrow e_1\in\mathbb{P}_n\\ &\vdots\\ e_n&(t)\coloneqq t^n&\rightarrow e_n\in\mathbb{P}_n \end{aligned} e 0 e 1 e n ( t ) : = 1 ( t ) : = t ⋮ ( t ) : = t n → e 0 ∈ P n → e 1 ∈ P n → e n ∈ P n
Donc tout p ∈ P n p\in\mathbb{P}_n p ∈ P n peut s'écrire comme combinaison linéaire des e k e_k e k : p = a 0 e 0 + a 1 e 1 + … + a n e n p=a_0e_0+a_1e_1+\ldots+a_ne_n p = a 0 e 0 + a 1 e 1 + … + a n e n .
Donc { e 0 , e 1 , … , e n } \{e_0,e_1,\ldots,e_n\} { e 0 , e 1 , … , e n } engendre P n \mathbb{P}_n P n .
De plus, elle est libre . En effet, supposons que α 0 e 0 + … + α n e n = 0 \alpha_0e_0+\ldots+\alpha_ne_n=\color{red}{0} α 0 e 0 + … + α n e n = 0
Remarque : il s'agit du 0 \color{red}{0} 0 de P n \mathbb{P}_n P n , c'est-à-dire le polynôme nul.
signifie que ∀ t a 0 e 0 ( t ) + a 1 e 1 ( t ) + … + a n e n ( t ) = 0 \forall t\quad a_0e_0(t)+a_1e_1(t)+\ldots+a_ne_n(t)=\textcolor{blue}{0} ∀ t a 0 e 0 ( t ) + a 1 e 1 ( t ) + … + a n e n ( t ) = 0
Remarque : il s'agit du 0 \color{blue}{0} 0 de R \R R .
donc ∀ t α 0 + α 1 t + α 2 t 2 + … + α n t n = 0 \forall t\quad\alpha_0+\alpha_1t+\alpha_2t^2+\ldots+\alpha_nt^n=0 ∀ t α 0 + α 1 t + α 2 t 2 + … + α n t n = 0
Par le lemme de la semaine dernière, ceci implique
α 0 = α 1 = α 2 = … = α n = 0 \alpha_0=\alpha_1=\alpha_2=\ldots=\alpha_n=0 α 0 = α 1 = α 2 = … = α n = 0
⟹ { e 0 , … , e n } \Longrightarrow\{e_0,\ldots,e_n\} ⟹ { e 0 , … , e n } est libre.
Donc B = ( e 0 , e 1 , … , e n ) \mathcal{B}=(e_0,e_1,\ldots,e_n) B = ( e 0 , e 1 , … , e n ) est une base de P n \mathbb{P}_n P n , appelé base canonique de P n \mathbb{P}_n P n .
Dans R 2 \R^2 R 2 ,∙ B c a n = ( ( 1 0 ) , ( 0 1 ) ) est une base canonique ∙ B = ( ( 1 0 ) ⏟ v ⃗ 1 , ( 1 1 ) ⏟ v ⃗ 2 ) est aussi une base \text{}\\\begin{aligned}&\bullet\quad\mathcal{B}_{\mathrm{can}}=\left(\begin{pmatrix}1\\0\end{pmatrix},\begin{pmatrix}0\\1\end{pmatrix}\right)\text{est une base canonique}\\ &\bullet\quad\mathcal{B}=\left(\underbrace{\begin{pmatrix}1\\0\end{pmatrix}}_{\textcolor{red}{\vec{v}_1}},\underbrace{\begin{pmatrix}1\\1\end{pmatrix}}_{\textcolor{red}{\vec{v}_2}}\right)\text{est aussi une base} \end{aligned} ∙ B c a n = ( ( 1 0 ) , ( 0 1 ) ) est une base canonique ∙ B = ⎝ ⎜ ⎜ ⎜ ⎛ v 1 ( 1 0 ) , v 2 ( 1 1 ) ⎠ ⎟ ⎟ ⎟ ⎞ est aussi une base
$\text{Soit }\vec{b}=\begin{pmatrix}b_1\\b_2\end{pmatrix}\text{ un vecteur quelconque de }\R^n, \text{ce qui signifie que } [\vec{b}]_{\mathcal{B}_{\mathrm{can}}}=\begin{pmatrix}b_1\\b_2\end{pmatrix}.$
Question :
[ b ⃗ ] B = ( α 1 α 2 ) [\vec{b}]_{\mathcal{B}}=\begin{pmatrix}\alpha_1\\\alpha_2\end{pmatrix} [ b ] B = ( α 1 α 2 )
On cherche α 1 , α 2 \alpha_1,\alpha_2 α 1 , α 2 tels que
b ⃗ = α 1 v ⃗ 1 + α 2 v ⃗ 2 \vec{b}=\alpha_1\vec{v}_1+\alpha_2\vec{v}_2 b = α 1 v 1 + α 2 v 2
( b 1 b 2 ) = α 1 ( 1 0 ) + α 2 ( 1 1 ) \begin{pmatrix}b_1\\b_2\end{pmatrix}=\alpha_1\begin{pmatrix}1\\0\end{pmatrix}+\alpha_2\begin{pmatrix}1\\1\end{pmatrix} ( b 1 b 2 ) = α 1 ( 1 0 ) + α 2 ( 1 1 )
b 1 = α 1 + α 2 b 2 = α 2 } ⇒ { α 1 = b 1 − b 2 α 2 = b 2 \left.\begin{aligned}&b_1=\alpha_1+\alpha_2\\ &b_2=\alpha_2 \end{aligned}\right\}\Rightarrow\begin{cases} \alpha_1=b_1-b_2\\ \alpha_2=b_2 \end{cases} b 1 = α 1 + α 2 b 2 = α 2 } ⇒ { α 1 = b 1 − b 2 α 2 = b 2
Donc [ b ⃗ ] B = ( α 1 α 2 ) \text{Donc }[\vec{b}]_{\mathcal{B}}=\begin{pmatrix}\alpha_1\\\alpha_2\end{pmatrix} Donc [ b ] B = ( α 1 α 2 )
∙ B = ( ( 1 1 ) , ( 3 3 ) ) n’est pas une base ∙ B ( ( 1 1 ) ⏟ v ⃗ 1 , ( 3 3 ) ⏟ v ⃗ 2 , ( 2 3 ) ⏟ v ⃗ 3 ) n’est pas une base, \begin{aligned}&\bullet\quad\mathcal{B}=\left(\begin{pmatrix}1\\1\end{pmatrix},\begin{pmatrix}3\\3\end{pmatrix}\right)\text{n'est pas une base} \\ &\bullet\quad\mathcal{B}\left(\underbrace{\begin{pmatrix}1\\1\end{pmatrix}}_{\vec{v}_1},\underbrace{\begin{pmatrix}3\\3\end{pmatrix}}_{\vec{v}_2},\underbrace{\begin{pmatrix}2\\3\end{pmatrix}}_{\vec{v}_3}\right) \text{ n'est pas une base,} \end{aligned} ∙ B = ( ( 1 1 ) , ( 3 3 ) ) n’est pas une base ∙ B ⎝ ⎜ ⎜ ⎜ ⎛ v 1 ( 1 1 ) , v 2 ( 3 3 ) , v 3 ( 2 3 ) ⎠ ⎟ ⎟ ⎟ ⎞ n’est pas une base,
puisque v ⃗ 3 = 3 v ⃗ 2 − v ⃗ 1 \vec{v}_3=3\vec{v}_2-\vec{v}_1 v 3 = 3 v 2 − v 1 . Remarquons pourtant que si on retire v ⃗ 3 \vec{v}_3 v 3 de B , on obtient B ′ = ( ( 1 0 ) , ( 1 1 ) ) qui est une base. \mathcal{B}, \text{on obtient }\mathcal{B}'=\left(\begin{pmatrix}1\\0\end{pmatrix},\begin{pmatrix}1\\1\end{pmatrix}\right)\text{qui est une base.} B , on obtient B ′ = ( ( 1 0 ) , ( 1 1 ) ) qui est une base.
Soit W W W un SEV d'un EV V V V , et { v 1 , … , v p } \{v_1,\ldots,v_p\} { v 1 , … , v p } une famille qui engendre W W W .
Si un des v j ( j ∈ { v 1 , … , v p } ) v_j\, (j\in\{v_1,\ldots,v_p\}) v j ( j ∈ { v 1 , … , v p } ) peut s'écrire comme combinaison linéaire des autres, on peut le retirer , et la nouvelle famille { v 1 , … , v j − 1 , v j + 1 , … , v p } \{v_1,\ldots,v_{j-1},v_{j+1},\ldots,v_p\} { v 1 , … , v j − 1 , v j + 1 , … , v p } engendre toujours W W W .
On peut retirer des vecteurs "inutiles" de cette manière, jusqu'à obtenir une famille libre, qui engendrera toujours W W W , c'est-à-dire une base de W W W .
Soit A A A , la matrice ( 3 × 5 ) (3\times5) ( 3 × 5 ) du mardi. Utilisons le théorème ci-dessus pour calculer I m ( A ) \mathrm{Im}(A) I m ( A ) :
A = ( − 3 6 − 1 + 1 − 7 1 − 2 2 3 − 1 2 − 4 5 8 − 4 ) = [ a ⃗ 1 a ⃗ 2 a ⃗ 3 a ⃗ 4 a ⃗ 5 ] A=\left(\begin{array}{rrrrr}-3&6&-1&\textcolor{white}{+}1&-7\\ 1&-2&2&3&-1\\ 2&-4&5&8&-4 \end{array}\right)= \left[\vec{a}_1\,\vec{a}_2\,\vec{a}_3\,\vec{a}_4\,\vec{a}_5\right] A = ⎝ ⎜ ⎛ − 3 1 2 6 − 2 − 4 − 1 2 5 + 1 3 8 − 7 − 1 − 4 ⎠ ⎟ ⎞ = [ a 1 a 2 a 3 a 4 a 5 ]
→ I m ( A ) = V e c t { a ⃗ 1 , a ⃗ 2 , … , a ⃗ 5 } ← un SEV W ⊂ R 3 ↓ a ⃗ 2 = − 2 a ⃗ 1 = V e c t { a ⃗ 1 , a ⃗ 3 , a ⃗ 4 , a ⃗ 5 } ↓ a ⃗ 4 = 2 a ⃗ 3 − a ⃗ 1 = V e c t { a ⃗ 1 , a ⃗ 3 , a ⃗ 5 } ↓ a ⃗ 5 = 3 a ⃗ 1 − 2 a ⃗ 3 = V e c t { a ⃗ 1 , a ⃗ 3 } ← libre, engendre I m ( A ) \begin{array}{lll}\rightarrow\mathrm{Im}(A)&=\mathrm{Vect}\{\vec{a}_1,\vec{a}_2,\ldots,\vec{a}_5\}&\leftarrow\text{un SEV }W\sub\R^3\\ & &\downarrow\vec{a}_2=-2\vec{a}_1\\ &=\mathrm{Vect}\{\vec{a}_1,\vec{a}_3,\vec{a}_4,\vec{a}_5\}\\ & &\downarrow\vec{a}_4=2\vec{a}_3-\vec{a}_1\\ &=\mathrm{Vect}\{\vec{a}_1,\vec{a}_3,\vec{a}_5\}\\ & &\downarrow\vec{a}_5=3\vec{a}_1-2\vec{a}_3\\ &=\mathrm{Vect}\{\vec{a}_1,\vec{a}_3\}&\leftarrow\text{libre, engendre }\mathrm{Im}(A)\end{array} → I m ( A ) = V e c t { a 1 , a 2 , … , a 5 } = V e c t { a 1 , a 3 , a 4 , a 5 } = V e c t { a 1 , a 3 , a 5 } = V e c t { a 1 , a 3 } ← un SEV W ⊂ R 3 ↓ a 2 = − 2 a 1 ↓ a 4 = 2 a 3 − a 1 ↓ a 5 = 3 a 1 − 2 a 3 ← libre, engendre I m ( A )
Donc B = ( a ⃗ 1 , a ⃗ 3 ) \mathcal{B}=\left(\vec{a}_1,\vec{a}_3\right) B = ( a 1 , a 3 ) est une base de I m ( A ) \mathrm{Im}(A) I m ( A ) .
Question : y a-t-il une méthode qui permette de trouver les dépendances linéaires entre les colonnes d'une matrice ? Oui, réponse ci-dessous.
Remarque : la réduite de A A A :
( 1 − 2 0 − 1 3 0 0 + 1 2 − 2 0 0 0 0 0 ) \left(\begin{array}{rrrrr} \textcolor{blue}{1}&-2&0&-1&3\\ 0&0&\textcolor{white}{+}\textcolor{blue}{1}&2&-2\\ 0&0&0&0&0 \end{array}\right) ⎝ ⎜ ⎛ 1 0 0 − 2 0 0 0 + 1 0 − 1 2 0 3 − 2 0 ⎠ ⎟ ⎞
Les colonnes 1 1 1 et 2 2 2 sont celles qui contiennent des pivots \textcolor{blue}{\text{pivots}} pivots , et aussi celles qui forment une base de I m ( A ) \mathrm{Im}(A) I m ( A ) .
Les dépendances linéaires existant entre les colonnes d'une matrice sont les même que celles existant entre les colonnes de sa réduite.
Plus précisément, si
A = [ a ⃗ 1 ⋯ a ⃗ n ] ⇝ r e ˊ duire A ′ = [ r ⃗ 1 ⋯ r ⃗ n ] A=\left[\vec{a}_1\cdots\,\vec{a}_n\right]\stackrel{\text{réduire}}{\rightsquigarrow}A'=\left[\vec{r}_1\cdots\,\vec{r}_n\right] A = [ a 1 ⋯ a n ] ⇝ r e ˊ duire A ′ = [ r 1 ⋯ r n ]
et si F ⊂ { a ⃗ 1 , … , a ⃗ n } \mathcal{F}\sub\left\{\vec{a}_1,\ldots,\vec{a}_n\right\} F ⊂ { a 1 , … , a n } , et F ′ ⊂ { r ⃗ 1 , … , r ⃗ n } \mathcal{F}'\sub \left\{\vec{r}_1,\ldots,\vec{r}_n\right\} F ′ ⊂ { r 1 , … , r n } est la famille correspondante de colonnes de A ′ A' A ′ , alors
F li e ˊ e ⟺ F ′ li e ˊ e F libre ⟺ F ′ libre \quad\begin{array}{lll}&\mathcal{F}\text{ liée}&\iff\mathcal{F}'\text{ liée}\\ &\mathcal{F}\text{ libre}&\iff\mathcal{F}'\text{ libre} \end{array} F li e ˊ e F libre ⟺ F ′ li e ˊ e ⟺ F ′ libre
Si F = { a ⃗ i 1 , … , a ⃗ i n } \mathcal{F}=\{\vec{a}_{i_{1}},\ldots,\vec{a}_{i_{n}}\} F = { a i 1 , … , a i n } , F ′ = { r ⃗ i 1 , ⋯ , r ⃗ i n } \mathcal{F}'=\{\vec{r}_{i_{1}},\cdots,\vec{r}_{i_{n}}\} F ′ = { r i 1 , ⋯ , r i n } , alors α i 1 a ⃗ i 1 + … + α i k a ⃗ i k = 0 ⃗ ⇕ α i 1 r ⃗ i 1 + … + α i k r ⃗ i k = 0 ⃗ } car ces deux syst e ˋ mes sont e ˊ quivalents ! □ \begin{aligned}\left.\begin{array}{llll}&\alpha_{i_{1}}\vec{a}_{i_{1}}+&\ldots&+\alpha_{i_{k}}\vec{a}_{i_{k}}=\vec{0}\\ & &\,\,\Updownarrow\\ &\alpha_{i_{1}}\vec{r}_{i_{1}}+&\ldots&+\alpha_{i_{k}}\vec{r}_{i_{k}}=\vec{0} \end{array}\right\}\text{car ces deux systèmes sont équivalents !}\\ &\square\end{aligned} α i 1 a i 1 + α i 1 r i 1 + … ⇕ … + α i k a i k = 0 + α i k r i k = 0 ⎭ ⎪ ⎬ ⎪ ⎫ car ces deux syst e ˋ mes sont e ˊ quivalents ! □
Une colonne d'une matrice A ( m × n ) A\,(m\times n) A ( m × n ) est une colonne-pivot si elle devient, après réduction vers A ′ A' A ′ , une colonne qui contient un pivot.
A = ( 3 5 − 4 − 3 − 2 4 6 1 − 8 ) ⇝ A ′ = ( 1 0 − 4 3 0 + 1 0 0 0 0 ) A=\left(\begin{array}{rrr}3&5&-4\\-3&-2&4\\6&1&-8\end{array}\right)\rightsquigarrow A'=\left(\begin{array}{rrr}\textcolor{blue}{1}&0&-\frac{4}{3}\\0&\textcolor{white}{+}\textcolor{blue}{1}&0\\0&0&0\end{array}\right) A = ⎝ ⎜ ⎛ 3 − 3 6 5 − 2 1 − 4 4 − 8 ⎠ ⎟ ⎞ ⇝ A ′ = ⎝ ⎜ ⎛ 1 0 0 0 + 1 0 − 3 4 0 0 ⎠ ⎟ ⎞
Ici, les colonnes 1 1 1 et 2 2 2 sont des colonnes-pivot \textcolor{blue}{\text{colonnes-pivot}} colonnes-pivot .
Les colonnes-pivot d'une matrice A A A forment une base de I m ( A ) \mathrm{Im}(A) I m ( A ) .
Dans le réduite de A ′ A' A ′ :
les colonnes contenant un pivot sont linéairement indépendantes.
les autres colonnes (associées à des "variables libres") peuvent chacune s'écrire comme combinaison linéaire des colonnes contenant un pivot situées à leur gauche.
Par le théorème précédent, ceci implique que les colonnes-pivot de A A A sont indépendantes, et que les autres sont des combinaisons linéaires des colonnes-pivot, et donc { colonnes pivots } \{\text{colonnes pivots}\} { colonnes pivots } est une base de I m ( A ) . □ \begin{aligned}\mathrm{Im}(A).\\&\square\end{aligned} I m ( A ) . □
Rappel : Si B = ( v 1 , … , v n ) \mathcal{B}=(v_1,\ldots,v_n) B = ( v 1 , … , v n ) est une base de V V V , alors tout v ∈ V v\in V v ∈ V peut s'écrire
α 1 v 1 + … + α n v n , , o u ˋ les α 1 v 1 + … + α n v n ∈ R sont uniques. & [ , ⋅ , ] B : V → R n \quad\boxed{\alpha_1v_1+\ldots+\alpha_nv_n},, \text{où les }\alpha_1v_1+\ldots+\alpha_nv_n\in\R\text{ sont uniques.} \&[,\cdot,]_\mathcal{B}:V\rightarrow\R^n α 1 v 1 + … + α n v n , , o u ˋ les α 1 v 1 + … + α n v n ∈ R sont uniques. & [ , ⋅ , ] B : V → R n
[ ⋅ ] B : V → R n v ↦ [ v ] B ≔ ( α 1 α 2 ⋮ α n ) \begin{aligned}[\,\cdot\,]_\mathcal{B}:\,&V\rightarrow\R^n\\ &v\mapsto[v]_\mathcal{B}\coloneqq\begin{pmatrix}\alpha_1\\\alpha_2\\\vdots\\\alpha_n\end{pmatrix} \end{aligned} [ ⋅ ] B : V → R n v ↦ [ v ] B : = ⎝ ⎜ ⎜ ⎜ ⎜ ⎛ α 1 α 2 ⋮ α n ⎠ ⎟ ⎟ ⎟ ⎟ ⎞
Exercice : montrez que v ↦ [ v ] B v\mapsto[v]_\mathcal{B} v ↦ [ v ] B est linéaire.
Si B = ( v 1 , … , v n ) \mathcal{B}=(v_1,\ldots,v_n) B = ( v 1 , … , v n ) est d'un EV V V V , et si F = { w 1 , w 2 , … , w p } \mathcal{F}=\{w_1,w_2,\ldots,w_p\} F = { w 1 , w 2 , … , w p } est une famille de vecteurs de V V V , avec p > n p>n p > n . Alors F \mathcal{F} F est liée.
Supposons que
λ 1 w 1 + λ 2 w 2 + … + λ p w p = 0 ( ∗ ) 0 [ ⋅ ] B et lin e ˊ arit e ˊ ↓ λ 1 [ w 1 ] B + … + λ p [ w p ] B = [ 0 ] B = 0 ⃗ ( ∗ ) 1 \begin{array}{ll} &\lambda_1w_1+\lambda_2w_2+\ldots+\lambda_pw_p=0\quad(*)_0\\ [\,\cdot\,]_\mathcal{B} \text{ et linéarité}\big\downarrow&\\ &\lambda_1[w_1]\mathcal{B}+\ldots+\lambda_p[w_p]\mathcal{B}=[\textcolor{blue}{0}]_\mathcal{B}=\vec{\textcolor{red}{0}}\quad(*)_1 \end{array} [ ⋅ ] B et lin e ˊ arit e ˊ ↓ ⏐ ⏐ λ 1 w 1 + λ 2 w 2 + … + λ p w p = 0 ( ∗ ) 0 λ 1 [ w 1 ] B + … + λ p [ w p ] B = [ 0 ] B = 0 ( ∗ ) 1
Note :
"Z e ˊ ro \textcolor{blue}{\text{Zéro}} Z e ˊ ro " de V V V .
"Z e ˊ ro \textcolor{red}{\text{Zéro}} Z e ˊ ro " de R n \R^n R n .
On sait que dans R n \R^n R n , une famille de plus de n n n vecteurs est nécessairement liée. Il existe donc des coefficients λ 1 , … , λ p \lambda_1,\ldots,\lambda_p λ 1 , … , λ p , pas tous nuls, pour lesquels ( ∗ ) 1 (*)_1 ( ∗ ) 1 est vérifiée. Avec ces λ i , ( ∗ ) 0 \lambda_i,(*)_0 λ i , ( ∗ ) 0 est aussi vérifiée, et donc F = { w 1 , … , w p } est li e ˊ e. □ \mathcal{F}=\{w_1,\ldots,w_p\}\text{ est liée.}\qquad\square F = { w 1 , … , w p } est li e ˊ e. □
Toutes les bases d'un même EV contiennent le même nombre d'éléments.
Supposons que B = ( v 1 , … , v n ) \mathcal{B}=(v_1,\ldots,v_n) B = ( v 1 , … , v n ) et B ′ = ( v 1 ′ , … , v m ′ ) \mathcal{B}'=(v_1',\ldots,v_m') B ′ = ( v 1 ′ , … , v m ′ ) soient deux bases d'un même EV. Comme B ′ \mathcal{B}' B ′ est une base, { v 1 ′ , … , v m ′ } \{v_1',\ldots,v_m'\} { v 1 ′ , … , v m ′ } est libre, et donc par le lemme précédent, si m > n m>n m > n , elle serait liée. Et donc m ⩽ n m\leqslant n m ⩽ n . De manière équivalente, n ⩽ m n\leqslant m n ⩽ m . Donc m = n . □ \begin{aligned}m=n.\\ &\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\quad\square\end{aligned} m = n . □
Si un EV V V V possède une base qui contient un nombre n n n d'éléments (alors toute autre base possède aussi n n n éléments par le corollaire), on appelle n n n la dimension de V V V . On note :
n = d i m ( V ) \boxed{n=\mathrm{dim}(V)} n = d i m ( V )
Dans R 2 , B c a n = ( ( 1 0 ) ( 0 1 ) ) → d i m ( R 2 ) = 2 ( Plus g e ˊ n e ˊ ralement : d i m ( R n ) = n ) \R^2,\\\mathcal{B}_{\mathrm{can}}=\left(\begin{pmatrix}1\\0\end{pmatrix}\begin{pmatrix}0\\1\end{pmatrix}\right)\\ \text{}\\ \rightarrow\mathrm{dim}(\R^2)=2\\ \text{}\\ (\text{Plus généralement : }\mathrm{dim}(\R^n)=n) R 2 , B c a n = ( ( 1 0 ) ( 0 1 ) ) → d i m ( R 2 ) = 2 ( Plus g e ˊ n e ˊ ralement : d i m ( R n ) = n )
Dans P 2 , B = ( e 1 , e 2 , e 3 ) est une base d i m ( P 2 ) = 3 \mathbb{P}_2,\\ \text{}\\ \mathcal{B}=(e_1,e_2,e_3)\text{ est une base}\\ \text{}\\ \mathrm{dim}(\mathbb{P}_2)=3 P 2 , B = ( e 1 , e 2 , e 3 ) est une base d i m ( P 2 ) = 3
Il existe un EV de dimension infinie :
Par exemple, C ( [ a , b ] ) = { f : [ a , b ] → R continues } d i m ( C 1 ( [ a , b ] ) ) = ∞ \mathcal{C}\left([a,b]\right)=\{f:[a,b]\rightarrow\R\text{ continues}\}\\ \text{}\\ \mathrm{dim}(\mathcal{C}^1([a,b]))=\infty C ( [ a , b ] ) = { f : [ a , b ] → R continues } d i m ( C 1 ( [ a , b ] ) ) = ∞
Dans un EV de dimension finie V V V , avec un SEV W W W , si F = { v 1 , … , v k } ⊂ W \mathcal{F}=\{v_1,\ldots,v_k\}\sub W F = { v 1 , … , v k } ⊂ W est libre, alors F \mathcal{F} F peut être complétée :
F ′ = { v 1 , … , v k , v ~ k + 1 , … , v ~ p } , o u ˋ v ~ j ∈ W , \mathcal{F}'=\{v_1,\ldots,v_k,\tilde{v}_{k+1},\ldots,\tilde{v}_p\},\text{où }\tilde{v}_j\in W, F ′ = { v 1 , … , v k , v ~ k + 1 , … , v ~ p } , o u ˋ v ~ j ∈ W ,
tel que F ′ \mathcal{F}' F ′ soit une base de W W W .
V = R 3 , W = un plan (qui contient l’origine), F = { v ⃗ 1 } V=\R^3,W=\text{un plan (qui contient l'origine),}\\ \mathcal{F}=\{\vec{v}_1\} V = R 3 , W = un plan (qui contient l’origine), F = { v 1 }
En prenant n'importe quel v ~ ⃗ 2 ∈ W \vec{\tilde{v}}_2\in W v ~ 2 ∈ W qui n'est pas colinéaire à v ⃗ 1 \vec{v}_1 v 1 , on obtient F = { v ⃗ 1 , v ~ ⃗ 2 } \mathcal{F}=\{\vec{v}_1,\vec{\tilde{v}}_2\} F = { v 1 , v ~ 2 } qui est libre, et qui engendre W W W .
Dans un EV V V V de dimension n n n , toute famille libre de n n n vecteurs forme une base de V V V .