[HOME PAGE] [STORES] [CLASSICISTRANIERI.COM] [FOTO] [YOUTUBE CHANNEL]

Teorema de substitució de Steinitz - Viquipèdia

Teorema de substitució de Steinitz

De Viquipèdia

El teorema de substitució de Steinitz estableix que si


\mathcal{B} = \left\{e_{i}\right\}\,, i \in I

és una base d'un espai vectorial E i


\mathcal{C} = \left\{u_{j}\right\}\,, j = 1, \ldots, k

és un conjunt finit de vectors de E linealment independent, aleshores hom pot substituir k vectors de \mathcal{B} per sengles vectors de \mathcal{C} per obtenir una altra base de E.

[edita] Conseqüències

El teorema de substitució de Steinitz és la premissa fonamental que serveix per deduir que totes les bases d'un mateix espai vectorial tenen el mateix nombre d'elements, nombre que es coneix com a dimensió de l'espai en qüestió. A més, és la justificació teòrica del mètode de reducció de Gauss.

[edita] Demostració

Com que els vectors de \mathcal{C} són linealment independents, cap d'ells és nul. Podem procedir per inducció sobre k. Si k = 1, el vector u1, que no és nul, expressat en la base \mathcal{B}, és


u_1 = \sum_{i\in I} \lambda^{i} e_{i}

amb almenys un coeficient \lambda^{i_{1}} \neq 0. Aleshores, podem aïllar e_{i_{1}}:


e_{i_{1}} = \frac{1}{\lambda^{i_{1}}} u_1 - \sum_{i \neq i_{1}} \frac{\lambda^{i}}{\lambda^{i_{1}}} e_{i}

i és clar que qualsevol vector que sigui combinació lineal dels vectors de la base \mathcal{B}, és a dir, tots els de l'espai vectorial, ho és dels elements del conjunt


\mathcal{B}_{1} = \mathcal{B}\backslash\left\{e_{i_{1}}\right\} \cup \left\{u_{1}\right\}

que és la base \mathcal{B} després de suprimir-hi el vector e_{i_{1}} i afegir-li el vector u1.

Però aquest conjunt, \mathcal{B}_{1}, també és linealment independent. En efecte, de


\mu u_{1} + \mu^{r_{1}} e_{r_{1}} + \cdots + \mu^{r_{s}} e_{r_{s}} = 0
\,,\quad
r_{k} \neq i_{1}

resulta


\mu \left(\lambda^{i_{1}} e_{i_{1}} + \sum_{i \neq i_{1}} \lambda^{i} e_{i}\right) + \mu^{r_{1}} e_{r_{1}} + \cdots + \mu^{r_{s}} e_{r_{s}} = 0
\,,\quad
r_{k} \neq i_{1}

o sigui,


\mu \lambda^{i_{1}} e_{i_{1}} + \sum_{i \neq i_{1}} \mu \lambda^{i} e_{i} + \mu^{r_{1}} e_{r_{1}} + \cdots + \mu^{r_{s}} e_{r_{s}} = 0
\,,\quad
r_{k} \neq i_{1}

que, per la independència lineal dels vectors de \mathcal{B}, implica \mu \lambda^{i_{1}} = 0, o sigui, μ = 0 perquè, per hipòtesi, \lambda^{i_{1}} \neq 0. Aleshores queda


\mu^{r_{1}} e_{r_{1}} + \cdots + \mu^{r_{s}} e_{r_{s}} = 0

que implica


\mu^{r_{1}} = \mu^{r_{2}} = \ldots = \mu^{r_{s}} = 0 = \mu

i els vectors de \mathcal{B}_{1} són linealment independents, cosa que fa que \mathcal{B}_{1} sigui una base de l'espai E, com volíem demostrar.

Suposem ara la propietat certa per a k. Això vol dir que disposem de la base


\mathcal{B}_{k} = \mathcal{B} \backslash \left\{e_{i_{1}}, e_{i_{2}}, \ldots, e_{i_{k}}\right\} \cup \left\{u_{1}, u_{2}, \ldots, u_{k}\right\}

obtinguda a partir de la base original, \mathcal{B}, després de substituir-hi k vectors pels vectors linealment independents u_{1}, \ldots, u_{k}. Si ara disposem d'un altre vector, uk + 1, de manera que el conjunt


\mathcal{C}_{k+1} = \left\{u_{1}, u_{2}, \ldots, u_{k}, u_{k+1}\right\}

sigui linealment independent, podrem, segons ja sabem, substituir algun vector de \mathcal{B}_{k} pel vector uk + 1 per obtenir encara una altra base, \mathcal{B}_{k+1} de E. A més, és possible fer la substitució de manera que cap dels vectors u_{1}, u_{2}, \ldots, u_{k} sigui el vector substituït, sinó algun dels que queden dels originals. En efecte, com que \mathcal{B}_{k} és una base de E, hi podem expressar el vector uk + 1:


u_{k+1} = \lambda^{1} u_{1} + \ldots + \lambda^{k} u_{k} + \sum_{j>k} \lambda^{i_{j}} e_{i_{j}}

amb algun dels coeficients del sumatori de la dreta, \lambda^{i_{r}}, r > k, no nul, ja que si ho fóssin tots, el conjunt \mathcal{C}_{k+1} no seria linealment independent. Aleshores, la substitució


\mathcal{B}_{k+1} = \mathcal{B}_{k} \backslash \left\{e_{i_{r}}\right\} \cup \left\{u_{k+1}\right\}

és una altra base de E. Això és perquè, com que \lambda^{i_{r}} \neq 0,


e_{i_{r}} = -\frac{\lambda^{1}}{\lambda^{i_{r}}} u_{1} - \ldots - \frac{\lambda^{k}}{\lambda^{i_{r}}} u_{k} + \frac{1}{\lambda^{i_{r}}} u_{k+1} - \sum_{j>k, j\neq r} \frac{\lambda^{i_{j}}}{\lambda^{i_{r}}} e_{i_{j}}

qualsevol vector que sigui combinació lineal dels vectors de \mathcal{B}_{k}, és a dir, tots, també ho és dels de \mathcal{B}_{k+1}. A més, si


\mu^{1} u_{1} + \ldots + \mu^{k} u_{k} + \mu^{k+1} u_{k+1} + \sum_{j>k, j\neq r} \mu^{i_{j}} e_{i_{j}} = 0

o sigui,


\mu^{1} u_{1} + \ldots + \mu^{k} u_{k} + \mu^{k+1} \left(\lambda^{1} u_{1} + \ldots + \lambda^{k} u_{k} + \sum_{j>k} \lambda^{i_{j}} e_{i_{j}}\right) + \sum_{j>k, j\neq r} \mu^{i_{j}} e_{i_{j}} = 0

és a dir,


\left(\mu^{1} + \mu^{k+1} \lambda^{1}\right) u_{1} + \ldots + \left(\mu^{k} + \mu^{k+1} \lambda^{k}\right) u_{k} + \mu^{k+1} \lambda^{i_{r}} e_{i_{r}} + \sum_{j>k, j\neq r} \left(\mu^{i_{j}} + \mu^{k+1} \lambda^{i_{j}}\right) e_{i_{j}} = 0

la independència lineal dels vectors de \mathcal{B}_{k} obliga a que \mu^{k+1} \lambda^{i_{r}} = 0 i, com que \lambda^{i_{r}} \neq 0, a que μk + 1 = 0. Ara queda


\mu^{1} u_{1} + \ldots + \mu^{k} u_{k} + \sum_{j>k, j\neq r} \mu^{i_{j}} e_{i_{j}} = 0

i, novament, la independència lineal imposa


\mu^{1} = \cdots = \mu^{k} = \mu^{i_{j}} = 0
\,,\quad
j>k\,,\ j\neq r

que, amb la ja establerta μk + 1 = 0, implica la independència lineal dels vectors de \mathcal{B}_{k+1}, que és, en conseqüència, una altra base.