Sie sind auf Seite 1von 23

ESPACIO VECTORIAL

CAMPO VECTORIAL
En matemáticas, un campo vectorial representa la distribución espacial de una
magnitud vectorial. Es una expresión de cálculo vectorial que asocia un vector a
cada punto en el espacio.
De la forma 𝛿 ∶ 𝑅 𝑛 → 𝑅 𝑚
Los campos vectoriales se utilizan más en física por ejemplo para representar la
velocidad y la dirección de un fluido en el espacio, o la intensidad y dirección de
las fuerzas como la gravitatoria o la fuerza electromagnética.
DEFINICION
Un campo vectorial sobre un subconjunto del espacio euclidiano X ∁ 𝑅 𝑛 es una
función con valores vectoriales 𝐹: 𝑋 → 𝑅 𝑛
Se dice que F es un campo vectorial 𝐶 𝑘 si como función es k veces diferente con
continuidad en X. un campo vectorial se puede visualizar como un espacio X con
un vector n-dimensional único a cada punto en X.
Operaciones con campos vectoriales
Dados dos campos vectoriales 𝐶 𝑘 , 𝐹 𝑦 𝐺 definidos sobre X y una función 𝐶 𝑘 a
valores reales f definida sobre X, se definen las operaciones producto escalar y
adición.
(𝑓𝐹)(𝑥) = 𝑓(𝑥)𝐹(𝑥)
Debido a la linealidad de la función (F+G)
(𝐹 + 𝐺)(𝑥) = 𝐹(𝑥) + 𝐺(𝑥)
ESPACIOS VECTORIALES
DEFINICION
Sean 𝑉 ≠ ∅ un conjunto, k un campo y dos operaciones una de suma (+) y la
otra de producto (.), entonces diremos que el objeto (V, + k, .) es un espacio
vectorial si se verifican las siguientes condiciones.
A) EXISTE UNA APLICACIÓN SUMA
+: 𝑉×𝑉 →𝑉
(𝑥, 𝑦) → +(𝑥, 𝑦) = 𝑥 + 𝑦
Llamado ley de composición interna (la suma de dos vectores es un
vector) y cumple los axiomas siguientes:
𝐴1 𝑥 + 𝑦 = 𝑦 + 𝑥, ∀𝑥, 𝑦 ∈ 𝑉 𝑎𝑥𝑖𝑜𝑚𝑠 𝑐𝑜𝑛𝑚𝑢𝑡𝑎𝑡𝑖𝑣𝑎
𝐴2 𝑥 + (𝑦 + 𝑧) = (𝑥 + 𝑦) + 𝑧, ∀𝑥, 𝑦, 𝑧 ∈ 𝑉, 𝑎𝑥𝑖𝑜𝑚𝑎 𝑎𝑠𝑜𝑐𝑖𝑎𝑡𝑖𝑣𝑎.
𝐴3 ∀ 𝑥 ∈ 𝑉, 𝑒𝑥𝑖𝑠𝑡𝑒 0 ∈ 𝑉 𝑡𝑎𝑙 𝑞𝑢𝑒 𝑥 + 0 = 0 + 𝑥 = 𝑥 𝑑𝑜𝑛𝑑𝑒 0 𝑠𝑒 𝑑𝑒𝑛𝑜𝑚𝑖𝑛𝑎
𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜 𝑛𝑒𝑢𝑡𝑟𝑜 𝑎𝑑𝑖𝑡𝑖𝑣𝑜 𝑜 𝑐𝑒𝑟𝑜.
𝐴4 ∀𝑥 ∈ 𝑉, 𝑒𝑥𝑖𝑠𝑡𝑒 − 𝑥 ∈ 𝑉, 𝑡𝑎𝑙 𝑞𝑢𝑒 𝑥 + (−𝑥) = (−𝑥) + 𝑥
= 0, 𝑑𝑜𝑛𝑑𝑒 − 𝑥 𝑠𝑒
𝑑𝑒𝑛𝑜𝑚𝑖𝑛𝑎 𝑜𝑝𝑢𝑒𝑠𝑡𝑜 𝑑𝑒 𝑥.

B) EXISTE UNA APLICACIÓN PRODUCTO


•∶ 𝑘 × 𝑉 → 𝑉
(𝛼, 𝑥) →. (𝛼, 𝑥) = 𝛼𝑥
Llamamos ley de composición externa (el producto de un escalar por un
vector es un vector) y se cumple con los axiomas siguientes:
𝐵1 𝛼(𝛽𝑥) = (𝛼𝛽)𝑥, ∀𝑥, 𝛼, 𝛽 ∈ 𝑘
𝐵2 (𝛼 + 𝛽)𝑥 = 𝛼𝑥 + 𝛽𝑥, ∀ 𝑥 ∈ 𝑉, 𝛼, 𝛽 ∈ 𝑘
𝐵3 𝛼(𝑥 + 𝑦) = 𝛼𝑥 + 𝛼𝑦, ∀ 𝑥, 𝑦 ∈ 𝑉, 𝛼∈𝑘
𝐵4 ∀ 𝑥 ∈ 𝑉, 𝑒𝑥𝑖𝑠𝑡𝑒 1 ∈ 𝑘 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜 𝑖𝑑𝑒𝑛𝑡𝑖𝑐𝑜 𝑚𝑢𝑙𝑡𝑖𝑝𝑙𝑖𝑐𝑎𝑡𝑖𝑣𝑜 𝑡𝑎𝑙 𝑞𝑢𝑒 1. 𝑥
=𝑥

PROPIEDADES DE LOS ESPACIOS VECTORIALES


Sea (V, +, R) un espacio vectorial se tiene:
i) El elemento “𝜃” de la propiedad 𝐴3 es único.
Demostración
Supongamos ∃𝜃′ ∈ 𝑉 tal que 𝜃′ + 𝑢 = 𝑢, ∀ 𝑢, 𝑣 ∈ 𝑉
Por la propiedad 𝐴3 tenemos que: 𝑢 + 𝜃 = 𝑢, ∀ 𝑢 ∈ 𝑉
Se cumple: 𝜃 + 𝜃′ = 𝜃 𝑦 𝜃′ + 𝜃 = 𝜃 pues 𝜃, 𝜃′ ∈ 𝑉 son elementos
de V.
Y por la propiedad conmutativa se cumple:
𝜃′ = 𝜃 + 𝜃′ = 𝜃′ + 𝜃 = 𝜃 ⇒ 𝜃′ = 𝜃 por lo tanto 𝜃 es único.

ii) El producto del escalar 0 por cualquier vector es el vector nulo, es


decir:
∀ 𝑢 ∈ 𝑉 𝑠𝑒 𝑡𝑖𝑒𝑛𝑒 0. 𝑢 = 𝜃.
Demostración
0. 𝑢 + 𝑢 = 0. 𝑢 + 1. 𝑢 = (0 + 1)𝑢 = 1. 𝑢 = 𝑢; Sumando (-u) a cada
miembro tenemos:
(0. 𝑢 + 𝑢) + (−𝑢) = 𝑢 + (−𝑢), por la propiedad asociativa tenemos:
0. 𝑢 + (𝑢 + (−𝑢)) = 𝑢 + (−𝑢), por lo tanto: 0. 𝑢 + 𝜃 = 𝜃 de donde
0. 𝑢 = 𝜃

iii) Si el producto de un escalar por un vector es el vector nulo


entonces el escalar es 0 o el vector es nulo es decir: si 𝛼𝑥 = 𝜃 ⇒
𝛼=0 𝑜 𝑥=𝜃
Demostración
1º caso: suponiendo que 𝑥 ≠ 𝜃 ⇒ 𝛼𝑥 = 𝜃 ⇒ 𝛼 = 0
En efecto si 𝛼 ≠ 0 ⇒ 𝛼 −1 . 𝛼 = 1, ∀ 𝛼 ∈ 𝑘
𝑠𝑖 𝛼𝑥 = 𝜃 ⇒ 𝛼 −1 (𝛼𝑥) = 𝛼 −1 𝜃 = 𝜃
⇒ (𝛼 −1 . 𝛼)𝑥 = 𝜃 ⇒ 1. 𝑥 = 𝜃 ⇒ 𝑥 = 𝜃
Lo cual es una contradicción entonces 𝛼 = 0 puesto que 𝑥 ≠ 0
2º caso: suponiendo que 𝛼 ≠ 0 𝑦 𝛼𝑥 = 𝜃 ⇒ 𝑥 = 𝜃
En efecto si 𝛼 ≠ 0 ⇒ ∃𝛼 −1 ⇒ 𝛼 −1 (𝛼𝑥) = 𝛼 −1 𝜃
⇒ (𝛼 −1 . 𝛼)𝑥 = 𝜃 ⇒ 1. 𝑥 = 𝜃 ⇒ 𝑥 = 𝜃

iv) El opuesto de cualquier escalar por un vector es igual al opuesto


de su producto es decir: si 𝛼 ∈ 𝑘, 𝑥 ∈ 𝑉, (−𝛼)𝑥 = −(𝛼𝑥)
Demostración
Teniendo en cuenta 𝐴4 de 2.1. la suma de opuesto en k y 𝐵4 de 2.1
se tiene:
−(𝛼𝑥) + 𝛼𝑥 = 𝜃 = 0. 𝑥 = (−𝛼 + 𝛼)𝑥
−(𝛼𝑥) + 𝛼𝑥 = (−𝛼)𝑥 + 𝛼𝑥 ⇒ −(𝛼𝑥) = (−𝛼)𝑥
Por tanto (−𝛼)𝑥 = −(𝛼𝑥)
ESPACIO VECTORIAL DE FUNCIONES
Al conjunto de todas las funciones f con dominio un conjunto X ≠ ∅ y rango un
cuerpo k, denotaremos por 𝑘 𝑋 , es decir:
𝑘 𝑋 = {𝑓/𝑓: 𝑋 → 𝑘}
Un elemento que pertenece a 𝑘 𝑋 es una función 𝑓 ∶ 𝑋 → 𝑘 ahora en 𝑘 𝑋 definimos
la suma de funciones y el producto de un escalar por funciones.
i) Si 𝑓 , 𝑔 ∈ 𝑘 𝑋 entonces𝑓 + 𝑔: 𝑋 → 𝑘 𝑒𝑠 𝑡𝑎𝑙 𝑞𝑢𝑒 (𝑓 + 𝑔)(𝑥) = 𝑓(𝑥) +
𝑔(𝑥), ∀𝑥 ∈ 𝑋
ii) Si 𝛼 ∈ 𝑘 𝑦 𝑓 ∈ 𝑘 𝑋 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝛼𝑓: 𝑋 → 𝑘 𝑒𝑠 𝑡𝑎𝑙 𝑞𝑢𝑒: (𝛼𝑓)(𝑥) =
𝛼𝑓(𝑥), ∀ 𝑥 ∈ 𝑋
Luego el conjunto (𝑘 𝑋 , +, 𝑘, . . ), provisto de dos operaciones suma (+) y
producto (.) es un espacio vectorial sobre k, para esto probaremos los
axiomas.
𝑨𝟏 : Sean 𝑓 , 𝑔 ∈ 𝑘 𝑋 ⇒ 𝑓, 𝑔: 𝑋 → 𝑘 𝑦 𝑓 + 𝑔: 𝑋 → 𝑘
⇒ (𝑓 + 𝑔)(𝑥) = 𝑓(𝑥) + 𝑔(𝑥) = 𝑔(𝑥) + 𝑓(𝑥) = (𝑔 + 𝑓)(𝑥), ∀𝑥 ∈ 𝑋
De donde 𝑓 + 𝑔 = 𝑔 + 𝑓, 𝑝𝑢𝑒𝑠 𝑓(𝑥), 𝑔(𝑥) ∈ 𝑘 = (𝑅, 𝑄, 𝐶) donde la adición es
conmutativa

𝑨𝟐 : Sean 𝑓 , 𝑔, ℎ ∈ 𝑘 𝑋 ⇒ 𝑓, 𝑔, ℎ: 𝑋 → 𝑘, 𝑝𝑜𝑟 𝑝𝑟𝑜𝑏𝑎𝑟 𝑞𝑢𝑒 (𝑓 + 𝑔) + ℎ = 𝑓 +


(𝑔 + ℎ)
𝑠𝑒𝑎 𝑥 ∈ 𝑋, [(𝑓 + 𝑔) + ℎ](𝑥) = [(𝑓 + 𝑔)(𝑥)] + ℎ(𝑥)
= [𝑓(𝑥) + 𝑔(𝑥)] + ℎ(𝑥), ∀ 𝑥 ∈ 𝑋 … … … … … … … … (1)
[𝑓 + (𝑔 + ℎ)](𝑥) = 𝑓(𝑥) + [(𝑔 + ℎ)(𝑥)] = 𝑓(𝑥) + [𝑔(𝑥) + ℎ(𝑥)]
⇒ [𝑓 + (𝑔 + ℎ)](𝑥) = 𝑓(𝑥) + [𝑔(𝑥) + ℎ(𝑥)], ∀ 𝑥 ∈ 𝑋 … … … … … … . . (2)
Como 𝑓(𝑥), 𝑔(𝑥), ℎ(𝑥) ∈ 𝑘 = (𝑅, 𝑄, 𝐶) 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑑𝑒 (1)𝑦 (2) 𝑠𝑒 𝑡𝑖𝑒𝑛𝑒:
[(𝑓 + 𝑔) + ℎ](𝑥) = [𝑓 + (𝑔 + ℎ)](𝑥), ∀𝑥 ∈𝑋
Por lo tanto (𝑓 + 𝑔) + ℎ = 𝑓 + (𝑔 + ℎ)

𝑨𝟑 : sea 0 la función cero, 0: 𝑋 → 𝑘 𝑡𝑎𝑙 𝑞𝑢𝑒 0(𝑥) = 0, ∀ 𝑥 ∈ 𝑋


⇒ ∀ 𝑓 ∈ 𝑘 𝑋 , 𝑓: 𝑋 → 𝑘 se obtiene:
(𝑓 + 0)(𝑥) = 𝑓(𝑥) + 0(𝑥) = 𝑓(𝑥), ∀ 𝑥 ∈ 𝑋
⇒(𝑓 + 0)(𝑥) = 𝑓(𝑥), ∀ 𝑥 ∈ 𝑋
⇒𝑓 + 0 = 𝑓 ⇒ ∀ 𝑓 ∈ 𝑘 𝑋 , ∃ 𝑓 ∈ 𝑘 𝑋 / 𝑓 + 0 = 𝑓

𝑨𝟒 : 𝑓 ∈ 𝑘 𝑋 𝑠𝑒𝑎 − 𝑓 ∶ 𝑋 → 𝑘 𝑑𝑒𝑓𝑖𝑛𝑖𝑑𝑎 𝑝𝑜𝑟 (−𝑓)(𝑥) = −𝑓(𝑥)


⇒ [𝑓 + (−𝑓)](𝑥) = 𝑓(𝑥) + (−𝑓)(𝑥) = 𝑓(𝑥) − 𝑓(𝑥) = 0 = 0(𝑥) ∀ 𝑥 ∈ 𝑋
De donde se tiene: 𝑓 + (−𝑓) = 0
Por lo tanto ∀ 𝑓 ∈ 𝑘 𝑋 , ∃(−𝑓) ∈ 𝑘 𝑋 /𝑓 + (−𝑓) = 0

𝑩𝟏 ∶ 𝑠𝑒𝑎𝑛 𝑓, 𝑔 ∈ 𝑘 𝑋 𝑦 𝛽 ∈ 𝑘 ⇒ [𝛽(𝑓 + 𝑔)](𝑥) = 𝛽(𝑓 + 𝑔)(𝑥) = 𝛽(𝑓(𝑥) + 𝑔(𝑥))

⇒ [𝛽(𝑓 + 𝑔)](𝑥)=𝛽[𝑓(𝑥) + 𝑔(𝑥)] … … … … … … … … … … . (1)


(𝛽𝑓 + 𝛽𝑔)(𝑥) = (𝛽𝑓)(𝑥) + (𝛽𝑔)(𝑥) = 𝛽𝑓(𝑥) + 𝛽𝑔(𝑥) … … … … … … … . . (2)
𝛽[𝑓(𝑥) + 𝑔(𝑥)] = 𝛽𝑓(𝑥) + 𝛽𝑔(𝑥) 𝑝𝑢𝑒𝑠 𝛽, 𝑓(𝑥), 𝑔(𝑥) ∈ 𝑘 = (𝑅, 𝑄, 𝐶) la
multiplicación es distributiva respecto a la adición ⇒ de (1) y (2) se tiene:
[𝛽(𝑓 + 𝑔)](𝑥) = (𝛽𝑓 + 𝛽𝑔)(𝑥), ∀ 𝑥 ∈ 𝑋 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝛽(𝑓 + 𝑔) = 𝛽𝑓 + 𝛽𝑔
𝑩𝟐 ∶ 𝑠𝑒𝑎 𝑓 ∈ 𝑘 𝑋 𝑦 𝛽, 𝛾 ∈ 𝑘 Entonces se tiene:
[(𝛽 + 𝛾)𝑓](𝑥) = (𝛽 + 𝛾)𝑓(𝑥) = 𝛽𝑓(𝑥) + 𝛾𝑓(𝑥)
= (𝛽𝑓)(𝑥) + (𝛽𝑔)(𝑥) = (𝛽𝑓 + 𝛽𝑔)(𝑥), ∀𝑥 ∈𝑋
𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 (𝛽 + 𝛾)𝑓 = 𝛽𝑓 + 𝛾𝑓

𝑩𝟑 ∶ 𝑠𝑒𝑎 𝑓 ∈ 𝑘 𝑋 𝑦 𝛽, 𝛾 ∈ 𝑘 Entonces se tiene:


[(𝛽𝛾)𝑓](𝑥) = (𝛽𝛾)𝑓(𝑥) = 𝛽(𝛾𝑓)(𝑥)) = 𝛾(𝛽𝑓)(𝑥) = [𝛽(𝛾𝑓)](𝑥), ∀ 𝑥 ∈ 𝑋
Entonces [(𝛽𝛾)𝑓](𝑥) = [𝛽(𝛾𝑓)](𝑥)
Por lo tanto: (𝛽𝛾)𝑓 = 𝛽(𝛾𝑓)

𝑩𝟒 ∶ 𝑠𝑒𝑎 𝑓 ∈ 𝑘 𝑋 𝑦, 1 ∈ 𝑘 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 (1. 𝑓)(𝑥) = 1. 𝑓(𝑥) = 𝑓(𝑥), ∀𝑥 ∈𝑋


𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 1. 𝑓 = 𝑓𝑝𝑜𝑟 𝑙𝑜 𝑡𝑎𝑛𝑡𝑜 𝑉 = 𝑘 𝑋 es un espacio vectorial sobre k.
CASOS PARTICULARES 𝑘 𝑋 = {𝑓/𝑓: 𝑋 → 𝑘}
i) Si X=R y k=R⇒𝑘 𝑋 = {𝑓/𝑓: 𝑅 → 𝑅} espacio vectorial sobre R.
ii) Si 𝑋 = [𝑎, 𝑏] 𝑦 𝑘 = 𝑅 ⇒ 𝑘 𝑋 = {𝑓/𝑓: [𝑎, 𝑏] → 𝑅} espacio vectorial sobre
R.
iii) X=R, k=R, f es continua, entonces
𝑘 𝑋 = {𝑓/𝑓: 𝑅 → 𝑅 𝑒𝑠 𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑎 } espacio vectorial sobre R.

ESPACIO VECTORIAL DE LAS MATRICES m×n


a) DEFINICION. - sean m, n enteros positivos fijos 𝑋 = {(𝑖, 𝑗)/1 ≤ 𝑖 ≤ 𝑚, 1 ≤
𝑗 ≤ 𝑛} donde i, j son enteros y sea k=R, 𝑘 𝑋 = {𝑓/𝑓: 𝑋 → 𝑘} , si 𝑓 ∈ 𝑘 𝑋 ⇒
𝑓: 𝑋 → 𝑘
(𝑖, 𝑗) → 𝑓(𝑖, 𝑗) = 𝑓𝑖𝑗; 𝑓 es una matriz de orden m*n sobre R.
Ahora para 1 ≤ 𝑖 ≤ 𝑚 𝑦 1 ≤ 𝑗 ≤ 𝑛 se tiene:
𝑓11 𝑓12 𝑓13 … 𝑓1𝑛
𝑓21 𝑓22 𝑓23 … 𝑓2𝑛
𝑓 = 𝑓31 𝑓32 𝑓33 … 𝑓3𝑛
⋮ ⋮ ⋮ ⋱ ⋮
[𝑓𝑚1 𝑓𝑚2 𝑓𝑚3 … 𝑓𝑚𝑛 ]

b) IGUALDAD DE MATRICES. - sea 𝑓, 𝑔 ∈ 𝑘 𝑋 , entonces


𝑓11 𝑓12 𝑓13 … 𝑓1𝑛 𝑔11 𝑔12 𝑔13 … 𝑔1𝑛
𝑓21 𝑓22 𝑓23 … 𝑓2𝑛 𝑔21 𝑔22 𝑔23 … 𝑔2𝑛
𝑓 = 𝑓31 𝑓32 𝑓33 … 𝑓3𝑛 , 𝑔 = 𝑔31 𝑔32 𝑔33 … 𝑔3𝑛
⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ⋱ ⋮
[𝑓𝑚1 𝑓𝑚2 𝑓𝑚3 … 𝑓𝑚𝑛 ] [𝑔𝑚1 𝑔𝑚2 𝑔𝑚3 … 𝑔𝑚𝑛 ]

𝑓 = 𝑔 ⇔ 𝑓𝑖𝑗 = 𝑔𝑖𝑗, ∀ 1 ≤ 𝑖 ≤ 𝑚 , 1≤𝑗≤𝑛


Es decir 𝑓11 = 𝑔11 , 𝑓12 = 𝑔12 , … . . , 𝑓𝑚𝑛 = 𝑔𝑚𝑛

c) SUMA DE MATRICES

𝑓11 + 𝑔11 𝑓12 + 𝑔12 𝑓13 + 𝑔13 … 𝑓1𝑛 + 𝑔1𝑛


𝑓21 + 𝑔21 𝑓22 + 𝑔22 𝑓23 + 𝑔23 … 𝑓2𝑛 + 𝑔2𝑛
𝑓 + 𝑔 = 𝑓31 + 𝑔31 𝑓32 + 𝑔32 𝑓33 + 𝑔33 … 𝑓3𝑛 + 𝑔3𝑛
⋮ ⋮ ⋮ ⋱ ⋮
[𝑓𝑚1 + 𝑔𝑚1 𝑓𝑚2 + 𝑔𝑚2 𝑓𝑚3 + 𝑔𝑚3 … 𝑓𝑚𝑛 + 𝑔𝑚𝑛 ]

d) MULTIPLICACION DE UN ESCALAR POR UNA MATRIZ: 𝑓 ∈ 𝑘 𝑋 𝑦 𝛽 ∈


𝑘 = 𝑅 entonces

𝛽𝑓11 𝛽𝑓12 𝛽𝑓13 … 𝛽𝑓1𝑛


𝛽𝑓21 𝛽𝑓22 𝛽𝑓23 … 𝛽𝑓2𝑛
𝛽𝑓 = 𝛽𝑓31 𝛽𝑓32 𝛽𝑓33 … 𝛽𝑓3𝑛
⋮ ⋮ ⋮ ⋱ ⋮
[𝛽𝑓𝑚1 𝛽𝑓𝑚2 𝛽𝑓𝑚3 … 𝛽𝑓𝑚𝑛 ]
Luego el conjunto de todas las matrices de orden m*n sobre k=R denotado
por
𝑘 𝑋 = 𝑅 𝑚×𝑛 esta provisto de dos operaciones suma (+) y producto (.)
Probaremos que (𝑘 𝑋 , +, 𝑘, . ) es un espacio vectorial sobre R=k.

𝑨𝟏 : Sean 𝑓 , 𝑔 ∈ 𝑅 𝑋 ⇒ 𝑓, 𝑔: 𝑋 → 𝑅 de donde
𝑓11 𝑓12 𝑓13 … 𝑓1𝑛 𝑔11 𝑔12 𝑔13 … 𝑔1𝑛
𝑓21 𝑓22 𝑓23 … 𝑓2𝑛 𝑔21 𝑔22 𝑔23 … 𝑔2𝑛
𝑓 = 𝑓31 𝑓32 𝑓33 … 𝑓3𝑛 , 𝑔 = 𝑔31 𝑔32 𝑔33 … 𝑔3𝑛
⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ⋱ ⋮
[𝑓𝑚1 𝑓𝑚2 𝑓𝑚3 … 𝑓𝑚𝑛 ] [𝑔𝑚1 𝑔𝑚2 𝑔𝑚3 … 𝑔𝑚𝑛 ]

𝑓11 + 𝑔11 𝑓12 + 𝑔12 𝑓13 + 𝑔13 … 𝑓1𝑛 + 𝑔1𝑛


𝑓21 + 𝑔21 𝑓22 + 𝑔22 𝑓23 + 𝑔23 … 𝑓2𝑛 + 𝑔2𝑛
𝑓 + 𝑔 = 𝑓31 + 𝑔31 𝑓32 + 𝑔32 𝑓33 + 𝑔33 … 𝑓3𝑛 + 𝑔3𝑛 =
⋮ ⋮ ⋮ ⋱ ⋮
[𝑓𝑚1 + 𝑔𝑚1 𝑓𝑚2 + 𝑔𝑚2 𝑓𝑚3 + 𝑔𝑚3 … 𝑓𝑚𝑛 + 𝑔𝑚𝑛 ]
𝑔11 + 𝑓11 𝑔12 + 𝑓12 𝑔13 + 𝑓13 … 𝑔1𝑛 + 𝑓1𝑛
𝑔21 + 𝑓21 𝑔22 + 𝑓22 𝑔23 + 𝑓23 … 𝑔2𝑛 + 𝑓2𝑛
𝑔 + 𝑓 = 𝑔31 + 𝑓31 𝑔32 + 𝑓32 𝑔33 + 𝑓33 … 𝑔3𝑛 + 𝑓3𝑛
⋮ ⋮ ⋮ ⋱ ⋮
[𝑔𝑚1 + 𝑓𝑚1 𝑔𝑚2 + 𝑓𝑚2 𝑔𝑚3 + 𝑓𝑚3 … 𝑔𝑚𝑛 + 𝑓𝑚𝑛 ]

Por lo tanto f + g = g + f

𝑨𝟐 : Sean 𝑓 , 𝑔, ℎ ∈ 𝑅 𝑋 ⇒ 𝑓, 𝑔, ℎ: 𝑋 → 𝑅

𝑓11 𝑓12 𝑓13 … 𝑓1𝑛


𝑓21 𝑓22 𝑓23 … 𝑓2𝑛
𝑓 + (𝑔 + ℎ) 𝑓31 𝑓32 𝑓33 … 𝑓3𝑛
⋮ ⋮ ⋮ ⋱ ⋮
[𝑓𝑚1 𝑓𝑚2 𝑓𝑚3 … 𝑓𝑚𝑛 ]
𝑔11 + 𝑓11 𝑔12 + 𝑓12 𝑔13 + 𝑓13 … 𝑔1𝑛 + 𝑓1𝑛
𝑔21 + 𝑓21 𝑔22 + 𝑓22 𝑔23 + 𝑓23 … 𝑔2𝑛 + 𝑓2𝑛
+ 𝑔31 + 𝑓31 𝑔32 + 𝑓32 𝑔33 + 𝑓33 … 𝑔3𝑛 + 𝑓3𝑛
⋮ ⋮ ⋮ ⋱ ⋮
[𝑔𝑚1 + 𝑓𝑚1 𝑔𝑚2 + 𝑓𝑚2 𝑔𝑚3 + 𝑓𝑚3 … 𝑔𝑚𝑛 + 𝑓𝑚𝑛 ]

𝑓11 + (𝑔11 + ℎ11 ) 𝑓12 + (𝑔12 + ℎ12 ) 𝑓13 + (𝑔13 + ℎ13 ) … 𝑓1𝑛 + (𝑔1𝑛 + ℎ1𝑛 )
𝑓21 + (𝑔21 + ℎ21 ) 𝑓22 + (𝑔22 + ℎ22 ) 𝑓23 + (𝑔23 + ℎ23 ) … 𝑓2𝑛 + (𝑔2𝑛 + ℎ2𝑛 )
= 𝑓31 + (𝑔31 + ℎ31 ) 𝑓32 + (𝑔32 + ℎ32 ) 𝑓33 + (𝑔33 + ℎ33 ) … 𝑓3𝑛 + (𝑔3𝑛 + ℎ3𝑛 )
⋮ ⋮ ⋮ ⋱ ⋮
[𝑓𝑚1 + (𝑔𝑚1 + ℎ𝑚1) 𝑓𝑚2 + (𝑔𝑚2 + ℎ𝑚2 ) 𝑓𝑚3 + (𝑔𝑚3 + ℎ𝑚3 ) … 𝑓𝑚𝑛 + (𝑔𝑚𝑛 + ℎ𝑚𝑛 )]

Asociando los 𝑓𝑖𝑗 + (𝑔𝑖𝑗 + ℎ𝑖𝑗 ) y descomponiendo como suma de dos


matrices se tiene
f + (g + h) = (f + g) + h

𝑨𝟑 ∶ sea la matriz

0 0 0 … 0
0 0 0 … 0
0= 0 0 0 … 0 tal que ∀ 𝑓 ∈ 𝑅 𝑋 se tiene:
⋮ ⋮ ⋮ ⋱ ⋮
[0 0 0 … 0]

𝑓11 𝑓12 𝑓13 … 𝑓1𝑛 0 0 0 … 0


𝑓21 𝑓22 𝑓23 … 𝑓2𝑛 0 0 0 … 0
𝑓31 𝑓32 𝑓33 … 𝑓3𝑛 + 0 0 0 … 0 =𝑓
⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ⋱ ⋮
[𝑓𝑚1 𝑓𝑚2 𝑓𝑚3 [
… 𝑓𝑚𝑛 ] 0 0 0 … 0]
Por lo tanto ∀ 𝑓 ∈ 𝑅 𝑋 , ∃ 0 ∈ 𝑅 𝑋 /𝑓 + 0 = 𝑓

𝑨𝟒 : ∀ 𝑓 ∈ 𝑅 𝑋 sea

−𝑓11 −𝑓12 −𝑓13 … −𝑓1𝑛


−𝑓21 −𝑓22 −𝑓23 … −𝑓2𝑛
−𝑓 = −𝑓31 −𝑓32 −𝑓33 … −𝑓3𝑛 ⇒
⋮ ⋮ ⋮ ⋱ ⋮
[−𝑓𝑚1 −𝑓𝑚2 −𝑓𝑚3 … −𝑓𝑚𝑛 ]

𝑓11 − 𝑓11 𝑓12 − 𝑓12 𝑓13 − 𝑓13 … 𝑓1𝑛 − 𝑓1𝑛


𝑓21 − 𝑓21 𝑓22 − 𝑓22 𝑓23 − 𝑓23 … 𝑓2𝑛 − 𝑓2𝑛
𝑓 + (−𝑓) = 𝑓31 − 𝑓31 𝑓32 − 𝑓32 𝑓33 − 𝑓33 … 𝑓3𝑛 − 𝑓3𝑛
⋮ ⋮ ⋮ ⋱ ⋮
[𝑓𝑚1 − 𝑓𝑚1 𝑓𝑚2 − 𝑓𝑚2 𝑓𝑚3 − 𝑓𝑚3 … 𝑓𝑚𝑛 − 𝑓𝑚𝑛 ]

0 0 0 … 0
0 0 0 … 0
= 0 0 0 … 0
⋮ ⋮ ⋮ ⋱ ⋮
[0 0 0 … 0]

Luego ∀ 𝑓 ∈ 𝑅 𝑋 , ∃ − 𝑓 ∈ 𝑅 𝑋 /𝑓 + (−𝑓) = 0

𝑩𝟏 ∶ 𝑠𝑒𝑎 𝑓 ∈ 𝑅 𝑋 , 𝛽, 𝛾 ∈ 𝑅 𝑠𝑒 𝑡𝑖𝑒𝑛𝑒 (𝛽𝛾)𝑓 = 𝛽(𝛾𝑓)

𝑩𝟐 ∶ 𝑠𝑒𝑎 𝑓 ∈ 𝑅 𝑋 , 𝛽, 𝛾 ∈ 𝑅 𝑠𝑒 𝑡𝑖𝑒𝑛𝑒 (𝛽 + 𝛾)𝑓 = 𝛽𝑓 + 𝛾𝑓

𝑩𝟑 ∶ 𝑠𝑒𝑎 𝑓, 𝑔 ∈ 𝑅 𝑋 , 𝛽 ∈ 𝑅 𝑠𝑒 𝑡𝑖𝑒𝑛𝑒 𝛽(𝑓 + 𝑔) = 𝛽𝑓 + 𝛽𝑔

𝑩𝟒 ∶ ∀ 𝑓 ∈ 𝑅 𝑋 , ∃ 𝐼 ∈ 𝑅 𝑋 tal que 𝑓𝐼 = 𝑓

SUBESPACIOS VECTORIALES

Definición: Dado un espacio vectorial 𝐕 sobre un cuerpo 𝕂, un subconjunto 𝐒 ⊂


𝐕 no vacío se dice un subespacio vectorial de V si S es un espacio vectorial sobre
𝕂 con la restricción de las operaciones de 𝐕.

TEOREMA. Sea 𝐕 un espacio vectorial sobre 𝕂 y 𝐒 ⊂ 𝐕 un subconjunto no vacío.


𝑺 es un subespacio vectorial precisamente si se verifica:

̅ + 𝒚̅ ∈ 𝑺, para cualesquiera 𝒙
1. 𝒙 ̅, 𝒚̅ ∈ 𝑺.
̅ ∈ 𝑺, para cualquier ⋋∈ 𝕂, 𝒙
2. ⋋. 𝒙 ̅ ∈ 𝑺.

Equivalente, si se verifica:
a) 𝜶𝒙̅ + 𝜷. 𝒚
̅ ∈ 𝑺, para cualesquiera 𝒙
̅, 𝒚̅ ∈ 𝑺, 𝜶, 𝜷 ∈ 𝕂.
Si se cumplen las condiciones 1 y 2 las operaciones interna y externa de 𝐕
restringen a 𝐒. Por tanto, por ser 𝐕 espacio vectorial también lo es 𝐒.
Recíprocamente, si 𝐒 es subespacio vectorial de 𝐕 , las operaciones han de
restringir y se cumplen las condiciones 1 y 2.

Por otra parte, veamos la equivalencia entre las condiciones 1,2 y la condición
a.

1,2 ⇒ a:

̅ ∈ 𝑺 𝒆 𝜶 ∈ 𝕂 ⇒ 𝜶. 𝒙
𝒙 ̅ ∈ 𝑺.
Por la condición 2:
̅ ∈ 𝑺 𝒆 𝜷 ∈ 𝕂 ⇒ 𝜷. 𝒚
𝒚 ̅ ∈ 𝑺.

Y ahora:
Por la condición 1:
̅ ∈ 𝑺.
𝜶. 𝒙
̅ + 𝜷. 𝒚̅ ∈ 𝑺.
} ⇒ 𝜶. 𝒙
̅ ∈ 𝑺.
𝜷. 𝒚

𝐚 ⇒ 𝟏, 𝟐:
Tomando en la condición a, α = 1, β = 1 obtenemos la condición 1, x̅ + y̅ ∈
S.
̅ ∈ 𝑺.
Tomando en la condición a, 𝜷 = 𝟎 obtenemos la condición 2,𝜶. 𝒙

Observación. En todo espacio vectorial 𝑽 siempre hay dos subespacios


vectoriales llamados triviales, el total 𝑽 y el subespacio cero {0}.

OPERACIONES CON SUBESPACIOS VECTORIALES.

1) Intersección de subespacios vectoriales.


- Sean 𝑺𝟏 y 𝑺𝟐 dos subespacios vectoriales de 𝑽, la intersección 𝑺𝟏 ∩ 𝑺𝟐 es
un subespacio vectorial.

̅∈
En primer lugar tenemos en cuenta que 𝑺𝟏 ∩ 𝑺𝟐 es no vacío, porque 𝟎
̅ ∈ 𝑆2. Ahora comprobamos la condición de subespacio vectorial.
𝑆1 y 𝟎
Sean 𝒙̅, 𝒚
̅ ∈ 𝑺𝟏 ∩ 𝑺𝟐 y 𝜶, 𝜷 ∈ 𝕂. Se tiene:

̅, 𝒚
𝒙 ̅ ∈ 𝑺𝟏 ∩ 𝑺 𝟐 ⇒ ̅, 𝒚
𝒙 ̅ ∈ 𝑺𝟏 ⇒ 𝜶. 𝒙
̅ + 𝜷. 𝒚̅ ∈ 𝑺𝟏
̅ + 𝜷. 𝒚̅
} ⇒ 𝜶. 𝒙
̅, 𝒚
𝒙 ̅ ∈ 𝑺𝟏 ∩ 𝑺 𝟐 ⇒ ̅, 𝒚
𝒙 ̅ ∈ 𝑺𝟐 ⇒ 𝜶. 𝒙
̅ + 𝜷. 𝒚̅ ∈ 𝑺𝟐
∈ 𝑺𝟏 ∩ 𝑺𝟐

2) Suma de subespacios vectoriales.


En primer lugar observemos que la unión de subespacios vectoriales no tiene
por qué ser un subespacio vectorial. Por ejemplo consideramos:

𝑽 = ℝ𝟐 ; 𝑺𝟏 = {(𝒙, 𝟎) ∈ ℝ𝟐 , 𝒙 ∈ ℝ} ; 𝑺𝟐 = {(𝟎, 𝒚) ∈ ℝ𝟐 , 𝒚 ∈ ℝ}

Si tomamos (1,0) ∈ 𝑺𝟏 ∪ 𝑺𝟐 y (0,1) ∈ 𝑺𝟏 ∪ 𝑺𝟐 , se tiene (1,0) + (0,1) = (1,1) ∉


𝑺𝟏 ∪ 𝑺𝟐 y por tanto la unión de 𝑺𝟏 y 𝑺𝟐 no es un subespacio vectorial.
Sin embargo, dados dos subespacios vectoriales si podremos definir el
subespacio suma, mayor que la unión.

Definición: Sean 𝑺𝟏 y 𝑺𝟐 dos subespacios vectoriales de 𝑉 , definimos la


suma de 𝑺𝟏 y 𝑺𝟐 como:
𝑺𝟏 + 𝑺𝟐 = {𝒙
̅𝟏 + 𝒙
̅𝟐 𝒄𝒐𝒏 𝒙 ̅𝟐 ∈ 𝑺𝟐 }
̅𝟏 ∈ 𝑺𝟏 𝒚 𝒙

Proposición1: La suma de dos subespacios vectoriales es un subespacio


vectorial.

- Sean 𝑺𝟏 ∪ 𝑺𝟐 ∈ 𝑉 dos subespacios vectoriales de 𝑉 . Tomemos 𝒙 ̅, 𝒚̅∈


𝑺𝟏 + 𝑺𝟐 Y 𝜶, 𝜷 ∈ 𝕂. Se tiene:
̅ ∈ 𝑺𝟏 + 𝑺𝟐 ⇒ 𝒙
𝒙 ̅=𝒙 ̅𝟏 + 𝒙
̅𝟐 , 𝒄𝒐𝒏 𝒙
̅𝟏 ∈ 𝑺𝟏 , 𝒙̅𝟐 ∈ 𝑺𝟐
̅ ∈ 𝑺𝟏 + 𝑺𝟐 ⇒ 𝒚
𝒚 ̅=𝒚 ̅𝟏 + 𝒚
̅𝟐 , 𝒄𝒐𝒏 𝒚
̅ 𝟏 ∈ 𝑺𝟏 , 𝒚
̅ 𝟐 ∈ 𝑺𝟐
Por tanto:
̅ + 𝜷. 𝒚̅ = 𝜶. (𝒙
𝜶. 𝒙 ̅𝟐 ) + 𝜷(𝒚
̅𝟏 + 𝒙 ̅𝟐 ) = 𝜶. 𝒙
̅𝟏 + 𝒚 ̅𝟏 + 𝜷. 𝒚̅ 𝟏 + 𝜶. 𝒙
̅𝟐 + 𝜷. 𝒚̅ 𝟐
∈ 𝑺𝟏 + 𝑺𝟐

Proposición2: La suma de dos subespacios vectoriales es el menor


subespacio vectorial que contiene a unión.
- Sean 𝑺𝟏 y 𝑺𝟐 dos subespacios vectoriales de V. En primer lugar está claro
que 𝑺𝟏 ∪ 𝑺𝟐 ∈ 𝑺𝟏 + 𝑺𝟐 .Ahora sea 𝑆 un subespacio conteniendo
a 𝑺𝟏 ∪ 𝑺𝟐 y veamos que 𝑺𝟏 + 𝑺𝟐 ⊂ 𝑺.

̅ 𝟏 ∈ 𝑺𝟏 ⊂ 𝑺𝟏 ∪ 𝑺𝟐 ⊂ 𝑺
𝒙
̅ ∈ 𝑺𝟏 ∪ 𝑺𝟐 ⇒ 𝒙
𝒙 ̅=𝒙
̅𝟏 + 𝒙
̅𝟐 𝑐𝑜𝑛 { ̅=𝒙
⇒ 𝒙 ̅𝟏 + 𝒙
̅𝟐
̅ 𝟐 ∈ 𝑺𝟐 ⊂ 𝑺𝟏 ∪ 𝑺𝟐 ⊂ 𝑺
𝒙
∈ 𝑺.
Este concepto de generaliza de manera natural para un numero finito de
subespacios.

También se puede definir:


- Sean 𝑺𝟏 , 𝑺𝟐 , … … 𝑺𝒌 subespacios vectoriales de 𝑉 , definimos su suma
como:

𝑺𝟏 + 𝑺𝟐 + ⋯ + 𝑺𝒌 = {𝒙
̅𝟏 + 𝒙
̅𝟐 + ⋯ + 𝒙
̅𝒌 𝒄𝒐𝒏 𝒙
̅𝟏 ∈ 𝑺𝟏 , 𝒙 ̅𝒌 ∈ 𝑺𝐤 }
̅𝟐 ∈ 𝑺𝟐 , … , 𝒙

3) Suma directa

Definición1: Sean 𝑺𝟏 , 𝑺𝟐 dos subespacios vectoriales de 𝑈. Si 𝑺𝟏 ∩ 𝑺𝟐 = {𝟎},


entonces al espacio suma 𝑺𝟏 + 𝑺𝟐 se le llama suma directa de 𝑺𝟏 y 𝑺𝟐 y se
denota por:
𝑺𝟏 ⊕ 𝑺𝟐

Proposición1: Sean 𝑺𝟏 , 𝑺𝟐 dos subespacios vectoriales de 𝑈. La suma 𝑺𝟏 +


𝑺𝟐 es una suma directa si y solo si todo elemento de 𝑺𝟏 + 𝑺𝟐 se descompone
de manera única como suma de un elemento de 𝑺𝟏 y otro de 𝑺𝟐 .
- Supongamos en primer lugar que la suma es directa, es decir 𝑺𝟏 ∩ 𝑺𝟐 =
{𝟎}. Veamos que entonces la descomposición es única. Sea 𝒙̅ ∈ 𝑺𝟏 + 𝑺𝟐 .
Si:

̅=𝒙
𝒙 ̅𝟏 + 𝒙
̅𝟐 = 𝒚
̅𝟏 + 𝒚
̅𝟐 𝑐𝑜𝑛 𝒙
̅𝟏 , 𝒚
̅ 𝟏 ∈ 𝑺𝟏 𝑦 𝒙
̅𝟐 , 𝒚
̅ 𝟐 ∈ 𝑺𝟐

Entonces.
̅𝟏 − 𝒚
𝒙 ̅𝟏 = 𝒚
̅𝟐 − 𝒙
̅𝟐 ∈ 𝑺𝟏 ∩ 𝑺𝟐 ⇒ 𝒙
̅𝟏 − 𝒚
̅𝟏 = 𝒚
̅𝟐 − 𝒙
̅𝟐 = 𝟎 ⇒ 𝒙
̅𝟏 = 𝒚
̅𝟏 , 𝒙
̅𝟐
=𝒚̅𝟐

Ahora supongamos que la descomposición es única y veamos que la


suma es directa.
Hay que comprobar que 𝑺𝟏 ∩ 𝑺𝟐 = {𝟎}. Sea 𝒙 ̅ ∈ 𝑺𝟏 ∩ 𝑺𝟐 ; puede
descomponerse como:
̅=𝒙
𝒙 ̅ + 0̅ 𝑐𝑜𝑛 𝒙
̅ ∈ 𝑺𝟏 , 0̅ ∈ 𝑺𝟐 , y también 𝒙
̅ = 0̅ + 𝒙
̅ 𝑐𝑜𝑛 0̅ ∈ 𝑺𝟏 , 𝒙
̅ ∈ 𝑺𝟐

̅ = 0̅.
Por la unicidad de la descomposición deducimos 𝒙

Este concepto puede ser generalizado a más de dos subespacios.

Definición2: Sean S1 , S2 , … , Sk subespacios vectoriales de U. Si (S1 + ⋯ +


Si ) ∩ Si+1 para cualquier i, 1 ≤ i ≤ k − 1 entonces al espacio suma S1 + S2 +
⋯ + Sk se le llama suma directa de S1 , S2 , … , Sk y se denota por:

𝑺𝟏 ⊕ 𝑺𝟐 ⊕ … ⊕ 𝑺𝒌
Proposicion2.Sean 𝑺𝟏 , 𝑺𝟐 , . . , 𝑺𝒌 subespacios vectoriales de 𝑈La suma 𝑺𝟏 +
𝑺𝟐 + ⋯ + 𝑺𝒌 es una suma directa si y solo si todo elemento de 𝑺𝟏 + 𝑺𝟐 +
⋯ + 𝑺𝒌 se descompone de manera única como suma de elementos de
𝑺𝟏 , 𝑺𝟐 , . . , 𝑺𝒌 .

- Supongamos que la suma es directa. Sea 𝒙̅ ∈ 𝑺𝟏 + 𝑺𝟐 + ⋯ + 𝑺𝒌 y


̅:
supongamos que tenemos dos descomposiciones distintas de 𝒙

̅=𝒙
𝒙 ̅𝟏 + ⋯ + 𝒙
̅𝒌 = 𝒚
̅𝟏 + ⋯ + 𝒚
̅𝒌 , ̅𝒊 , 𝒚
𝒙 ̅ 𝒊 ∈ 𝑺𝒊 , 𝒊 = 𝟏, 𝟐, … , 𝒌.
Entonces aplicando que (𝑺𝟏 + ⋯ + 𝑺𝑘−1 ) + 𝑺𝑘 es una suma directa vemos
que 𝒙𝒌 = 𝒚𝒌 , y:
̅𝟏 + ⋯ + 𝒙
𝒙 ̅𝒌−𝟏 = 𝒚
̅𝟏 + ⋯ + 𝒚 ̅𝒌−𝟏

Utilizando ahora que (𝑺𝟏 + ⋯ + 𝑺𝑘−2 ) + 𝑺𝑘−1 es una suma directa vemos
que 𝒙𝒌−𝟏 = 𝒚𝒌−𝟏 .
̅𝟏 + ⋯ + 𝒙
𝒙 ̅𝒌−𝟐 = 𝒚̅𝟏 + ⋯ + 𝒚
̅𝒌−𝟐
Repitiendo el proceso deducimos que 𝒙𝒊 = 𝒚𝒊 para 𝒊 = 𝟏, 𝟐, … , 𝒌.

Recíprocamente supongamos que la descomposición es única. Veamos


que para
Cualquier 𝒊 = 𝟐, … , 𝒌, (𝑺𝟏 + ⋯ + 𝑺𝑖 ) + 𝑺𝑖+1 es una suma directa.

Cualquier 𝒙 ̅ ∈ 𝑺𝟏 + ⋯ + 𝑺𝒊 Si se escribe como suma de elementos


de𝑺𝟏 , … , 𝑺𝑖 .Por hipótesis esta descomposición es única. Deducimos que
la suma es directa, es decir, (S1 + ⋯ + Si ) ∩ Si+1 = {0}
4) Subespacios suplementarios.
Definición: Sean 𝑺𝟏 , 𝑺𝟐 dos subespacios vectoriales de 𝑉 . Se dice que son
Suplementarios si cumplen:

𝑺𝟏 ∩ 𝑺𝟐 = 𝟎
𝑺𝟏 + 𝑺𝟐 = 𝑽

O equivalente:

𝑺𝟏 ⊕ 𝑺𝟐 = 𝑉
Si 𝑺𝟏 , 𝑺𝟐 son subespacios suplementarios sabemos que un vector 𝒙̅∈𝑉
cualquiera se descompone de manera única como𝒙 ̅=𝒙 ̅𝟏 + 𝒙
̅𝟐 , con 𝒙
̅𝟏 ∈
̅𝟐 ∈ 𝑺𝟐 :
𝑺𝟏 , 𝒙

𝒙̅𝟏 Se llama la proyección de𝒙


̅ sobre 𝑺𝟏 paralelamente a𝑺𝟐 .
̅𝟐 Se llama la proyección de𝒙
𝒙 ̅ sobre 𝑺𝟐 paralelamente a𝑺𝟏 .

Es interesante tener en cuenta que más allá del trasfondo algebraico el


concepto es muy geométrico. En el siguiente dibujo está representado un
ejemplo.
Los subespacios suplementarios son el plano 𝑺𝟏 (en rojo) y la recta 𝑺𝟐 (en
azul), cualquier vector 𝒙⃗ puede descomponerse como suma de un par de
⃗ 𝟏, 𝒙
vectores 𝒙 ⃗ 𝟐 en cada uno de los subespacios.

Geométricamente el vector 𝒙 ⃗ 𝟏 se construye tomando la recta paralela a 𝑺𝟐


⃗ y cortando con el plano 𝑺𝟏 . De ahí que se llame
por el extremo del vector 𝒙
proyección de
⃗ Sobre 𝑺𝟏 paralelamente a 𝑺𝟐 .
𝒙

Análogamente el vector 𝒙 ̅𝟐 se construye cortando el plano paralelo a 𝑺𝟏 por


⃗ con la recta 𝑺𝟏 .
el extremo de 𝒙

V → V
p1 :
⃗x → ⃗x1
V → V
p2 :
x⃗ → x⃗2
La función p1 se llama la función proyección sobre 𝑺𝟏 paralelamente
𝑺𝟐 función p2 es la función proyección sobre 𝑺𝟐 paralelamente a 𝑺𝟏 .

Estas funciones verifican las siguientes propiedades:

1. 𝑝1 + 𝑝2 = 𝐼𝑑
2. 𝑝1 ⊕ 𝑝1 = 𝑝1 𝑦 𝑝2 ⊕ 𝑝2 = 𝑝2
3. 𝑝1 ⊕ 𝑝2 = 𝑝2 ⊕ 𝑝1 = 0

Combinaciones lineales
Sea V ,, k ,. un espacio vectorial y A   donde A  v1 , v2 ,....vn   V una familia
o conjunto de vectores de V , llamaremos combinación lineal de elementos de
A , a todo vector de la forma

a v i i  a1v1  a 2 v 2  .....  a n v n , ai  k , vi  A

Conjunto de combinaciones lineales


Sea A   un conjunto de vectores de V ,, k ,. ahora formaremos el subconjunto
de V cuyos elementos sean todas las combinaciones lineales de los vectores de
A , a este conjunto denotaremos con el símbolo A , que se lee “A raya”

Si A  v1 , v2 ,.....vn  un conjunto de vectores de Entonces A se escribe así:

n 
A   ai vi / ai  k  vi  A
 i 1 

Teorema
Sea V ,, k ,. un espacio vectorial y A  v1 , v2 ,....vn   V demostrar que el
conjunto de las combinaciones lineales de la familia de vectores de A es
subespecio del mismo es decir V ,, k ,. es un subespecio de V.

Demostración

i) siendo v1  1.v1  0.v2  ...  0.vn es decir v1  A  A  

ii) por definición se tiene:


n
v  A  a1 , a 2 ,.....a n  k / v   ai v1  vi  A
i 1

n
 v   ai vi  ai  k  vi  V Puesto que A  V
i 1
Luego v  A  v V , por lo tanto A  V

iii) si u, v  A  u  v  A por probar

 n

u  A 
u  
i 1
a i vi
Si   entonces
v  A v   v
n

 
i 1
i i

n n n n
u  v   ai vi    i vi   ai   i vi    i vi  u  v  A
i 1 i 1 i 1 i 1

iv) si a  k , v  A  av  A por probar


n
Si a  k  v  A  a  k  v   ai vi
i 1

n n
 av  a  ai vi   aa1 vi
i 1 i 1
Bases y dimensión de un espacio vectorial

𝐵 = {(1,1), (1, −1)} Y 𝐶 = {(1,1), (1, −1), (2,0)} Generan ℝ2

B es un conjunto linealmente independiente, en cambio C es linealmente


dependiente porque (2,0) = (1,1) + (1, −1).

Un conjunto de vectores 𝐁 = {𝑣1 , 𝑣2 , … . , 𝑣𝑛 } de un espacio vectorial V se


denomina base de V si y solo si:
i. B es linealmente independiente
ii. B genera a V

Teniendo en cuenta esta definición, 𝐵 = {(1,1), (1, −1)} es una base de ℝ2 . Otra
base de ℝ2 muy usual es la que contiene a los vectores canónicos 𝐸=
{(1,0), (0,1)}

Observamos que las dos bases están compuestas por dos vectores linealmente
independientes. ¿Será esta una característica de cualquier base de ℝ2 ?

Puede demostrarse que:

Si 𝐁 = {𝑣1 , 𝑣2 , … . , 𝑣𝑛 } es una base de V, entonces todo conjunto con mas de n


vectores es linealmente dependiente.

De acuerdo con esta propiedad, podemos deducir una característica común a


toda base de un espacio vectorial:

Sean 𝐁 = {𝑣1 , 𝑣2 , … . , 𝑣𝑛 } y 𝐁´ = {𝑤1 , 𝑤2 , … . , 𝑤𝑛 } dos bases del espacio vectorial


de V.

Como B es una base, todo conjunto de más de n vectores es LD.

Pero B´ es LI, entonces:

q≤n [1]

Como B´ es una base, todo conjunto de más de q vectores es LD.

Pero B es LI, entonces:

n≤q [2]

De [1] y [2] se deduce que q = n.

En consecuencia:

Si 𝐁 = {𝑣1 , 𝑣2 , … . , 𝑣𝑛 } es una base de V, cualquier otra base de V tiene n vectores.


Esto permite definir el concepto de dimensión.

La dimensión de un espacio vectorial V es la cantidad de vectores que componen


una base de V.
Si 𝐁 = {𝑣1 , 𝑣2 , … . , 𝑣𝑛 }es una base de V, la dimensión de V es n y lo indicamos
con dim(𝑉) = 𝑛.

Si no existe una base de V formada por un conjunto finito de vectores, se dice


que V es un espacio de dimensión infinita. Un ejemplo es el espacio de todos los
polinomios (de cualquier grado).

Como el vector nulo es linealmente dependiente, el espacio {0𝑉 } no tiene base.


A este espacio compuesto únicamente por el vector nulo, se le asigna la
dimensión cero:

dim({0𝑉 }) = 0

Para determinar la dimensión de un espacio vectorial, es suficiente hallar una


base de dicho espacio. Veamos que dimensión tienen los espacios vectoriales
con los cuales trabajaremos:

En ℝ2 conocemos la base canónica:

𝐸2 = {(1,0), (0,1)} ⇒ 𝑑𝑖𝑚(ℝ2 ) = 2

En ℝ3 la base canónica es:

𝐸3 = {(1,0,0), (0,1,0), (0,0,1)} ⇒ 𝑑𝑖𝑚(ℝ3 ) = 3

Análogamente en ℝ4 es:

𝐸3 = {(1,0,0,0), (0,1,0,0), (0,0,1,0), (0,0,0,1)} ⇒ 𝑑𝑖𝑚(ℝ4 ) = 4

De acuerdo con el número de vectores que componen cada una de estas bases,
podemos afirmar que:

𝑑𝑖𝑚(ℝ𝑛 ) = 𝑛

Para determinar la dimensión de espacios de matrices, consideremos por


ejemplo 𝑉 = ℝ3𝑥2 . Cualquier matriz de 3x2 puede expresarse como sigue:

Observemos la similitud con ℝ4 , solo cambia el formato.

Encontramos seis matrices linealmente independientes que generan 𝑉 = ℝ3𝑥2 .


Es decir, encontramos una base (llamada base canónica) de este espacio y por
lo tanto: 𝑑𝑖𝑚(ℝ3𝑥2 ) = 3𝑥2 = 6.

Generalizando podemos afirmar que:

𝑑𝑖𝑚(ℝ𝑚𝑥𝑛 ) = 𝑚𝑥𝑛

Busquemos la dimensión de los espacios de polinomios.

Consideremos por ejemplo 𝑉 = 𝑃2 y además es linealmente independiente.


Hemos obtenido una base (llamada canónica) de 𝑃2 y por lo tanto (𝑃2 ) = 3.

Análogamente:

{1, 𝑥, 𝑥 2 , 𝑥 3 } 𝑏𝑎𝑠𝑒 𝑐𝑎𝑛𝑜𝑛𝑖𝑐𝑎 𝑑𝑒 𝑃3

{1, 𝑥, 𝑥 2 , 𝑥 3 , … , 𝑥 𝑛 } 𝑏𝑎𝑠𝑒 𝑐𝑎𝑛𝑜𝑛𝑖𝑐𝑎 𝑑𝑒 𝑃𝑛

Entonces:

dim(𝑃𝑛 ) = 𝑛 + 1

Coordenadas respecto a una base

Propiedad: si 𝐁 = {𝑣1 , 𝑣2 , … . , 𝑣𝑛 } es una base del espacio vectorial V, todo vector


de V puede expresarse de forma única como combinación lineal de dos vectores
de B.

Demostración:

Sea 𝐁 = {𝑣1 , 𝑣2 , … . , 𝑣𝑛 } base de V.

Supongamos que un vector 𝑢 𝜖 𝑉 puede expresarse mediante dos


combinaciones lineales distintas de los vectores de la base B:

𝑢 = 𝛼1 𝑣1 + 𝛼2 𝑣2 + ⋯ + 𝛼𝑛 𝑣𝑛 𝑦 𝑢 = 𝛽1 𝑣1 + 𝛽2 𝑣2 + ⋯ + 𝛽𝑛 𝑣𝑛

Como las bases son conjuntos linealmente independientes resulta:

𝛼𝑖 − 𝛽𝑖 = 0 (𝑖 = 1, … , 𝑛)

Por lo tanto, los escalares de la combinación lineal son únicos para cada vector
de V.

Esta propiedad permite definir coordenadas de un vector respecto de una base.


Sea 𝐁 = {𝑣1 , 𝑣2 , … . , 𝑣𝑛 }base de V.

Para cada 𝑢 𝜖 𝑉, existen únicos escalares ∝1 , ∝2 , … , ∝𝑛 ∈ ℝ tales que:

𝑢 = 𝛼1 𝑣1 + 𝛼2 𝑣2 + ⋯ + 𝛼𝑛 𝑣𝑛

Estos escalares se denominan: coordenadas del vector u respecto de la base B.

Indicaremos las coordenadas mediante la siguiente notación:

DIMENSIÓN DE LA SUMA
Teorema: sean U y W dos subespacios de (V, +, k, .) y la dimensión de V es
finita, entonces se verifica que:
𝑑𝑖𝑚𝑘 (𝑈 + 𝑊) = 𝑑𝑖𝑚𝑘 𝑈 + 𝑑𝑖𝑚𝑘 𝑊 − 𝑑𝑖𝑚𝑘 (𝑈 ∩ 𝑊)
Demostración
Como V es de dimensión finita sobre k, sea 𝑑𝑖𝑚𝑘 𝑈 = 𝑝, 𝑑𝑖𝑚𝑘 𝑊 = 𝑞 y
𝑑𝑖𝑚𝑘 (𝑈 ∩ 𝑊) = 𝑟
Consideremos 𝑈 ∩ 𝑊 ≠ ∅ 𝑦 {𝑣1 , 𝑣2 , … , 𝑣𝑟 } una base para 𝑈 ∩ 𝑊, como 𝑈 ∩ 𝑊 es
un subespacio de U y W respectivamente, por el teorema de complementación
de bases, completamos la base {𝑣1 , 𝑣2 , … , 𝑣𝑟 } a bases para U y W. Sean
{𝑣1 , 𝑣2 , … , 𝑣𝑟 , 𝑢1 , … , 𝑢𝑝−𝑟 } base para U y {𝑣1 , 𝑣2 , … , 𝑣𝑟 , 𝑤1 , … , 𝑤𝑞−𝑟 } para base W.

AFIRMACION. – El conjunto {𝑣1 , 𝑣2 , … , 𝑣𝑟 , 𝑢1 , … , 𝑢𝑝−𝑟 , 𝑤1 , … , 𝑤𝑞−𝑟 } es una base


para U+W.
La demostración de esta afirmación es:
i) Que sea linealmente independiente.
Consideremos la combinación lineal
𝑟 𝑝−𝑟 𝑞−𝑟

∑ 𝑎𝑖 𝑣𝑖 + ∑ 𝑏𝑖 𝑢𝑖 + ∑ 𝑐𝑖 𝑤𝑖 = 𝜃 … (1)
𝑖=1 𝑖=1 𝑖=1
𝑟 𝑝−𝑟 𝑞−𝑟

∑ 𝑎𝑖 𝑣𝑖 + ∑ 𝑏𝑖 𝑢𝑖 = − ∑ 𝑐𝑖 𝑤𝑖 … (2)
𝑖=1 𝑖=1 𝑖=1
𝑞−𝑟

⇒ ∑ 𝑐𝑖 𝑤𝑖 𝜖 𝑈
𝑖=1
∩ 𝑊 , 𝑝𝑢𝑒𝑠 𝑑𝑒 𝑙𝑎 𝑟𝑒𝑙𝑎𝑐𝑖𝑜𝑛 (2), 𝑝𝑜𝑟 𝑢𝑛 𝑙𝑎𝑑𝑜 𝑝𝑜𝑟 𝑠𝑒𝑟 𝑖𝑔𝑢𝑎𝑙 𝑎 𝑢𝑛𝑎
Combinación lineal de elementos de {𝑣1 , 𝑣2 , … , 𝑣𝑟 , 𝑢1 , … , 𝑢𝑝−𝑟 }, esta en
U y por otro lado por una combinación lineal de elementos de
{𝑣1 , 𝑣2 , … , 𝑣𝑟 , 𝑤1 , … , 𝑤𝑞−𝑟 } esta en W.
𝑞−𝑟 𝑟

⇒ ∑ 𝑐𝑖 𝑤𝑖 = ∑ 𝑑𝑖 𝑣𝑖 … (3)
𝑖=1 𝑖=1
Entonces reemplazando (3) en (1).
𝑟 𝑝−𝑟 𝑟 𝑟 𝑝−𝑟

∑ 𝑎𝑖 𝑣𝑖 + ∑ 𝑏𝑖 𝑢𝑖 + ∑ 𝑑𝑖 𝑣𝑖 = 𝜃 → ∑(𝑎𝑖 + 𝑏𝑖 )𝑣𝑖 + ∑ 𝑏𝑖 𝑢𝑖 = 𝜃
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑎 + 𝑏𝑖 = 0 , ∀𝑖 = 1, 2, … , 𝑟
⇒{ 𝑖 … (4)
𝑏𝑖 = 0 , ∀𝑖 = 1, 2, … , 𝑝 − 𝑟
Pues {𝑣1 , 𝑣2 , … , 𝑣𝑟 , 𝑢1 , … , 𝑢𝑝−𝑟 } es una base para U ⇒ como 𝑏𝑖 = 0,
∀𝑖 = 1, 2, … , 𝑝 − 𝑟 en (1) se tiene:
𝑟 𝑞−𝑟
𝑎 = 0 , ∀𝑖 = 1, 2, … , 𝑟 … (5)
∑ 𝑎𝑖 𝑣𝑖 + ∑ 𝑐𝑖 𝑤𝑖 = 𝜃 ⇒ { 𝑖
𝑏𝑖 = 0 , ∀𝑖 = 1, 2, … , 𝑝 − 𝑟 … (6)
𝑖=1 𝑖=1
Pues {𝑣1 , 𝑣2 , … , 𝑣𝑟 , 𝑤1 , … , 𝑤𝑞−𝑟 } es una base para W.
⇒ de (4), (5) y (6) resulta que:
𝑎𝑖 = 0 , ∀𝑖 = 1, … , 𝑟, 𝑏𝑖 = 0 , ∀𝑖 = 1, … , 𝑝 − 𝑟 , 𝑐𝑖 = 0 , ∀𝑖
= 1, … , 𝑞 − 𝑟
⇒ {𝑣1 , 𝑣2 , … , 𝑣𝑟 , 𝑢1 , … , 𝑢𝑝−𝑟 , 𝑤1 , … , 𝑤𝑞−𝑟 } es 1.i

ii) Que genera a U+W


Sea v ∊ U+W, por definición de subespacio suma:
v=u+w, donde u ∊ U Y w ∊ W
Pero u=∑𝑟𝑖=1 𝑎𝑖 𝑣𝑖 + ∑𝑝−𝑟 𝑟 𝑞−𝑟
𝑖=1 𝑏𝑖 𝑢𝑖 y w= ∑𝑖=1 𝑐𝑖 𝑣𝑖 + ∑𝑖=1 𝑑𝑖 𝑤𝑖
𝑟 𝑝−𝑟 𝑟 𝑞−𝑟

⇒ v = (∑ 𝑎𝑖 𝑣𝑖 + ∑ 𝑏𝑖 𝑢𝑖 ) + (∑ 𝑐𝑖 𝑣𝑖 + ∑ 𝑑𝑖 𝑤𝑖 )
𝑖=1 𝑖=1 𝑖=1 𝑖=1

𝑟 𝑝−𝑟 𝑞−𝑟

= ∑(𝑎𝑖 +𝑐𝑖 )𝑣1 + ∑ 𝑏𝑖 𝑢𝑖 + ∑ 𝑑𝑖 𝑤𝑖


𝑖=1 𝑖=1 𝑖=1
⇒ {𝑣1 , 𝑣2 , … , 𝑣𝑟 , 𝑢1 , … , 𝑢𝑝−𝑟 , 𝑤1 , … , 𝑤𝑞−𝑟 } genera a U+W de (i) y (ii) la
afirmación queda demostrada
como{𝑣1 , 𝑣2 , … , 𝑣𝑟 , 𝑢1 , … , 𝑢𝑝−𝑟 , 𝑤1 , … , 𝑤𝑞−𝑟 } es una base de U + W
resulta que:

𝑑𝑖𝑚𝑘 (𝑈 + 𝑊) = 𝑟 + (𝑝 − 𝑟) + (𝑞 − 𝑟) = 𝑝 + 𝑞 − 𝑟

= 𝑑𝑖𝑚𝑘 𝑈 + 𝑑𝑖𝑚𝑘 𝑊 − 𝑑𝑖𝑚𝑘 (𝑈 ∩ 𝑊)


Dimensión de la suma directa
Si U y W son dos subespacios del espacio vectorial (V, +, k, .). Si 𝑈 ∩ 𝑊 = {𝜃}
(conjuntos disjuntos) entonces dim (𝑈 ⊕ 𝑊) = dim 𝑈 + dim 𝑊.
Es decir que la dimensión de la suma directa es igual a la suma de las
dimensiones de U y W.
En este caso 𝑈 ∩ 𝑊 = {𝜃}, entonces dim 𝑈 ∩ 𝑊 = 0
Teorema
Sea V un espacio vectorial sobre k de dimensión finita, si W es un subespacio
propio de V, entonces:
𝑉
dim ( ) = dim 𝑉 − dim 𝑊
𝑊
Demostración
Sean dim V=n y dim W=m, donde m ˂ n
Consideremos {𝑣1 , 𝑣2 , … , 𝑣𝑚 } una base para W, entonces por el teorema de
complementación de bases, extenderemos dicha base para V, esto es existen
𝑣𝑚+1 , … , 𝑣𝑛 elementos de V tal que {𝑣1 , 𝑣2 , … , 𝑣𝑚 , 𝑣𝑚+1 , … , 𝑣𝑛 } es una base para
V.
AFIRMACION: { 𝑣𝑚+1 + 𝑤, … , 𝑣𝑛 + 𝑤 } es una base de V/W prueba de la
afirmación.
i) Que sea linealmente independiente.
Sea 𝑎𝑚+1 (𝑣𝑚+1 + 𝑤) + ⋯ + 𝑎𝑛 (𝑣𝑛 + 𝑤) = 𝜃 + 𝑤 =
𝑉
𝑤 (𝑊𝑒𝑠 𝑒𝑙 𝑐𝑎𝑠𝑜 𝑑𝑒 𝑊)
𝑉
(𝑎𝑚+1 𝑣𝑚+1 + 𝑤) + ⋯ + (𝑎𝑛 𝑣𝑛 + 𝑤) = 𝑤 (𝑑𝑒𝑓. 𝑑𝑒 (. )𝑒𝑛 )
𝑊
𝑉
⇒ (𝑎𝑚+1 𝑣𝑚+1 + ⋯ + 𝑎𝑛 𝑣𝑛 ) + 𝑤 = 𝑤 (𝑑𝑒𝑓. 𝑑𝑒 (+)𝑒𝑛 )
𝑊
⇒ 𝑎𝑚+1 𝑣𝑚+1 + ⋯ + 𝑎𝑛 𝑣𝑛 ∈ 𝑊 de donde
𝑎𝑚+1 𝑣𝑚+1 + ⋯ + 𝑎𝑛 𝑣𝑛 = 𝑎1 𝑣1 + ⋯ + 𝑎𝑚 𝑣𝑚 (𝑝𝑜𝑟 𝑠𝑒𝑟 {𝑣1 , 𝑣2 , … , 𝑣𝑚 })
𝑎1 𝑣1 + ⋯ + 𝑎𝑚 − 𝑎𝑚+1 𝑣𝑚+1 − ⋯ − 𝑎𝑛 𝑣𝑛 = 𝜃 entonces

𝑎1 = ⋯ = 𝑎𝑚 = 𝑎𝑚+1 = ⋯ = 𝑎𝑛 = 0 puesto que {𝑣1 , … , 𝑣𝑚 , 𝑣𝑚+1 , … , 𝑣𝑛 }


es base V y por lo tanto es linealmente independiente.
Luego como 𝑎𝑚+1 = 𝑎𝑚+2 = ⋯ = 𝑎𝑚 = 0 se tiene {𝑣𝑚+1 , … , 𝑣𝑛 } es
linealmente independiente.
𝑉
ii) Que genera a 𝑊
𝑉
Sea 𝑣 + 𝑤 ∈ 𝑊, como 𝑣 ∈ 𝑊 se puede expresar
𝑛 𝑚 𝑛

𝑣 = ∑ 𝑎𝑖 𝑣𝑖 = ∑ 𝑎𝑖 𝑣𝑖 + ∑ 𝑎𝑖 𝑣𝑖
𝑖=1 𝑖=1 𝑖=𝑚+1
m n

⇒ v + w = (∑ ai vi + ∑ ai vi ) + w
i=1 i=m+1
m n

= (∑ ai vi + w) + ( ∑ 𝑎𝑖 𝑣1 + w)
i=1 i=m+1
𝑛 𝑛

= 𝑤 + ( ∑ 𝑎𝑖 𝑣𝑖 + 𝑤 ) 𝑝𝑢𝑒𝑠 ∑ 𝑎𝑖 𝑣𝑖 ∈ 𝑤
𝑖=𝑚+1 𝑖=𝑚+1
𝑛
𝑉
= ∑ 𝑎𝑖 𝑣𝑖 + 𝑤 , 𝑝𝑢𝑒𝑠𝑡𝑜 𝑞𝑢𝑒 𝑤 𝑒𝑠 𝑒𝑙 𝑐𝑎𝑠𝑜 𝑑𝑒
𝑊
𝑖=𝑚+1
= (𝑎𝑚+1 𝑣𝑚+1 + 𝑤) + ⋯ + (𝑎𝑛 𝑣𝑛 + 𝑤)
= 𝑎𝑚+1 (𝑣𝑚+1 + 𝑤) + ⋯ + 𝑎𝑛 (𝑣𝑛 + 𝑤)
𝑉
Entonces, para todo 𝑣 + 𝑤 ∈ 𝑊 , se tiene que
v + w = 𝑎𝑚+1 (𝑣𝑚+1 + 𝑤) + ⋯ + 𝑎𝑛 (𝑣𝑛 + 𝑤)
𝑉
Luego 𝑊 = 𝐿{𝑣𝑚+1 + 𝑤, … , 𝑣𝑛 + 𝑤} de (i) y (ii) la información queda
probada
De la afirmación se tiene que:

𝑉
dim ( ) = n − m = dim 𝑉 − dim 𝑊
𝑊

Das könnte Ihnen auch gefallen