Fundamentos Esenciales de Álgebra Abstracta y Lineal: Conceptos Clave

Álgebra Abstracta

Polinomios

Un polinomio p(x)A[x], no nulo y no una unidad, se dice irreducible en A[x] si sus únicos divisores, salvo asociados, son él mismo, es decir, si p(x) = p1(x) p2(x), entonces p1(x) o p2(x) es una unidad en A[x].

Grupos

Un grupo es un par (G, *) formado por un conjunto G ≠ ∅ y una ley de composición interna *: G × G → G verificando las siguientes propiedades:

  • Elemento Neutro: Existe e ∈ G tal que e * g = g = g * e para cada g ∈ G.
  • Elemento Simétrico: Para cada g ∈ G, existe g’ ∈ G tal que g * g’ = e = g’ * g.
  • Asociativa: (f * g) * h = f * (g * h) para cada f, g, h ∈ G.

Se dirá que es un grupo abeliano o conmutativo si además verifica:

  • Conmutativa: f * g = g * f para cada f, g ∈ G.

Subgrupos

Sea (G, *) un grupo. Diremos que un subconjunto no vacío H de G es un subgrupo de G si verifica:

  • Elemento neutro: Si e ∈ G es el elemento neutro de G, entonces e ∈ H.
  • Simétricos: Para cada a ∈ H, su simétrico a’ ∈ H.
  • Cerradura bajo la operación: Para cada a1, a2 ∈ H, a1 * a2 ∈ H.

Proposición 2.3 (Caracterización de Subgrupo)

Dado (G, *) un grupo y H ≠ ∅ un subconjunto de G, entonces: H es subgrupo de G si y solo si, para cada par de elementos a, b ∈ H se cumple que a * b’ ∈ H, donde b’ es el simétrico de b.

Álgebra Lineal

Espacios Vectoriales

Sea V un espacio vectorial sobre un cuerpo K. Llamaremos base de V a todo subconjunto B ⊆ V que verifica las siguientes condiciones:

  • Sistema de generadores: B genera el espacio V, es decir, todo vector de V puede expresarse como combinación lineal de los vectores de B.
  • Independencia lineal: B es linealmente independiente.

Sea V un espacio vectorial sobre un cuerpo K. Si V posee una base formada por un número finito de vectores, entonces diremos que V es un espacio vectorial de dimensión finita. En este caso, llamaremos dimensión de V (denotada por dimK(V)) al número de vectores de cualquiera de sus bases.

Sea V un espacio vectorial sobre K y sea U un subconjunto no vacío de V. Diremos que U es un subespacio vectorial de V y lo denotamos por U ≤ V si U es cerrado para la suma y para el producto por escalares, es decir:

  • u + v ∈ U, ∀ u, v ∈ U
  • αu ∈ U, ∀ u ∈ U y ∀ α ∈ K

v2oB+VUzYvf6bfM51VwD8H+X4cTT8GMfLAAAAAElFTkSuQmCC

Aplicaciones Lineales

Dados V y V’ dos espacios vectoriales sobre K, una aplicación f: V → V’ se dice que es una aplicación lineal si verifica:

  1. f(u + v) = f(u) + f(v), ∀u, v ∈ V.
  2. f(αu) = αf(u), ∀α ∈ K, ∀u ∈ V.

Dada una aplicación lineal f: V → V’, se definen su núcleo e imagen respectivamente por:

  • Ker(f) = {x ∈ V / f(x) = 0}
  • Im(f) = {f(x) / x ∈ V}

Valores y Vectores Propios

Sea V un espacio vectorial sobre K y sea f: V → V un endomorfismo de V. Se dice que el escalar λ ∈ K es un valor propio (o autovalor) de f si existe un vector 0 ≠ u ∈ V de forma que f(u) = λu.

Para un escalar λ ∈ K, llamaremos vector propio (o autovector) asociado a λ a cada vector u de V tal que f(u) = λu. Denotamos por al conjunto de todos los autovectores asociados a λ, esto es: Vλ = {u ∈ V / f(u) = λu}.

Proposición 5.16 (Subespacio Propio)

Sea V un espacio vectorial sobre K de dimensión n, f un endomorfismo de V y sea A la matriz asociada a f respecto de una base de V. Dado λ ∈ K, se verifica:

  1. Vλ = Ker(f – λI).
  2. es un subespacio vectorial de V.
  3. dim(Vλ) = n – rg(A – λI).
  4. λ es autovalor de f ↔ det(A – λI) = 0.

El subespacio recibe el nombre de subespacio propio de λ.

Espacios Vectoriales Euclídeos

Sea (V, < , >) un espacio vectorial euclídeo de dimensión finita. Diremos que una base B = {v1, …, vn} es ortogonal si los vectores que la forman son ortogonales dos a dos, esto es: i, vj> = 0, para todo i ≠ j.

Se dice que B es una base ortonormal si es ortogonal y además todos los vectores que la forman tienen norma 1, esto es: ||vi|| = 1, para todo vi ∈ B.

Isomorfismos y Diagonalización

Dos espacios vectoriales V y V’ se dice que son isomorfos, y se denota por V ≅ V’, si existe un isomorfismo entre ellos.

Se dice que una matriz cuadrada A es diagonalizable si existe una matriz diagonal D semejante a A.

Dada una matriz A ∈ Mn(K) regular, si es diagonalizable por semejanza, es decir, si existe una matriz regular P tal que D = P⁻¹AP es una matriz diagonal (con elementos no nulos en la diagonal, ya que A es regular), entonces su inversa A⁻¹ puede calcularse como A⁻¹ = PD⁻¹P⁻¹, donde D⁻¹ es una matriz diagonal que se obtiene calculando los inversos de los elementos de la diagonal de D.

Algoritmo de Euclides

Sea A un anillo y p(x), q(x) ∈ A[x] – {0}. Entonces:

p(x) = q(x) × c1(x) + r1(x)
q(x) = r1(x) × c2(x) + r2(x)
r1(x) = r2(x) × c3(x) + r3(x)
...
rn-2(x) = rn-1(x) × cn(x) + rn(x)