Ir al contenido

Diferencia entre revisiones de «Matriz (matemática)»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
Revertidos los cambios de 186.32.10.80 a la última edición de AVBOT usando monobook-suite
Línea 5: Línea 5:
==Historia==
==Historia==
El estudio de las matrices es muy antiguo. Los [[cuadrados latinos]] y los [[cuadrados mágicos]] se estudiaron desde hace mucho tiempo. [[Leibniz]], uno de los dos fundadores del análisis, desarrolló la teoría de los [[determinante (matemática)|determinantes]] en [[1693]] para facilitar la Resolución de las ecuaciones lineales. [[Gabriel Cramer]] tuvo que profundizar esta teoría, presentando el [[regla de Cramer|método de Cramer]] en [[1750]]. En los [[años 1800]], el método de [[eliminación de Gauss-Jordan]] se puso a punto. Fue [[James Joseph Sylvester]] quien utilizó por primera vez el término « [[matriz (matemática)|matriz]] » en [[1850]]. [[George Cayley|Cayley]], [[William Rowan Hamilton|Hamilton]], [[Hermann Grassmann]], [[Ferdinand Georg Frobenius|Frobenius]] y [[John von Neumann]] cuentan entre los matemáticos famosos que trabajaron sobre la teoría de las matrices.
El estudio de las matrices es muy antiguo. Los [[cuadrados latinos]] y los [[cuadrados mágicos]] se estudiaron desde hace mucho tiempo. [[Leibniz]], uno de los dos fundadores del análisis, desarrolló la teoría de los [[determinante (matemática)|determinantes]] en [[1693]] para facilitar la Resolución de las ecuaciones lineales. [[Gabriel Cramer]] tuvo que profundizar esta teoría, presentando el [[regla de Cramer|método de Cramer]] en [[1750]]. En los [[años 1800]], el método de [[eliminación de Gauss-Jordan]] se puso a punto. Fue [[James Joseph Sylvester]] quien utilizó por primera vez el término « [[matriz (matemática)|matriz]] » en [[1850]]. [[George Cayley|Cayley]], [[William Rowan Hamilton|Hamilton]], [[Hermann Grassmann]], [[Ferdinand Georg Frobenius|Frobenius]] y [[John von Neumann]] cuentan entre los matemáticos famosos que trabajaron sobre la teoría de las matrices.

Roberto Azofeifa ha inventado la teoría de matrices junto con Bolivar y su compañero Wagner.
En [[1925]], [[Werner Heisenberg]] redescubre el cálculo matricial fundando una primera formulación de lo que iba a pasar a ser la [[mecánica cuántica]]. Se le considera a este respecto como uno de los padres de la mecánica cuántica.
En [[1925]], [[Werner Heisenberg]] redescubre el cálculo matricial fundando una primera formulación de lo que iba a pasar a ser la [[mecánica cuántica]]. Se le considera a este respecto como uno de los padres de la mecánica cuántica.



Revisión del 23:36 7 feb 2010

La teoría de matrices es un rama de las matemáticas que se centra en el estudio de matrices. Inicialmente una rama secundaria del álgebra lineal, ha venido cubriendo los temas relacionados con la teoría de grafos, el álgebra, la combinatoria, y la estadística también.

Las matrices ahora se utilizan para múltiples aplicaciones y sirven, en particular, para representar los coeficientes de los sistemas de ecuaciones lineales o para representar las aplicaciones lineales; en este último caso las matrices desempeñan el mismo papel que los datos de un vector para las aplicaciones lineales.

Historia

El estudio de las matrices es muy antiguo. Los cuadrados latinos y los cuadrados mágicos se estudiaron desde hace mucho tiempo. Leibniz, uno de los dos fundadores del análisis, desarrolló la teoría de los determinantes en 1693 para facilitar la Resolución de las ecuaciones lineales. Gabriel Cramer tuvo que profundizar esta teoría, presentando el método de Cramer en 1750. En los años 1800, el método de eliminación de Gauss-Jordan se puso a punto. Fue James Joseph Sylvester quien utilizó por primera vez el término « matriz » en 1850. Cayley, Hamilton, Hermann Grassmann, Frobenius y John von Neumann cuentan entre los matemáticos famosos que trabajaron sobre la teoría de las matrices.

En 1925, Werner Heisenberg redescubre el cálculo matricial fundando una primera formulación de lo que iba a pasar a ser la mecánica cuántica. Se le considera a este respecto como uno de los padres de la mecánica cuántica.

Descripción, introducción elemental

Una matriz es un cuadro rectangular de números. Una matriz puede identificarse a una aplicación lineal entre dos espacios vectoriales de dimensión finita. Así la teoría de las matrices habitualmente se considera como una rama del álgebra lineal. Las matrices cuadradas desempeñan un papel particular, porque el conjunto de matrices de orden n (n entero natural no nulo dado) posee propiedades de « estabilidad » de operaciones.

Los conceptos de matriz estocástica y matriz doblemente estocástica son herramientas importantes para estudiar los procesos estocásticos, en probabilidad y en estadística.

Las matrices definidas positivas aparecen en la búsqueda de máximos y mínimos de funciones a valores reales, y a varias variables.

Es también importante disponer de una teoría de matrices a coeficientes en un anillo. En particular, las matrices a coeficientes en el anillo de polinomios se utilizan en teoría de mandos.

En matemáticas puras, los anillos de matrices pueden proporcionar un rico campo de contraejemplos para conjeturas matemáticas.

Matriz y grafos

En teoría de los grafos, a todo grafo etiquetado corresponde la matriz de adyacencia. Una matriz de permutación es una matriz que representa una permutación; matriz cuadrada cuyos coeficientes son 0 o 1, con un solo 1 en cada línea y cada columna. Estas matrices se utilizan en combinatorio.

En la teoría de grafos, se llama matriz de un grafo a la matriz que indica en la línea i y la columna j el número de aristas que enlazan el vértice i al vértice j. En un grafo no orientado, la matriz es simétrica. La suma de los elementos de una columna permite determinar el grado de un vértice. La matriz indica en la línea i y la columna j el número de caminos a n aristas que adjuntan el vértice i al vértice j.

Algunos teoremas

Véase también

Referencias

Enlaces externos