jueves, 3 de abril de 2014

La Mecánica matricial

La Mecánica matricial es una formulación de la mecánica cuántica creada por Werner Heisenberg, Max Born y Pascual Jordan en 1925. La mecánica matricial fue la primera definición completa y correcta de la mecánica cuántica. Extiende el modelo de Bohr al describir como ocurren los saltos cuánticos. Lo realiza interpretando las propiedades físicas de las partículas como matrices que evolucionan en el tiempo. Es el equivalente a la formulación ondulatoria planteada por Erwin Schrödinger y es la base de la notación bra-ket de Paul Dirac para la formulación ondulatoria.

 A inicios del siglo XX la ruptura de los conceptos clásicos con los experimentos realizados era evidente. Los primeros modelos fueron propuestos por Albert Einstein, Niels Bohr, Arnold Sommerfeld y muchos otros; quienes fundaron las bases de lo que ahora se conoce como mecánica cuántica. En la década de los veinte, un grupo de relativamente jóvenes físicos tomaron el liderazgo en la elaboración de una teoría acorde con los nuevos postulados encontrados; teoría que, contraria a la formulación clásica, debía ser basada en los experimentos y no en la intuición. Además de requerir un lenguaje matemático más preciso.

En este sentido, Werner Heisenberg fue el primero completar una formulación matemática más elaborada de la mecánica cuańtica. Esta formulación se basa en que los aspectos teóricos de los sistemas están fundados exclusivamente en las relaciones entre cantidades pertenecientes al sistema que, en principio, es observable. En mecánica cuántica, los observables son las cantidades que directa o indirectamente pueden ser experimentalmente medidas. Esta premisa lo condujo a una formulación exitosa de la mecánica cuántica basado en la teoría de matrices.

Heisenberg trabajo con datos experimentales relacionados a la transición atómica de las interacciones de los átomos con cuantos de luz, fotones, tratando de identificar los observables relevantes. De esta manera él argumentó que las cantidades relacionadas a las transiciones eran los objetos básicos relevantes. En 1925 Heisenberg propuso la primera estructura matemática coherente acerca de la teoría atómica para los átomos.

En la elaboración de esta Mecánica Matricial fue importante el trabajo de Max Born y Pascual Jordan, quienes reconocieron que esas cantidades obedecían las reglas preestablecidas por el álgebra matricial.



Razonamiento de Heisenberg

Previo a la Mecánica Matricial, la teoría cuántica anterior describía el movimiento de una partícula por medio de una orbita clásica con posición  X(t) \,  y momento  P(t) \,  bien definido, con la restricción que la integral temporal sobre un período T de momento por velocidad debía ser un múltiplo entero positivo de la constante de Planck:
 \int_0^T P dX = n h.
La teoría cuántica anterior no describe procesos dependientes del tiempo, como la absorción o emisión de radiación, sin embargo esta restricción empleada correctamente toma orbitas con energía.
Cuando a una partícula clásica se la acopla débilmente a un campo de radiación, es decir cuando el amortiguamiento de la radiación puede ser despreciado, este emitiráradiación en un patrón que se repite cada periodo orbital. Las frecuencias que componen la onda saliente son entonces son múltiplos enteros de la frecuencia orbital. Este es un síntoma que manifiesta que es periódico, lo que nos indica que las representaciones de Fourier únicamente tienen los valores de frecuencia 2\pi n/T \,:
 X(t) = \sum_{n=-\infty}^\infty  e^{2\pi i nt / T} X_n
donde los coeficientes X_n \, son complejos. Los que tienen frecuencias negativas deben ser los complejos conjugados de los que tienen frecuencias positivas, de esta manera  X(t) \,  es siempre real:
 X_n = X_{-n}^*
Por otro lado, una partícula mecanocuántica no puede emitir continuamente radiación, solo puede emitir fotones. Asumiendo que esta partícula se encuentra en una órbita n, emite un fotón y se traslada a una órbita  m \, . La energía del fotón es E_n - E_m \,, que significa que su frecuencia es (E_n - E_m)/h \,. Para n y m , pero con n - m relativamente pequeños, éstas son las frecuencias clásicas del principio de correspondencia planteado por Bohr:
 E_n-E_m \approx \frac{h(n-m)}{T}
donde  T \,  es el período clásico de una de las orbitas n o m cuando la diferencia entre ellas es de un orden mayor a  h \, . Sin embargo para n o m  pequeños o si n - m es muy grande, las frecuencias no son múltiplos enteros de ninguna de las frecuencias.
Cuando las frecuencias de emisión de la partícula son las mismas frecuencias de la descripción de Fourier de su movimiento, esto sugiere que algo está oscilando en la descripción dependiente del tiempo de la partícula con frecuencia (E_n - E_m)/h \,. Heisenberg denominó a esta cantidad X_{nm} \, y exigió que sea reducido a los coeficientes clásicos de Fourier en el límite clásico. Para valores muy grandes de n y m, pero con valores relativamente pequeños de n - mX_{nm} \, es el coeficiente de Fourier (n - m)-ésimo del movimiento clásico en la órbita n. Cuando X_{nm} \, tiene frecuencias opuestas a X_{nm} \,, la condición que  X \,  sea real se convierte en:
X_{nm}=X_{mn}^*
Por definición, X_{nm} \, tiene solo las frecuencias (E_n - E_m)/h \,, así que su evolución temporal es simplemente:
 (XP)_{mn} = \sum_{k=0}^\infty X_{mk} P_{kn}

* Max Born notó que esta es la ley de multiplicación para matrices, por lo que la posición, el momento, la energía y todos los observables son interpretados como matrices. Debido a la regla de multiplicación el producto depende del orden, es decir XP \neq PX \,..

La matriz X describe completamente el movimiento de una partícula mecanocuántica. Debido a que las frecuencias en el movimiento cuántico no son múltiplos de una frecuencia común, los elementos de la matriz no pueden ser interpretados como los coeficientes de Fourier de una trayectoria clásica. No obstante, como  X(t) \,  y P(t) \, son matrices, satisfacen las ecuaciones clásicas del movimiento.

viernes, 28 de marzo de 2014

Momento de torsión de una fuerza

    El momento, en física, es una medida del efecto de rotación causado por una fuerza. Es igual a la magnitud de la fuerza multiplicada por la distancia al eje de rotación, medida perpendicularmente a la dirección de la fuerza. En vez de describir la dinámica de rotación en función de los momentos de las fuerzas, se puede hacer en función de pares de fuerzas.

    Un par de fuerzas es un conjunto de dos fuerzas iguales y de sentido contrario aplicadas en puntos distintos. El momento del par de fuerzas o torque se representa por un vector perpendicular al plano del par, cuyo módulo es igual al producto de la intensidad común de las fuerzas por la distancia entre sus rectas soporte, y cuyo sentido está ligado al sentido de rotación del par por la "regla del sacacorchos o regla de la mano derecha".

    En forma simple, el momento de una fuerza viene a ser el producto vectorial del radio vector de la fuerza por el vector de la fuerza generadora del momento.


Donde:
: momento asociado al vector fuerza, N.m
 r: radio vector, m
 F: vector fuerza,
N También puede expresarse como:
 


Una fuerza F actúa en un punto A de un cuerpo, ello hace que éste rote alrededor del punto "o", el cual recibe el nombre de centro instantáneo de rotación. La distancia más pequeña que existe entre "o" y la línea de acción del vector fuerza recibe el nombre de "brazo del vector fuerza"; r es conocido como radio vector de la fuerza, y es un vector cuyo origen se encuentra en "o" y extremo en el punto de aplicación de la fuerza.

El Teorema del Cofactor

El determinante de una matriz A de n x n es la suma de los productos de los elementos del primer renglón por sus cofactores.

Si A es de 3 x 3, |A| = a11A11 + a12A12 + a13A13
Si A es de 4 x 4, |A| = a11A11 + a12A12 + a13A13 + a14A14
Si A es de n x n, |A| = a11A11 + a12A12 + a13A13 + … + a1nA1

A estas ecuaciones se les llama expansión por cofactores de |A|.

Ejemplo

 A estas ecuaciones se les llama expansión por cofactores de |A|. 

Solución:

Usando los elementos del primer renglón y sus correspondientes cofactores se obtiene:

miércoles, 26 de marzo de 2014

Álgebra de Boole

    Álgebra de Boole (también llamada álgebra booleana) en informática y matemática, es una estructura algebraica que esquematiza las operaciones lógicas Y, O , NO y SI (AND, OR, NOT, IF), así como el conjunto de operaciones unión, intersección y complemento.

    Se denomina así en honor a George Boole, matemático inglés autodidacta, que fue el primero en definirla como parte de un sistema lógico, inicialmente en un pequeño folleto: The Mathematical Analysis of Logic,1 publicado en 1847, en respuesta a una controversia en curso entre Augustus De Morgan y Sir William Hamilton. El álgebra de Boole fue un intento de utilizar las técnicas algebraicas para tratar expresiones de la lógica proposicional. Más tarde como un libro más importante: The Laws of Thought,2 publicado en 1854.

En la actualidad, el álgebra de Boole se aplica de forma generalizada en el ámbito del diseño electrónico. Claude Shannon fue el primero en aplicarla en el diseño de circuitos de conmutación eléctrica biestables, en 1948. Esta lógica se puede aplicar a dos campos:

  • Al análisis, porque es una forma concreta de describir como funcionan los circuitos. 
  • Al diseño, ya que teniendo una función aplicamos dicha álgebra, para poder desarrollar una implementación de la función. 

Álgebra Lineal

    El álgebra lineal es una rama de las matemáticas que estudia conceptos tales como vectores, matrices, sistemas de ecuaciones lineales y su enfoque de manera más formal, espacios vectoriales y sus transformaciones lineales.

    Es un área activa que tiene conexiones con muchas áreas dentro y fuera de las matemáticas como ser el análisis funcional, las ecuaciones diferenciales, la investigación de operaciones, las gráficas por computadora, la ingeniería, etc.

    De manera más formal, el álgebra lineal estudia conjuntos denominados espacios vectoriales, los cuales constan de un conjunto de vectores y un conjunto de escalares, que tiene estructura de campo, con una operación de suma de vectores y otra de producto entre escalares y vectores que satisfacen ciertas propiedades. Estudia también transformaciones lineales, que son funciones entre espacios vectoriales que satisfacen las condiciones de linealidad:

T(u+v)=T(u) + T(v),\qquad T(r\cdot u)=r\cdot T(u).

    A diferencia del ejemplo desarrollado en la sección anterior, los vectores no necesariamente son n-adas de escalares, sino que pueden ser elementos de un conjunto cualquiera (de hecho, a partir de todo conjunto puede construirse un espacio vectorial sobre un campo fijo). Finalmente, el álgebra lineal estudia también las propiedades que aparecen cuando se impone estructura adicional sobre los espacios vectoriales, siendo una de las más frecuentes la existencia de un producto interno (una especie de producto entre dos vectores) que permite introducir nociones como longitud de vectores y ángulo entre un par de los mismos.

Álgebra Abstracta

    El álgebra abstracta es la parte de la matemática que estudia las estructuras algebraicas como las de grupo, anillo, cuerpo o espacio vectorial. Muchas de estas estructuras fueron definidas formalmente en el siglo XIX, y, de hecho, el estudio del álgebra abstracta fue motivado por la necesidad de más exactitud en las definiciones matemáticas.

     En el álgebra abstracta los elementos combinados por diversas operaciones generalmente no son interpretables como números, razón por la cual el álgebra abstracta no puede ser considerada una simple extensión de la aritmética. El estudio del álgebra abstracta ha permitido observar con claridad lo intrínseco de las afirmaciones lógicas en las que se basan todas la matemática y las ciencias naturales, y se usa hoy en día prácticamente en todas las ramas de la matemática. Además, a lo largo de la historia, los algebristas descubrieron que estructuras lógicas aparentemente diferentes muy a menudo pueden caracterizarse de la misma forma con un pequeño conjunto de axiomas.

     El término álgebra abstracta se usa para distinguir este campo del álgebra elemental o del álgebra de la escuela secundaria que muestra las reglas correctas para manipular fórmulas y expresiones algebraicas que conciernen a los números reales y números complejos. El álgebra abstracta fue conocida durante la primera mitad del siglo XX como álgebra moderna.

El Álgebra (Introducción al lenguaje algebraico)

    El álgebra es la rama de la matemática que estudia la combinación de elementos de estructuras abstractas acorde a ciertas reglas. Originalmente esos elementos podían ser interpretados como números o cantidades, por lo que el álgebra en cierto modo originalmente fue una generalización y extensión de la aritmética. En el álgebra moderna existen áreas del álgebra que en modo alguno pueden considerarse extensiones de la aritmética.

    Se puede pensar que el álgebra comienza cuando se empiezan a utilizar letras para representar números, pero en realidad comienza cuando los matemáticos empiezan a interesarse por las operaciones que se pueden hacer con cualquier número, más que por los mismos números, y así el gran paso de la aritmética al álgebra. La utilización de letras dentro del ambiente matemático es muy antigua, ya que los griegos y romanos las utilizaban para representar números bien determinados Las ecuaciones y sus soluciones son de mucha importancia en casi todos los campos de la tecnología y de la ciencia. Una fórmula es el enunciado algebraico de que dos expresiones representan al mismo número. Por ejemplo, la fórmula del área de un círculo es: A = π r^2. El símbolo A representa el área, lo mismo que la expresión: π r^2, pero aquí el área se expresa en términos de otra cantidad, el radio: r.