viernes, 18 de julio de 2014

El Principio de Incertidumbre

Werner Heisenberg

Explicación corta y concreta sobre El Principio de Incertidumbre: 

Básicamente el Principio nos señala que en ciertas ocasiones y bajo ciertas circunstancias la observación de un evento altera al mismo. Podemos asignar un valor a un fenómeno si este se da a un nivel macro, si disponemos de un instrumento que lo cuantifique. A nivel "micro" esto se dificulta. Es decir, la mecánica clásica es infructuosa a la hora de estudiar los fenómenos sub-atomicos, ya que hasta ahora no disponemos de instrumentos que midan esos eventos de forma directa


En resumidas cuentas para los que no estén familiarizados con el mundo físico describe una limitación a la precisión con que podemos medir las posiciones y las velocidades de la partícula entre mas preciso tengamos la velocidad de una partícula inmediatamente perdemos la precisión acerca de donde estará la partícula.



Ahora les presentare un concepto sobre el Principio de Incertidumbre de manera que se pueda apreciar el concepto concreto con el concepto general llevándolos a una comparación.
La explicación "divulgativa" tradicional del principio de incertidumbre afirma que las variables dinámicas como posición, momento angular, momento lineal, etc. se definen de manera operacional, esto es, en términos relativos al procedimiento experimental por medio del cual son medidas: la posición se definirá con respecto a un sistema de referencia determinado, definiendo el instrumento de medida empleado y el modo en que tal instrumento se usa (por ejemplo, midiendo con una regla la distancia que hay de tal punto a la referencias ).
Sin embargo, cuando se examinan los procedimientos experimentales por medio de los cuales podrían medirse tales variables en microfísica, resulta que la medida siempre acabará perturbada por el propio sistema de medición. En efecto, si por ejemplo pensamos en lo que sería la medida de la posición y velocidad de un electrón, para realizar la medida (para poder "ver" de algún modo el electrón) es necesario que un fotón de luz choque con el electrón, con lo cual está modificando su posición y velocidad; es decir, por el mismo hecho de realizar la medida, el experimentador modifica los datos de algún modo, introduciendo un error que es imposible de reducir a cero, por muy perfectos que sean nuestros instrumentos.

No hay comentarios.:

Publicar un comentario