Probabilidad
Antecedentes de las escuelas de Wikipedia
SOS Children, que corre cerca de 200 sos escuelas en el mundo en desarrollo, organizó esta selección. patrocinio SOS Niño es cool!
Serie Certeza |
---|
|
La probabilidad es la probabilidad o posibilidad de que algo es el caso o va a suceder. Teoría de la probabilidad se usa ampliamente en áreas tales como estadísticas , matemáticas , la ciencia y la filosofía para sacar conclusiones sobre la probabilidad de eventos potenciales y la mecánica subyacente de sistemas complejos.
Interpretaciones
La probabilidad de la palabra no tiene una definición directa consistente. En realidad, hay dos grandes categorías de interpretaciones de probabilidad: Frequentists hablan de probabilidades sólo cuando se trata de bien definido experimentos aleatorios. La frecuencia relativa de ocurrencia del resultado de un experimento, cuando se repite el experimento, es una medida de la probabilidad de que evento aleatorio. Bayesianos, sin embargo, asignar probabilidades a cualquier declaración que sea, incluso cuando hay un proceso aleatorio está implicado, como una forma de representar su plausibilidad subjetiva.
Historia
El estudio científico de la probabilidad es un desarrollo moderno. El juego muestra que ha habido un interés en cuantificar las ideas de probabilidad durante milenios, pero las descripciones matemáticas exactas de uso en esos problemas sólo surgió mucho más tarde.
Según Richard Jeffrey, "Antes de la mitad del siglo XVII, el término (probabilis América)" probable "significaba autorizable, y se aplicó en ese sentido, de manera unívoca, a la opinión ya la acción. Una acción probable u opinión fue uno como personas sensatas emprenderían o mantener, en las circunstancias ".
Aparte de algunas consideraciones elementales realizadas por Girolamo Cardano en el siglo 16, la doctrina de las probabilidades se remonta a la correspondencia de Pierre de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) dio el tratamiento científicos conocidos del sujeto. Jakob Bernoulli Ars Conjectandi (póstuma, 1713) y Abraham de Moivre de Doctrina de Chances (1718) abordó la cuestión como una rama de las matemáticas. Ver Ian hacking de la Aparición de la probabilidad para una historia del desarrollo temprano del propio concepto de probabilidad matemática.
La teoría de los errores se puede remontar de nuevo a De Roger Costas Opera Miscellanea (póstuma, 1722), pero una memoria preparada por Thomas Simpson en 1755 (impreso 1756) aplicó por primera vez la teoría a la discusión de los errores de observación. La reimpresión (1757) de esta memoria se establecen los axiomas que errores positivos y negativos son igualmente probables, y que hay ciertos límites asignables dentro de la cual todos los errores pueden ser supuestamente a caer; errores continuos se discuten y se da una curva de probabilidad.
Pierre-Simon Laplace (1774) hizo el primer intento de deducir una regla para la combinación de observaciones de los principios de la teoría de probabilidades. Representó a la ley de la probabilidad de errores por una curva , siendo cualquier error y su probabilidad, y estableció tres propiedades de esta curva:
- es simétrica en cuanto a la eje x;
- la eje y es una asíntota, la probabilidad de que el error siendo 0;
- el área encerrada es 1, siendo cierto que existe un error.
Se deduce una fórmula para la media de tres observaciones. También dio (1781) una fórmula para la ley de la instalación de error (un término debido a Lagrange, 1774), pero que llevó a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del máximo producto de las probabilidades de un sistema de errores concurrentes.
El método de mínimos cuadrados se debe a Adrien-Marie Legendre (1805), quien lo introdujo en sus Nouvelles méthodes pour la détermination des orbites des Cometes (Nuevos métodos para la determinación de las órbitas de los cometas). En la ignorancia de la contribución de Legendre, un escritor estadounidense de origen irlandés, Robert Adrian, editor de "The Analyst" (1808), primera dedujo la ley de facilidad de error,
siendo una constante que depende de la precisión de la observación, y un factor de escala asegurar que el área bajo la curva es igual a 1. Dio dos pruebas, el segundo siendo esencialmente el mismo que John Herschel (1850). Gauss dio la primera prueba, que parece haber sido conocido en Europa (el tercero después de Adrian) en 1809. Otras pruebas fueron dadas por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), WF Donkin (1844, 1856), y Morgan Crofton (1870). Otros contribuyentes fueron Ellis (1844), De Morgan (1864), Glaisher (1872), y Giovanni Schiaparelli (1875). (1856) la fórmula de Peters para , El error probable de una sola observación, es bien conocida.
En los siglo XIX autores en la teoría general incluido Laplace , Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De Morgan y George Boole mejoró la exposición de la teoría.
En el lado geométrico (ver geometría) contribuyentes integrales a Los Educativos tiempos eran influyentes (Miller, Crofton, McColl, Wolstenholme, Watson, y Artemis Martin).
El tratamiento matemático
En matemáticas una probabilidad de un evento, A está representado por un número real en el intervalo de 0 a 1 y se escribe como P (A), p (A) o Pr (A). Un evento imposible tiene una probabilidad de 0, y un determinado evento tiene una probabilidad de 1. Sin embargo, los conversos no siempre son ciertas: la probabilidad 0 eventos no siempre son imposibles, ni de probabilidad 1 eventos cierta. La distinción más sutil entre "cierto" y "probabilidad 1" se trata con mayor detalle en el artículo sobre " casi con toda seguridad ".
Lo opuesto o complemento de un evento A es el evento [no A] (es decir, el caso de A no ocurre); su probabilidad viene dada por
. A modo de ejemplo, la posibilidad de no sacar un seis en un dado de seis caras es
= . Ver Evento complementario para un tratamiento más completo.
Si dos eventos, A y B son independiente, entonces la probabilidad conjunta es
por ejemplo, si dos monedas se voltean la posibilidad de que ambos son cabezas es .
Si dos eventos son mutuamente excluyentes entonces la probabilidad de que pueden tener origen es
Por ejemplo, la posibilidad de sacar un 1 o 2 en un dado de seis caras es .
Si los eventos no son mutuamente excluyentes entonces
- .
Probabilidad condicional es la probabilidad de un suceso A, dada la ocurrencia de algún otro evento B. Probabilidad condicional se escribe P (A | B), y se lee "la probabilidad de A, B dada". Se define por
Si entonces es indefinido.
Evento | Probabilidad |
---|---|
La | |
No A | |
A o B | |
A y B | |
A dado B |
Teoría
Al igual que otros teorías, la teoría de la probabilidad es una representación de los conceptos probabilísticos en términos formales-que es, en términos que pueden ser consideradas por separado de su significado. Estos términos formales son manipulados por las reglas de las matemáticas y la lógica, y cualquier resultado son interpretados o traducidos de nuevo en el dominio del problema.
Ha habido por lo menos dos intentos exitosos para formalizar probabilidad, a saber, la Kolmogorov formulación y la Formulación de Cox. En la formulación de Kolmogorov (ver espacio de probabilidad ), conjuntos se interpretan como eventos y probabilidad en sí como un medir en una clase de conjuntos. En De Cox teorema, la probabilidad se toma como una primitiva (es decir, no se analizan más adelante) y el énfasis está en la construcción de una asignación consistente de valores de probabilidad a proposiciones. En ambos casos, el leyes de la probabilidad son las mismas, excepto para los detalles técnicos.
Hay otros métodos para la cuantificación de la incertidumbre, como el Teoría Dempster-Shafer y teoría de la posibilidad, pero los que son esencialmente diferentes y no es compatible con las leyes de la probabilidad ya que suelen ser entendidas.
Aplicaciones
Dos de las principales aplicaciones de la teoría de la probabilidad en la vida cotidiana están en evaluación de riesgos y en el comercio en mercados de materias primas. Los gobiernos suelen aplicar métodos probabilísticos en regulación ambiental donde se le llama " análisis de la vía ", a menudo medir el bienestar utilizando métodos que son de naturaleza estocástica, y seleccionar los proyectos a emprender basa en análisis estadísticos de su probable efecto en la población en su conjunto. No es correcto decir que las estadísticas están involucrados en el propio modelo, como por lo general las evaluaciones de riesgo son de una sola vez y por lo tanto requieren modelos más fundamentales de probabilidad, por ejemplo, "la probabilidad de otro 9/11". La ley de los números pequeños tiende a imponerse a todas las opciones y la percepción de los efectos de tales decisiones, lo que hace medidas de probabilidad de una cuestión política.
Un buen ejemplo es el efecto de la probabilidad percibida de cualquier generalizado conflicto de Oriente Medio en los precios del petróleo - que tienen un efecto dominó en la economía en su conjunto. Una evaluación realizada por un comerciante de productos básicos que es más probable una guerra contra menos probable envía los precios hacia arriba o hacia abajo, y las señales de otros comerciantes de esa opinión. En consecuencia, las probabilidades no son evaluados de forma independiente ni necesariamente muy racionalmente. La teoría de las finanzas del comportamiento surgió para describir el efecto de tales el pensamiento de grupo sobre los precios, sobre la política y sobre la paz y los conflictos.
Es razonablemente se puede decir que el descubrimiento de métodos rigurosos para evaluar y combinar evaluaciones de probabilidad ha tenido un efecto profundo en la sociedad moderna. En consecuencia, puede ser de cierta importancia para la mayoría de los ciudadanos a comprender cómo se toman las probabilidades y las evaluaciones de probabilidad, y cómo contribuir a la reputación ya las decisiones, especialmente en una democracia .
Otra aplicación importante de la teoría de probabilidades en la vida cotidiana es fiabilidad. Muchos de los productos de consumo, como automóviles y electrónica de consumo, utilizar teoría de la confiabilidad en el diseño del producto con el fin de reducir la probabilidad de fallo. La probabilidad de fracaso también está estrechamente relacionada con el producto de garantía.
Relación con la aleatoriedad
En un universo determinista, basada en newtoniana conceptos, no es probable que si se conocen todas las condiciones. En el caso de una rueda de ruleta, si la fuerza de la mano y el período de que la fuerza se conocen, entonces el número en el que se detendrá el balón sería una certeza. Por supuesto, esto también supone el conocimiento de la inercia y la fricción de la rueda, el peso, la suavidad y redondez de la bola, las variaciones en la velocidad de la mano durante el giro y así sucesivamente. Una descripción probabilística puede por lo tanto ser más útil que la mecánica newtoniana para analizar el patrón de resultados de rollos repetidos de ruleta. Los físicos se enfrentan a la misma situación en la teoría cinética de los gases, donde el sistema, mientras que determinista en principio, es tan complejo (con el número de moléculas típicamente del orden de magnitud de la constante de Avogadro ( ) Que sólo descripción estadística de sus propiedades es factible.
Un descubrimiento revolucionario de la física del siglo 20 fue el carácter aleatorio de todos los procesos físicos que ocurren a escalas microscópicas y que se rigen por las leyes de la mecánica cuántica . La propia función de onda evoluciona de manera determinista, siempre y cuando no se hace ninguna observación, pero, de acuerdo con la prevaleciente Interpretación de Copenhague, la aleatoriedad causada por el función de onda colapso cuando se realiza una observación, es fundamental. Esto significa que la teoría de probabilidades se requiere para describir la naturaleza. Otros nunca llegaron a un acuerdo con la pérdida del determinismo. Albert Einstein famosamente comentó en una carta a Max Born: überzeugt Jedenfalls bin ich, dass würfelt nicht der Alte (estoy convencido de que Dios no juega a los dados).. Aunque existen puntos de vista alternativos, tales como la de decoherencia cuántica ser la causa de un colapso azar aparente, en la actualidad no es una firma de consenso entre los físicos de que la teoría de probabilidades es necesario describir los fenómenos cuánticos.
Citas
- Damon Runyon, "Puede ser que la carrera no siempre es de los ligeros, ni la guerra de los fuertes - pero esa es la manera de apostar."
- Pierre-Simon Laplace "Es notable que una ciencia que se inició con la consideración de los juegos de azar se haya convertido en el objeto más importante del conocimiento humano." Théorie des Analytique probabilités, 1812.
- Richard von Mises "La extensión ilimitada de la validez de las ciencias exactas era un rasgo característico del racionalismo exagerado del siglo XVIII" (en referencia a Laplace). Probabilidad, Estadística, y la Verdad, p 9. edición Dover, 1981 (reedición de la segunda edición de Inglés, 1957).