P(H/D)= P(H)P(D/H)/[(P(H)P(D/H)+P(D/- H)P (-H)]
Esta es la fórmula de Bayes. El proceso de razonamiento utilizando la fórmula de Bayes se llama razonamiento bayesiano. Según la fórmula, p(h/d)=(1%×). 80%)/(1% × 80% + 99% × 9,6%) = 0,078 En otras palabras, el resultado positivo de la prueba muestra que la mujer tiene un 7,8% de posibilidades de estar enferma. Juzgue que el 95% de las respuestas están entre el 70% y el 80%, que es mucho más alto que el 7,8%. Aunque la fórmula bayesiana es solo una combinación de procesos simples de multiplicación, suma y división, una persona que no ha aprendido esta fórmula. Puede que no se dé cuenta de que este método se aplica al razonamiento, pero muchos estudios, incluido el problema del cáncer de mama mencionado anteriormente, han descubierto que las personas a menudo cometen errores de razonamiento similares. Este es el llamado fenómeno de negligencia de la tasa base propuesto por Kahneman et al. 1982) métodos para explicar este fenómeno, lo que ha dado lugar a una gran cantidad de investigaciones y debates sobre la inferencia bayesiana. Los métodos de investigación sobre la inferencia bayesiana en el país y en el extranjero son principalmente métodos experimentales que presentan diferentes tipos de problemas bayesianos a los sujetos y los requieren. Respondieron que utilizaron ciertos indicadores para evaluar el proceso de resolución de problemas del sujeto y los resultados para examinar el proceso cognitivo y los factores que influyen en el razonamiento bayesiano. Este artículo revisa investigaciones anteriores basadas en los factores que influyen en el razonamiento bayesiano. Algunas de ellas fueron analizadas preliminarmente. discutido La tasa de incidencia de cáncer de hígado entre los residentes de un área determinada es de 0,0004, y la investigación médica muestra que se sabe que el 99% de los pacientes con cáncer de hígado son positivos, mientras que el 99,9% de los pacientes que no tienen cáncer de hígado son negativos (no). enfermedad). ¿Cuántas personas que dan positivo pueden tener cáncer de hígado?
Si usamos A como la observación de que la muestra "da positivo" Evidencia, usando H como la proposición de hipótesis "el candidato tiene cáncer de hígado" , entonces de lo anterior podemos saber:
P(H) =0.0004
P ('h) (es decir, la proporción de residentes en un área determinada que no padecen cáncer de hígado )=1-0.0004=0.9996.
P(E/H) (es decir, la proporción de resultados positivos de las pruebas para pacientes con cáncer de hígado)=0,99 (e/'h) (es decir, el. proporción de pacientes sin cáncer de hígado que tienen resultados positivos en las pruebas)=1-0.999=0.001
Lo que necesitamos inferir ahora es P(H/E), es decir, cuando el resultado de la prueba es La proporción de "el candidato tiene cáncer de hígado" en el caso positivo Obviamente, según el teorema de Bayes reinterpretado, podemos obtener fácilmente el valor de P(H/E)
p(H. /E)=. 0.0004×0.99/((0.0004×0.99)+(0.9996×0.001))= 0.284
Esto muestra que menos del 30% de los que dan positivo en realidad tienen cáncer de hígado. Los resultados pueden ser sorprendentes, pero. una mirada más cercana tiene sentido. Debido a que la incidencia de cáncer de hígado es muy baja, aproximadamente 4 de cada 10.000 personas desarrollan cáncer de hígado, mientras que 9.996 personas no desarrollan cáncer de hígado. Un total de 10.000 personas fueron analizadas utilizando el método de la alfafetoproteína. Según la probabilidad de detección falsa, aproximadamente 9996×0,001≌9,994 de las 9996 personas sin cáncer de hígado fueron positivas, y aproximadamente 4×0,99≌3,96 de las otras 4 personas con cáncer de hígado fueron positivas.
Sólo de las 13.954 (9.994+3,96) personas positivas, 3,96 personas tienen cáncer de hígado, lo que representa alrededor del 28,4%.
Como se puede ver en el ejemplo anterior, el razonamiento bayesiano es en realidad un método de razonamiento que utiliza nueva información para revisar probabilidades anteriores. Obviamente, si este método se usa correctamente, no necesitamos recopilar una gran cantidad de datos en el proceso a largo plazo al mismo tiempo para tomar decisiones basadas en probabilidades, pero podemos usar constantemente nueva información para revisar probabilidades anteriores y tomar decisiones. basado en el desarrollo de las cosas. El siguiente ejemplo ilustra esto bien. Tres fábricas A, B y C producen el mismo tipo de piezas y sus cuotas de mercado son del 10%, 25% y 65% respectivamente. Se sabe que las tasas de falla de las piezas producidas por las fábricas A, B y C son del 30%, 20% y 10% respectivamente. Ahora, se selecciona una pieza al azar de un lote de piezas disponibles en el mercado. Después de la inspección, la pieza falló. ¿Qué probabilidad hay de que esta pieza sea producida por la fábrica A, la fábrica B o la fábrica C?
Antes de extraer repuestos, sabemos que la probabilidad de los productos de la fábrica A es del 10%, la de los productos de la fábrica B es del 25% y la de los productos de la fábrica C es del 65%. Estas son probabilidades previas. En comparación, la Fábrica C tiene la mayor probabilidad de producir productos. Ahora seleccionamos aleatoriamente productos de calidad inferior en el mercado, que es información nueva que puede usarse para modificar la probabilidad anterior. Si utilizamos E para representar "las piezas extraídas son defectuosas", H1, H2 y H3 representan respectivamente las proposiciones hipotéticas "esta pieza es producida por la fábrica A", "esta pieza es producida por la fábrica B" y "esta pieza es producida por fábrica C", entonces se puede ver en lo anterior:
P(h 1)= 0.1 P(H2)= 0.25 P(H3)= 0.65
P(E/ h 1)= 0.3 P( E/H2)= 0.2 P(E/H3)= 0.1
Según el razonamiento bayesiano, podemos obtener fácilmente P(H /E), P(H), P (ÉL). Entre...
p(h 1/E)= 0.1×0.3/((0.1×0.3)+(0.25×0.2)+(0.65×0.1))= 0.207
p(H2/E)= 0,25×0,2/((0,1×0,3)+(0,25×0,2)+(0,65×0,1))= 0,345
p(H3/E)= 0,65×0,1 /((0.1×0.3)+(0.25×0.2)+(0.65×0.1))= 0.448
Obviamente, según los resultados anteriores, podemos juzgar que la probabilidad de que esta pieza sea producida en fábrica C aumenta del 65% cayó al 44,8%, mientras que la probabilidad de que la pieza fuera producida por la fábrica B aumentó del 25% al 34,5%, y la probabilidad de que la pieza fuera producida por la fábrica A también aumentó del 10% al 20,7%.
En el ejemplo anterior, si seleccionar aleatoriamente un producto no proporciona suficiente información, puede seleccionar aleatoriamente otro producto para obtener más información. Ahora supongamos que fallan dos productos seguidos. ¿Qué probabilidad hay de que estos productos provengan de cada fábrica? Para ilustrar este problema, primero calculemos la probabilidad de que dos productos de las fábricas A, B y C no estén calificados. Suponiendo que el producto es infinito, tenemos
P(E/H1)=0.3×0.3=0.09
P(E/H2)=0.2×0.2=0.04
p(E/H3)= 0.1×0.1 = 0.01
Luego, según el razonamiento bayesiano, obtenemos P(H1/E), P(H2/E), P(H3/E ) en secuencia . Entre...
p(h 1/E)= 0.1×0.09/((0.1×0.09)+(0.25×0.04)+(0.65×0.01))= 0.353
p(H2/E)= 0,25×0,04/((0,1×0,09)+(0,25×0,04)+(0,65×0,01))= 0,392
p(H3/E)= 0,65×0,01 /((0.1×0.09)+(0.25×0.04)+(0.65×0.01))= 0.255
De acuerdo con los resultados anteriores, podemos ver que si todos los lotes fallan dos veces seguidas, el lote Las probabilidades de que los productos provengan de las fábricas A, B y C son 35,3%, 39,2% y 25,5% respectivamente.
En este caso, la posibilidad de que este lote de productos provenga de la Fábrica B es mayor.
Podemos ir más allá y suponer que se seleccionan tres productos al azar de un lote de productos y que los resultados del muestreo son: no calificado, no calificado y calificado. En este momento, las probabilidades de productos no calificados, productos no calificados y productos calificados extraídos de las fábricas A, B y C son respectivamente (en este momento, A significa "las piezas extraídas no están calificadas, no calificadas y calificadas").
p(E/h 1)= 0,3×0,3×(1-0,3)= 0,063
p(E/H2)= 0,2×0,2×(1-0,2)= 0.032
p(E/H3)= 0.1×0.1×(1-0.1)= 0.009
Según la inferencia bayesiana, se puede concluir que la fábrica A, la fábrica B y fábrica C Las posibilidades de este lote de productos son
p(h 1/E)= 0.1×0.063/((0.1×0.063)+(0.25×0.032)+(0.65×0.009))= 0.313 p>
p(H2/E)-0,25×0,032/((0,1×0,063)+(0,25×0,032)+(0,65×0,009))= 0,397
p(H3/ E) = 0,65×0,009/((0,1×0,063)+(0,25×0,032)+(0,65×0,009))= 0,290
Obviamente, basándonos en la nueva información de muestreo, hemos revisado la probabilidad anterior Esto hace que las probabilidades de la fábrica A, la fábrica B y la fábrica C se revisen a 365, 438+0,3%, 39,7% y 29,0% respectivamente.
Veamos otro ejemplo del uso de la inferencia bayesiana para analizar la fábula de Esopo “El niño y el lobo”.
La fábula de Esopo "El niño y el lobo" trata sobre un niño que va a la montaña a pastorear ovejas todos los días, y aparecen lobos en las montañas. El primer día, gritó en la montaña: "¡El lobo viene! ¡El lobo viene!". Los aldeanos al pie de la montaña escucharon el sonido y fueron a matar al lobo, pero descubrieron que el lobo no subía. la montaña. Al día siguiente seguía igual. Al tercer día, el lobo realmente vino, pero por mucho que gritara el niño, nadie vino a salvarlo, porque había mentido dos veces antes y la gente ya no le creía. Ahora utilice la inferencia bayesiana para analizar cómo ha disminuido la confianza de los aldeanos en el niño.
Usamos e para significar "el niño miente" y h para significar "el niño es digno de confianza". Suponemos que la impresión que los aldeanos tenían de este niño en el pasado era P(H)=0,8, y luego P('H)=0,2.
Ahora utilizamos la inferencia bayesiana para inferir P(H/E), es decir, el cambio en la confianza de los aldeanos en el niño después de que mintió.
En la inferencia bayesiana, necesitamos usar la probabilidad P(E/H) y la probabilidad P(E/'H). La primera es la posibilidad de que un niño creíble mienta y la segunda es la posibilidad de que. el niño no puede mentir. La probabilidad de que los niños de la carta mintieran. Sea P(E/H)=0,1, P(E/'H)=0,5.
Los aldeanos subieron a la montaña a cazar lobos por primera vez y descubrieron que el lobo no venía porque el niño había mentido. Con base en esta información, la confianza de los aldeanos en el niño se convierte en p(h/e)= 0,8×0,1/((0,8×0,1)+(0,2×0,5))= 0,444, lo que indica que la confianza de los aldeanos en el niño ha aumentado. cambiado del 0.8 original cayó a 0.
Sobre esta base, utilizamos la inferencia bayesiana para inferir P(H/E) nuevamente, es decir, después de que el niño miente por segunda vez, la confianza de los aldeanos en él se convierte en P(H/E) = 0,444×0,1/((0,444×0,1)+(0,556×0,00). A través de la observación, sabemos que las campanillas florecen alrededor de las 4 en punto, las rosas silvestres florecen alrededor de las 5 en punto, las solanáceas florecen alrededor de las 6 en punto, y las peonías florecen alrededor de las 7 en punto. Aunque sus épocas de floración son diferentes, todas tienen una época de floración determinada, lo que significa que todas las flores tienen una época de floración determinada.
Obviamente, esta es una enumeración simple. razonamiento inductivo. ¿Es confiable la conclusión de que "todas las flores tienen un cierto tiempo de floración"? ¿Qué tan confiable es la conclusión? ¿Se pueden caracterizar estos problemas mediante la inferencia bayesiana?
Usamos E1, E2, E3 y E4 para indicar que la campanilla tiene un tiempo de apertura determinado, el escaramujo tiene un tiempo de apertura determinado, la solanácea tiene un tiempo de apertura determinado y la peonía tiene un tiempo de apertura determinado. Su conjunción está representada por la letra E, y la conclusión "todas las flores tienen un cierto tiempo de floración" está representada por H. De esta manera, lo que necesitamos determinar ahora es P(H/E).
Según la forma de inferencia bayesiana, tenemos
(1)p(h/e)= p(h)×p (e/h)/(p(h )×p(e/h)+p(' h)×p(e/' h)) Debido a la premisa de enumeración e inducción, se puede inferir de la conclusión, es decir, p (e). Por lo tanto, de (1):
(2)p(h/e)= p(h)/(p(h)+p(' h)×p(e/' h)) según a La regla de la negación lógica se puede derivar de (2):
(3)P(H/E)= P(H)/(P(H)+(1-P(H)) ×P (E/' H)
En (3), P(E/'H) significa que si la conclusión de inducción H no se cumple, la probabilidad de E (como E1, E2, E3 , E4, etc.) es ).
Ahora todos los problemas anteriores se pueden solucionar. Comparando el conocimiento previo, podemos ver que la probabilidad previa de conclusión H es P (H) = 0,5. Cuando H no es cierto, la probabilidad previa de ciertas situaciones como "las campanillas tienen una determinada hora de apertura" y "rosas silvestres". tener un tiempo de apertura determinado" no es cierto. Probabilidad p (e/'h) = 0,8. Sustituyendo los datos anteriores en (3) obtenemos:
p(H/E)= 0,5/(0,5+(1-0,5)×0,8
= 0,5/0,90 p>
= 0.56
Esto muestra que la confiabilidad de la conclusión H (todas las flores tienen un tiempo de floración definido) es del 56% en comparación con la evidencia observacional E1, E2, E3 y E4.
>