Falacia de la frecuencia base

De Wikipedia, la enciclopedia libre

La falacia de la frecuencia base, también llamada negligencia de frecuencia o sesgo de la frecuencia base, es una falacia formal. Consiste en que si se le presenta a la mente información de frecuencia base (es decir, información general sobre la prevalencia) e información específica (es decir, información que pertenece solo a un caso específico), la mente tiende a ignorar la información general y enfocarse en la particular.[1]​ La paradoja del falso positivo es un ejemplo de falacia de la frecuencia base.

La negligencia de la frecuencia base es una forma específica de negligencia de extensión.

Ejemplos[editar]

Ejemplo 1: conductores ebrios[editar]

Un grupo de policías tiene alcoholímetros que muestran falsa embriaguez en el 5% de los casos en los que el conductor está sobrio. Sin embargo, los alcoholímetros nunca dejan de detectar a una persona verdaderamente borracha. Uno de cada mil conductores conduce ebrio. Supongamos que los agentes de policía detienen a un conductor al azar para administrarle una prueba de alcoholemia. Indica que el conductor está ebrio. Suponemos que no sabe nada más sobre ellos. ¿Qué tan alta es la probabilidad de que realmente estén ebrios?

Muchos responderían hasta un 95%, pero la probabilidad correcta es de alrededor del 2%.

Una explicación para esto es la siguiente: en promedio, por cada 1,000 conductores probados,

  • 1 conductor está ebrio y es 100% seguro que para ese conductor hay un resultado de prueba positivo verdadero, por lo que hay 1 resultado de prueba positivo verdadero
  • 999 conductores no están ebrios, y entre esos conductores hay un 5% de resultados falsos positivos, por lo que hay 49,95 resultados falsos positivos.

Por lo tanto, la probabilidad de que uno de los conductores entre los 1 + 49.95 = 50.95 resultados positivos de la prueba realmente esté ebrio es .

La validez de este resultado, sin embargo, depende de la validez de la suposición inicial de que el oficial de policía detuvo al conductor realmente al azar, y no debido a una mala conducción. Si existiera esa u otra razón no arbitraria para detener al conductor, entonces el cálculo también involucra la probabilidad de que un conductor ebrio conduzca de manera competente y un conductor no ebrio conduzca (de manera no) competente.

Más formalmente, se puede establecer la misma probabilidad de aproximadamente 0.02 usando el teorema de Bayes . El objetivo es encontrar la probabilidad de que el conductor esté ebrio dado que el alcoholímetro indicó que está ebrio, lo que se puede representar como

donde D significa que el alcoholímetro indica que el conductor está ebrio. El teorema de Bayes nos dice que

Se nos dijo lo siguiente en el primer párrafo:

y

Como puede ver en la fórmula, se necesita p ( D ) para el teorema de Bayes, que se puede calcular a partir de los valores anteriores usando la ley de probabilidad total :

Conectando estos números al teorema de Bayes, uno encuentra que

Ejemplo 2: identificación de terroristas[editar]

Imaginemos una ciudad de 1 millón de habitantes en la que haya 100 terroristas y 999.900 no terroristas. Para simplificar el ejemplo, se asume que todas las personas presentes en la ciudad son habitantes. Por lo tanto, la probabilidad de frecuencia base de que un habitante de la ciudad seleccionado al azar sea un terrorista es 0,0001; y la probabilidad de frecuencia base de que ese mismo habitante sea un no terrorista es 0,9999. En un intento por atrapar a los terroristas, la ciudad instala un sistema de alarma con una cámara de vigilancia y un software de reconocimiento facial automático.

El software tiene dos tasas de falla del 1 %:

  • La tasa de falsos negativos: si la cámara escanea a un terrorista, una campana sonará el 99 % de las veces y no sonará el 1 % de las veces.
  • La tasa de falsos positivos: si la cámara escanea a un no terrorista, una campana no sonará el 99 % de las veces, pero sonará el 1 % de las veces.

Supongamos ahora que un habitante dispara la alarma. ¿Cuál es la probabilidad de que la persona sea un terrorista? En otras palabras, ¿cuál es P (T | B), la probabilidad de que se haya detectado a un terrorista dado el toque de la campana? Alguien que cometa la 'falacia de la frecuencia base' inferiría que existe un 99 % de posibilidades de que la persona detectada sea un terrorista. Aunque la inferencia parece tener sentido, en realidad es un mal razonamiento, y un cálculo a continuación mostrará que las posibilidades de que sea un terrorista en realidad están cerca del 1 %, no cerca del 99 %.

La falacia surge de confundir la naturaleza de dos tasas de falla diferentes. El 'número de no-campanadas por cada 100 terroristas' y el 'número de no-terroristas por cada 100 campanas' son cantidades no relacionadas. Uno no es necesariamente igual al otro, y ni siquiera tienen que ser casi iguales. Para mostrar esto, considere lo que sucede si se instala un sistema de alarma idéntico en una segunda ciudad sin ningún terrorista. Como en la primera ciudad, la alarma suena para 1 de cada 100 habitantes no terroristas detectados, pero a diferencia de la primera ciudad, la alarma nunca suena para un terrorista. Por lo tanto, el 100 % de todas las ocasiones en que suena la alarma son para no terroristas, pero ni siquiera se puede calcular una tasa de falsos negativos. El 'número de no terroristas por cada 100 campanas' en esa ciudad es 100, pero P (T | B) = 0%. Hay cero posibilidades de que se haya detectado a un terrorista dado el toque de la campana.

Imagine que la población total de la primera ciudad de un millón de personas pasa frente a la cámara. Aproximadamente 99 de los 100 terroristas activarán la alarma, y también lo harán unos 9,999 de los 999.900 no terroristas. Por tanto, unas 10.098 personas dispararán la alarma, entre las que unas 99 serán terroristas. Entonces, la probabilidad de que una persona que active la alarma sea realmente un terrorista, es de solo 99 en 10.098, que es menos del 1 % y muy, muy por debajo de nuestra estimación inicial del 99 %.

La falacia de la frecuencia base es tan engañosa en este ejemplo porque hay muchos más no terroristas que terroristas, y el número de falsos positivos (no terroristas escaneados como terroristas) es mucho mayor que los verdaderos positivos (el número real de terroristas) .

Hallazgos en psicología[editar]

En experimentos, se ha descubierto que la gente prefiere individualizar la información sobre la información general cuando la primera está disponible.[2][3][4]

En algunos experimentos, se pidió a los estudiantes que estimaran los promedios de calificaciones (GPA) de estudiantes hipotéticos. Cuando se les dan estadísticas relevantes sobre la distribución del GPA, los estudiantes tienden a ignorarlas si se les da información descriptiva sobre el estudiante en particular, incluso si la nueva información descriptiva era obviamente de poca o ninguna relevancia para el desempeño escolar.[3]​ Este hallazgo se ha utilizado para argumentar que las entrevistas son una parte innecesaria del proceso de admisión a la universidad porque los entrevistadores no pueden elegir candidatos exitosos mejor que las estadísticas básicas.

Los psicólogos Daniel Kahneman y Amos Tversky intentaron explicar este hallazgo en términos de una regla simple o "heurística" llamada representatividad . Argumentaron que muchos juicios relacionados con la probabilidad, o con la causa y efecto, se basan en cuán representativa es una cosa de otra o de una categoría.[3]​ Kahneman considera que el abandono de la frecuencia base es una forma específica de abandono de la extensión .[5]​ Richard Nisbett ha argumentado que algunos sesgos de atribución, como el error de fundamental de atribución, son ejemplos de la falacia de la frecuencia base: la gente no usa la "información de consenso" (la "frecuencia base") sobre cómo otros se comportaron en situaciones similares y prefieren atribuciones disposicionales más simples .[6]

Existe un debate considerable en psicología sobre las condiciones bajo las cuales las personas aprecian o no la información de frecuencia base.[7][8]​ Los investigadores del programa de heurística y sesgos han enfatizado los hallazgos empíricos que muestran que las personas tienden a ignorar las tasas base y hacer inferencias que violan ciertas normas de razonamiento probabilístico, como el teorema de Bayes . La conclusión extraída de esta línea de investigación fue que el pensamiento probabilístico humano es fundamentalmente defectuoso y propenso a errores.[9]​ Otros investigadores han enfatizado el vínculo entre los procesos cognitivos y los formatos de información, argumentando que tales conclusiones generalmente no están justificadas.[10][11]

Considere nuevamente el ejemplo 1 anterior. La inferencia requerida es estimar la probabilidad (posterior) de que un conductor (elegido al azar) esté ebrio, dado que la prueba del alcoholímetro es positiva. Formalmente, esta probabilidad se puede calcular utilizando el teorema de Bayes, como se muestra arriba. Sin embargo, existen diferentes formas de presentar la información relevante. Considere la siguiente variante formalmente equivalente del problema:

 1 de cada 1000 conductores conduce ebrio. Los alcoholímetros nunca dejan de detectar a una persona verdaderamente borracha. Para 50 de los 999 conductores que no están ebrios, el alcoholímetro muestra falsamente la embriaguez. Supongamos que los policías detienen a un conductor al azar y lo obligan a tomar una prueba de alcoholemia. Indica que están ebrios. Suponemos que no sabe nada más sobre ellos. ¿Qué tan alta es la probabilidad de que realmente estén ebrios?

En este caso, la información numérica relevante — p (ebrio), p ( D | ebrio), p ( D | sobrio) - se presenta en términos de frecuencias naturales con respecto a una determinada clase de referencia (ver problema de clase de referencia ). Los estudios empíricos muestran que las inferencias de las personas se corresponden más estrechamente con la regla de Bayes cuando la información se presenta de esta manera, lo que ayuda a superar la negligencia de la frecuencia base en las personas comunes[11]​ y los expertos.[12]​ Como consecuencia, organizaciones como la Colaboración Cochrane recomiendan usar este tipo de formato para comunicar estadísticas de salud.[13]​ Enseñar a las personas a traducir este tipo de problemas de razonamiento bayesiano en formatos de frecuencia natural es más eficaz que simplemente enseñarles a introducir probabilidades (o porcentajes) en el teorema de Bayes.[14]​ También se ha demostrado que las representaciones gráficas de frecuencias naturales (por ejemplo, matrices de iconos) ayudan a las personas a hacer mejores inferencias.[15][16]

¿Por qué son útiles los formatos de frecuencia natural? Una razón importante es que este formato de información facilita la inferencia requerida porque simplifica los cálculos necesarios. Esto se puede ver cuando se usa una forma alternativa de calcular la probabilidad requerida p (ebrio | D ):

donde N (ebrio ∩ D ) denota el número de conductores que están ebrios y obtienen un resultado positivo en el alcoholímetro, y N ( D ) indica el número total de casos con un resultado positivo en el alcoholímetro. La equivalencia de esta ecuación a la anterior se deriva de los axiomas de la teoría de la probabilidad, según los cuales N (ebrios ∩ D ) = N × p ( D | ebrio) × p (ebrio). Es importante destacar que, aunque esta ecuación es formalmente equivalente a la regla de Bayes, no es psicológicamente equivalente. El uso de frecuencias naturales simplifica la inferencia porque la operación matemática requerida se puede realizar en números naturales, en lugar de fracciones normalizadas (es decir, probabilidades), porque hace que la gran cantidad de falsos positivos sea más transparente y porque las frecuencias naturales exhiben una "estructura de conjunto anidado".[17][18]

No todos los formatos de frecuencia facilitan el razonamiento bayesiano.[18][19]​ Las frecuencias naturales se refieren a la información de frecuencia que resulta del muestreo natural,[20]​ que preserva la información de la frecuencia base (por ejemplo, el número de conductores ebrios cuando se toma una muestra aleatoria de conductores). Esto es diferente del muestreo sistemático, en el que las tasas base se fijan a priori (por ejemplo, en experimentos científicos). En el último caso, no es posible inferir la probabilidad posterior p (ebrio | prueba positiva) al comparar el número de conductores que están ebrios y dan positivo en la prueba con el número total de personas que obtienen un resultado positivo en el alcoholímetro, porque la información de frecuencia base no se conserva y debe reintroducirse explícitamente utilizando el teorema de Bayes.

Véase también[editar]

Referencias[editar]

  1. «Logical Fallacy: The Base Rate Fallacy». Fallacyfiles.org. Consultado el 15 de junio de 2013. 
  2. Bar-Hillel, Maya (1980). «The base-rate fallacy in probability judgments». Acta Psychologica 44 (3): 211-233. doi:10.1016/0001-6918(80)90046-3. Archivado desde el original el 8 de agosto de 2021. Consultado el 20 de diciembre de 2020. 
  3. a b c Kahneman, Daniel; Amos Tversky (1973). «On the psychology of prediction». Psychological Review 80 (4): 237-251. doi:10.1037/h0034747. 
  4. Kahneman, Daniel; Amos Tversky (1985). «Evidential impact of base rates». En Daniel Kahneman, Paul Slovic & Amos Tversky, ed. Judgment under uncertainty: Heuristics and biases 185. pp. 153-160. doi:10.1126/science.185.4157.1124. 
  5. Kahneman, Daniel (2000). «Evaluation by moments, past and future». En Daniel Kahneman and Amos Tversky, ed. Choices, Values and Frames. 
  6. Nisbett, Richard E.; E. Borgida; R. Crandall; H. Reed (1976). «Popular induction: Information is not always informative». En J. S. Carroll & J. W. Payne, ed. Cognition and social behavior 2. pp. 227-236. 
  7. Koehler, J. J. (2010). «The base rate fallacy reconsidered: Descriptive, normative, and methodological challenges». Behavioral and Brain Sciences 19: 1-17. doi:10.1017/S0140525X00041157. 
  8. Barbey, A. K.; Sloman, S. A. (2007). «Base-rate respect: From ecological rationality to dual processes». Behavioral and Brain Sciences 30 (3): 241-254; discussion 255-297. PMID 17963533. doi:10.1017/S0140525X07001653. 
  9. Tversky, A.; Kahneman, D. (1974). «Judgment under Uncertainty: Heuristics and Biases». Science 185 (4157): 1124-1131. Bibcode:1974Sci...185.1124T. PMID 17835457. doi:10.1126/science.185.4157.1124. 
  10. Cosmides, Leda; John Tooby (1996). «Are humans good intuitive statisticians after all? Rethinking some conclusions of the literature on judgment under uncertainty». Cognition 58: 1-73. doi:10.1016/0010-0277(95)00664-8. 
  11. a b Gigerenzer, G.; Hoffrage, U. (1995). «How to improve Bayesian reasoning without instruction: Frequency formats». Psychological Review 102 (4): 684. doi:10.1037/0033-295X.102.4.684. 
  12. Hoffrage, U.; Lindsey, S.; Hertwig, R.; Gigerenzer, G. (2000). «Medicine: Communicating Statistical Information». Science 290 (5500): 2261-2262. PMID 11188724. doi:10.1126/science.290.5500.2261. 
  13. Akl, E. A.; Oxman, A. D.; Herrin, J.; Vist, G. E.; Terrenato, I.; Sperati, F.; Costiniuk, C.; Blank, D. et al. (2011). «Using alternative statistical formats for presenting risks and risk reductions». En Schünemann, Holger, ed. The Cochrane Database of Systematic Reviews (3): CD006776. PMC 6464912. PMID 21412897. doi:10.1002/14651858.CD006776.pub2. 
  14. Sedlmeier, P.; Gigerenzer, G. (2001). «Teaching Bayesian reasoning in less than two hours». Journal of Experimental Psychology: General 130 (3): 380. doi:10.1037/0096-3445.130.3.380. 
  15. Brase, G. L. (2009). «Pictorial representations in statistical reasoning». Applied Cognitive Psychology 23 (3): 369-381. doi:10.1002/acp.1460. 
  16. Edwards, A.; Elwyn, G.; Mulley, A. (2002). «Explaining risks: Turning numerical data into meaningful pictures». BMJ 324 (7341): 827-830. PMC 1122766. PMID 11934777. doi:10.1136/bmj.324.7341.827. 
  17. Girotto, V.; Gonzalez, M. (2001). «Solving probabilistic and statistical problems: A matter of information structure and question form». Cognition 78 (3): 247-276. PMID 11124351. doi:10.1016/S0010-0277(00)00133-5. 
  18. a b Hoffrage, U.; Gigerenzer, G.; Krauss, S.; Martignon, L. (2002). «Representation facilitates reasoning: What natural frequencies are and what they are not». Cognition 84 (3): 343-352. PMID 12044739. doi:10.1016/S0010-0277(02)00050-1. 
  19. Gigerenzer, G.; Hoffrage, U. (1999). «Overcoming difficulties in Bayesian reasoning: A reply to Lewis and Keren (1999) and Mellers and McGraw (1999)». Psychological Review 106 (2): 425. doi:10.1037/0033-295X.106.2.425. 
  20. Kleiter, G. D. (1994). «Natural Sampling: Rationality without Base Rates». Contributions to Mathematical Psychology, Psychometrics, and Methodology. Recent Research in Psychology. pp. 375-388. ISBN 978-0-387-94169-1. doi:10.1007/978-1-4612-4308-3_27.