Les posteurs les plus actifs de la semaine
Aucun utilisateur |
Sujets les plus vus
Le paradoxe de l'apocalypse
Page 1 sur 1
11052012
Le paradoxe de l'apocalypse
Le topic d'origine: http://www.webastro.net/forum/archive/index.php/t-2123.html
Lecture annexe: http://anthropic-principle.com/preprints/delahaye2.pdf
Dont je vous copie le début, et qui a été résolu dans le lien ci-dessus (il me semble):
Avant d'entrer dans le vif du sujet et comprendre ce paradoxe, je vais vous faire une introduction sur les probabilités bayésiennes :
La formule de Bayes indique comment, en fonction d’une information nouvelle, il faut réévaluer des probabilités précédemment attribuées.
On dispose de la probabilité Pr(A) pour l’événement A. La formule de Bayes est une formule compliquée qui exprime un fait simple : quand un événement apparaît, les théories où cet événement est le plus probable sont renforcées.
En termes abstraits, un événement E se produit et on veut connaître la probabilité, notée Pr(A|E), d’avoir A sachant que E s’est produit. Il existe une formule qui exprime cette probabilité Pr(A|E) que l’on cherche à connaître en fonction de Pr(A)
Pr(E|A),Pr(nonA), Pr(E|nonA) qui sont connues. Cette formule (qui ne nous apprend évidemment rien quand les événements A et E sont indépendants) est la suivante :
[color=green]Pr(A|E)=Pr(A)xPr(E|A)/(Pr(A)xPr(E/A) + Pr(nonA)xPr(E/nonA))
Le paradoxe de l'Apocalypse (ou de fin du monde)
Imaginons que deux théories,
sur le destin ultime de l’humanité sont en compétition :
Théorie A. La fin de l’humanité se produira avant 2050 et au total il y aura eu environ cent milliards d’êtres humains.
Théorie B. La finde l’humanité se produira bien plus tard et, au total, il y aura eu cent mille milliards d’êtres humains. Imaginons que l’on détermine a priori, par des analyses
provenant de diverses sciences fondamentales (mathéma-tiques, physique, chimie, biologie, etc.), que : Pr(A)=1/2 etPr(B)=1/2.
Le paradoxe de Brandon Carter défendu avec acharnement par John Leslie consiste à proposer l’argumentationsuivante. Les évaluations Pr(A)=1/2 et Pr(B)=1/2 sont faites dans le cadre général des sciences, mais je dispose d’une information particulière qui me permet de réévaluer ces probabilités : «Je suis un humain dont le rang de naissance est inférieur à cent milliards» (événement E). Dans la théorie A l’événement E est banal (inévitable même), en revanche dans la théorie B cet événement est étonnant car cela me place dans le premier millième des êtres humains,chose statistiquement peu probable (la probabilité de E sachant B est 1/1000). Si une information est plus probabledans le cadre d’une théorie A que dans le cadre d’une théorie B, et que j’apprends alors que cette information est vraie, cela renforce ma confiance en la théorie A et diminue celle que j’ai concernant la théorie B. La formule de Bayespermet de rendre cela précis. Le calcul détaillé ci-dessus conduit à :
- Probabilité de A sachant que E est vrai = 0,9990 = 99,90 %
- Probabilité de B sachant que E est vrai = 0,001 = 0,10%
Détail du calcul :
Pr(A/E) = Pr(E/A)xPr(A)/(Pr(E/A)*Pr(A)+Pr(E/B)*Pr(B)) = 1x1/2 /(1x1/2 + 1/1000x1/2) = 0.999 = 99,9 %
Pr(B/E) = Pr(E/B)xPr(B)/(Pr(E/B)xPr(B)+Pr(E/A)xPr(A)) = 1/1000x1/2/(1/1000x1/2+1x1/2) = 0.001 = 0.1 %
Il y a un «glissement bayésien» en faveur de l’hypothèse d’une fin proche de l’humanité. Un tel glissement a lieu
même si plus de deux théories sont en compétition et se produit quelles que soient les hypothèses numériques formu-lées. La fin de l’humanité serait donc plus proche que ce que l’on peut croire en se fiant uniquement aux risques évalués scientifiquement.
Raisonnement très troublant !!!
Saurez vous résoudre ce paradoxe qui a été posé par le philosophe Leslie et l'astrophysicien Brandon Carter ?
Attention nuits blanches en perspective ;-)
Lecture annexe: http://anthropic-principle.com/preprints/delahaye2.pdf
Dont je vous copie le début, et qui a été résolu dans le lien ci-dessus (il me semble):
Avant d'entrer dans le vif du sujet et comprendre ce paradoxe, je vais vous faire une introduction sur les probabilités bayésiennes :
La formule de Bayes indique comment, en fonction d’une information nouvelle, il faut réévaluer des probabilités précédemment attribuées.
On dispose de la probabilité Pr(A) pour l’événement A. La formule de Bayes est une formule compliquée qui exprime un fait simple : quand un événement apparaît, les théories où cet événement est le plus probable sont renforcées.
En termes abstraits, un événement E se produit et on veut connaître la probabilité, notée Pr(A|E), d’avoir A sachant que E s’est produit. Il existe une formule qui exprime cette probabilité Pr(A|E) que l’on cherche à connaître en fonction de Pr(A)
Pr(E|A),Pr(nonA), Pr(E|nonA) qui sont connues. Cette formule (qui ne nous apprend évidemment rien quand les événements A et E sont indépendants) est la suivante :
[color=green]Pr(A|E)=Pr(A)xPr(E|A)/(Pr(A)xPr(E/A) + Pr(nonA)xPr(E/nonA))
Le paradoxe de l'Apocalypse (ou de fin du monde)
Imaginons que deux théories,
sur le destin ultime de l’humanité sont en compétition :
Théorie A. La fin de l’humanité se produira avant 2050 et au total il y aura eu environ cent milliards d’êtres humains.
Théorie B. La finde l’humanité se produira bien plus tard et, au total, il y aura eu cent mille milliards d’êtres humains. Imaginons que l’on détermine a priori, par des analyses
provenant de diverses sciences fondamentales (mathéma-tiques, physique, chimie, biologie, etc.), que : Pr(A)=1/2 etPr(B)=1/2.
Le paradoxe de Brandon Carter défendu avec acharnement par John Leslie consiste à proposer l’argumentationsuivante. Les évaluations Pr(A)=1/2 et Pr(B)=1/2 sont faites dans le cadre général des sciences, mais je dispose d’une information particulière qui me permet de réévaluer ces probabilités : «Je suis un humain dont le rang de naissance est inférieur à cent milliards» (événement E). Dans la théorie A l’événement E est banal (inévitable même), en revanche dans la théorie B cet événement est étonnant car cela me place dans le premier millième des êtres humains,chose statistiquement peu probable (la probabilité de E sachant B est 1/1000). Si une information est plus probabledans le cadre d’une théorie A que dans le cadre d’une théorie B, et que j’apprends alors que cette information est vraie, cela renforce ma confiance en la théorie A et diminue celle que j’ai concernant la théorie B. La formule de Bayespermet de rendre cela précis. Le calcul détaillé ci-dessus conduit à :
- Probabilité de A sachant que E est vrai = 0,9990 = 99,90 %
- Probabilité de B sachant que E est vrai = 0,001 = 0,10%
Détail du calcul :
Pr(A/E) = Pr(E/A)xPr(A)/(Pr(E/A)*Pr(A)+Pr(E/B)*Pr(B)) = 1x1/2 /(1x1/2 + 1/1000x1/2) = 0.999 = 99,9 %
Pr(B/E) = Pr(E/B)xPr(B)/(Pr(E/B)xPr(B)+Pr(E/A)xPr(A)) = 1/1000x1/2/(1/1000x1/2+1x1/2) = 0.001 = 0.1 %
Il y a un «glissement bayésien» en faveur de l’hypothèse d’une fin proche de l’humanité. Un tel glissement a lieu
même si plus de deux théories sont en compétition et se produit quelles que soient les hypothèses numériques formu-lées. La fin de l’humanité serait donc plus proche que ce que l’on peut croire en se fiant uniquement aux risques évalués scientifiquement.
Raisonnement très troublant !!!
Saurez vous résoudre ce paradoxe qui a été posé par le philosophe Leslie et l'astrophysicien Brandon Carter ?
Attention nuits blanches en perspective ;-)
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum
|
|