Dis papa... c'est quand le long terme?

Plop

On entend beaucoup de choses sur la variance mais il me semble que bon nombre de joueurs la comprenne mal.
On a tous fait l’expérience de la variance, avec des swings plus ou moins long, des périodes de disettes comme des rushes de folie. Les posts/threads sur des bad run sont florissants partout sur le net mais les gens se posent t’ils les bonnes questions ?

Il existe quelques données chiffrées qu’on peut aborder/étudier de façon empirique et qui vont nous permettre de voir et comprendre si on est tant que ça assujetti à la variance ou si au contraire une bonne part de nos swings (pertes ou gains fluctuants) sont imputables à nos propres tendances.

Le poker est un jeu qui mix allégrement la compétence et la chance. On a tous plus ou moins conscience que plus on va jouer de mains moins la chance, le hasard aura un impact prépondérant.

Si n’importe qui peut battre le meilleur joueur du monde sur une main, une session, il en va tout autrement sur la durée et ce qu’on appellera gentiment le long terme.

En parlant du long terme, on en parle tous, on dit tous « 40Kh ce n’est pas assez, repasse quand tu auras 200Kh » mais réellement peut on estimer ce fameux long terme ?

Si on part d’un constat winrate/standard deviation, on peut selon l’intervalle de confiance qu’on souhaite estimer le nombre de main pour « valider » cela et dire qu’enfin on a atteint le long terme.

Pour déterminer le «long terme », on va utiliser plusieurs statistiques donc et faire une petite opération.
Il nous faut le winrate, l’intervalle de confiance qu’on souhaite avoir, la précision souhaitée et la standard déviation.

Wr =winrate
Intervalle = P
D = précision (delta autour du WR théorique -> WR-D<> WR+D)
SD =standard déviation
D est relation du nombre de mains jouées et de la SD.
D=a*SD/sqr(n)

N étant le nombre de main en centaines.

C’est la valeur a qui défini le niveau de confiance, a est donc lié à P. (pour les malades mentaux je vous laisserais chercher sur le net comment on déduit tout ça, ou si Fab12 passe dans le coin :D).

Les correspondances entre a et P :
P =>68% => a=1
P =>76% => a=1.18
P =>95% => a=2
P =>99% => a=3

On se réfère à notre formule : d=a*sd/sqr(n)
Ce qui nous donne si on prend des valeurs exemples de 10bb/100 avec un SDV de 100bb/100.
Disons qu’on souhaite avoir un intervalle de confiance de 95%, on prend donc a=2, et on souhaite une précision de l’ordre de la 1/2bb.

a=2, d=0,5, SD=110
N=a²sd²/d²
N=410000/0,25
N=160000
N=160000
100
N=16000000
**
On atteindra le long terme à 16 millions de mains** !

Si on fait cette simulation pour un joueur de NLHE qui run 4bb/100 et qui a un SDV de 90bb/100, on aura ça :
N=2²*90²/0,5²

On obtient 12,96Millions de mains.

Bien sur si on veut un « indice » de précision moindre on aura besoin de bien moins de mains. Ce qu’il faut comprendre ici c’est que par long terme on sous entend la fiabilité de notre winrate sur la durée.

On voit surtout l’impact de la standard deviation (variance) sur notre théorique de gain/perte dans le jeu sur la durée.
Si on voulait prendre a=1 pour un intervalle de confiance à 68%, on aura des valeurs bien moins grandes, si on reprend l’exemple de 90bb/100 de SDV, cela nous donne.
N=1²*90²/0,5²=1,62Millions de mains

Et si maintenant on veut donner un delta de 1bb/100 au lieu de 1/2
=> N=1²*90²/1²
=> 810Kh

Mais il faut garder en tête l’impact de la SDV. Si on reprend notre premier exemple qui serait plus celui d’un joueur de PLO avec un SDV de 110.
N=1²*110²/1²

=>1.21M de mains.

Et plus on va augmenter notre sdv plus le long terme comme on le « défini » sera long à atteindre.
Plus grand sera notre winrate, moins il sera pénalisant de prendre un delta de précision important.
Avec 18bb/100 de WR, déterminer un d à 2 ne sera pas très grave, par contre pour un winrate de 4 ou 6bb/100 ce sera une proportion juste énorme. Tout cela pour dire que si vous voulez estimer votre long terme, il faut le faire de façon honnête et non pas flatteuse.

Il faut évidemment comprendre comment on “entend” le long terme ici => on cherche à trouver à partir de quel sample de mains on aura une fiabilité sur notre winrate de part des données rationnelles et aborder de façon empirique.

°+°

Ty pour l’article Yeepaa ! :woohoo:

Merci pour l’article que j’ai lu avec attention.
Ca m’a permis de vérifier les résultats de mon simulateur de variance.

J’ai fait quelques modif pour afficher combien de tirage sont en dehors de l’interval de confiance (68% ici):

On voit qu’il y a bien pas loin de 32% de joueur qui sur 810000 auront un winrate à plus de 1BB de leur winrate réel.
Le plus malchanceux est à moins de 1BB/100 et les plus chanceux à plus de 6BB/100.

Sick variance.

ouais putain si t’es le pire de la courbe là faut arrêter le poker. C’est vraiment que tu dois être maudit (pour de vrai :laugh: )

Ty pour l’article Yeepaa :wink:

Sympa l’article.

Au début ça part mal pour le suivre avec des formules imbitables et puis finalement tu vulgarise et zou tout devient clair.

BRAVO :slight_smile:

[quote=« fab12 » post=768930]Merci pour l’article que j’ai lu avec attention.
Ca m’a permis de vérifier les résultats de mon simulateur de variance.

J’ai fait quelques modif pour afficher combien de tirage sont en dehors de l’interval de confiance (68% ici):

On voit qu’il y a bien pas loin de 32% de joueur qui sur 810000 auront un winrate à plus de 1BB de leur winrate réel.
Le plus malchanceux est à moins de 1BB/100 et les plus chanceux à plus de 6BB/100.

Sick variance.[/quote]

Fab12, on voit pas ta courbe, tes gamins ont du colorier dessus :wink:

Super intéressant Yeepaa…

Ça va prendre une vie au complet avant d’arriver à un tel nombre de mains :wink:

Héhé j’étais passé au travers mais super article! Effectivement le long terme… c’est très long!!!

TY pour le post !

Au passage, si quelqu’un cherche un simulateur de variance, il y a ce site : http://pokerdope.com/ :slight_smile:

Voici un autre calculateur de variance tres sympa avec graphiques et simulations de RISK OF RUIN, très parlant et simple d’utilisation.

http://www.pokerolymp.com/articles/show/keine/13048/variance-calculator#.VELGIvmsXtt

L’arjel rappelle qu’il est interdit de cliquer sur des pubs bizarres.com!

Je rappelle le calculateur à {fab12} et son excellent site:

Pas encore de risque of ruins il me semble.

:bye3:

ps: en 2008 on appelait ça un simulateur de chatte sur le forum, apparemment le terme a pas éré retenu pour le vocabulaire normalisé au poker!

Salut Yeepa.

Comment qualifierai tu mathématiquement la qualité d’un sample de 100kH? de 300kH? de 10kH?

j’imagine qu’il faut partir de « conditions de jeu standard ».

J’ai parlé d’un méthode permettant d’améliorer la qualité des samples dans un autre thread (traitement à part des données visiblement hors clous par rapport à l’ensemble, identification d’eventuelles causes spéciales). J’y reviendrais quand j’aurais retrouvé ça.

J’ai déjà constaté en tant que joueur qu’un échantillon de 100kh laisse deviner une capabilité instantanée, mais que c’est loin d’etre suffisant pour évaluer un winrate « moyen terme ». Je précise que bien enervé je peux faire cette quantité de mains sur un mois.

Sinon on a un graphe en train de se constituer sous nos yeux, de semaine en semaine…

Merci d’avance!

fabien

[quote=“Fabien_G, post:762297”][quote=“batmax, post:761020”]

Tu as dit

  1. ça m’étonne davantage encore que tu cherches par exemple à comparer PS et PMU alors qu’on a 9kh chez PMU.

  2. ça ressemble un peu à du vent. Si je découpais mes graphs par tranche de 10kh, on verrait des choses assez hallucinantes parfois, des choses cocasses régulièrement, mais à mon avis rien qui me permette d’affirmer que j’ai mieux joué sur cette tranche plutôt que sur l’autre, ou encore que les tables étaient plus simples ou plus difficiles sur ces 10kh la, etc.

[/quote]

Hello batmax

Ca me parait interessant de revenir sur la façon de gérer des samples de mains à priori trop petits pour etre analysés en bonne et due forme.

  1. il me semble que j’ai juste evoqué le graphe PMU pour dire vite fait gg. Je voulais surtout comprendre pourquoi val affichait à l’arrivée un winrate de 20bb/100h sur un graphe de 30kh, alors que normalement cette taille de sample est un minimum représentative de quelque chose.

En general à 30kh y’a des choses qui convergent, on le voit bien quand on compare la courbe overall avec les courbes hebdomadaires: les courbes hebdomadaires c’est un peu nimp, la courbe overall ca prend forme et on voit des tendances. Comme je l’ai dit dans ma reponse a val, avec 30kh ce qu’on voit c’est plus une photo à l’instant t , potentiellement floue voir ratée, mais qui mérite d’etre analysée.

  1. Ma philosophie (no gu) est qu’on peut analyser n’importe quel sample sous reserve de faire gaffe. Je suis toujours surpris de la façon dont les petits samples portent en eux les tendances generales si on arrive à les faire parler.

Il me semble que les sondages a l’occasion des elections se basent sur des samples de 2000 personnes pour la france entiere, pas plus. Ca suffit pour que la tendance generale converge. Par contre ils sont passé completement a coté du passage du FN au second tout je sais plus quel année: les petits samples ont cet inconvegnent qu’ils peuvent soit passer à coter d’un phenomène marginal et faire comme si il existait pas, soit au contraire l’accentuer par hasard.

Bien avoir a l’esprit également qu’un petit sample mesure une tendance instantanée: par exemple on peut arriver a jouer notre A game pendant 30kh en etant bien discipliné sur une periode de un mois, jamais on va reussir a faire ça sur une année complete. C’est la diff entre un winrate “instantané” et un winrate réel.

En entreprise on cherche à separer des “causes speciales” et des “causes ordinaires”. Les causes ordinaires sont sensées produire des graphes “reguliers, lisses” et des courbes de gauss, les cause speciales vont produire nimporte quoi. Si on arrive a traiter les données pour dissocier les deux on peut deja y voir bcp plus clair. C’est un peu ce que j’ai fait mettant le sample PMU de coté: comme tu dis ce sample la veut pas dire grand chose (faut pas exagerer non plus encore une fois, on peut dire au moins en voyant ça que la probabilité que val soit gagnant dans l’absolu est superieure à l’inverse)

causesspeciales.png

Tu vas voir que j’ai pas fait assez gaffe, mais mon but était surtout de comprendre pourquoi à l’arrivée valvegas affichait un winrate astronomique comme ça. Je reviens à la suite sur la courbe de val.[/quote]

rque 2: la présence des blue/redline modifie l’echelle du graphe et “ecrase” la courbe de gain à Val. Si on regarde pas attentivement on peut à tort voir une courbe “even” après le tronçon n°1.

Rque 2: en fabrication l’ennemi principal est la dispersion des résultats. Quand on est “sharp”, repetable,… on arrive en général à “centrer” les process comme on veut. Il y a des adaptations à faire par rapport au SPC (statistical process control) pour le poker, mais la méthodologie est sans doute transposable à l’analyse des courbes de gain.

Merci Yepaa pour ce post très bien expliquer !

Merci pour ces explications

Je pense que notre tendance ou le fait de changer de limite. Impliquent de toute manière un badrun qui fonctionnera comme un cercle vicieux pendant quelques temps.

Je suis d’accord avec ça d’ailleurs, dans “Le mental au poker” de Jared Tendler, il est question de l’émotion qu’elle soit positive ou négative qui va influencer notre résultat. Il y a des joueurs qui s’écartent de leur A-game, selon lui, lorsqu’ils gagnent car ils sont débordés par une émotion positive.

pas mal ton article

le long terme c’est la life!! :laugh: :S :S