Cherche machine de guerre

[quote=“Freudinou, post:940432”]Concernant Piou, piou, ce n’est pas la priorité, un pc moderne fait l’affaire, surtout qu’après il faut 3 jours pour comprendre ses calculs et 1 mois pour les apprendre. ;)[/quote]this, tellement vrai :laugh:

Pas dégueux les écrans sinon, surtout le Asus 34" panoramique, ça a un peu réveillé le geek qui sommeille en moi dis donc^^

Ah j’avais oublié désolé, bien entendu j’offre 1h de coaching à tous ceux qui ont participé au thread ! Bon par contre Cami, Boobi et skillou, niveau poker ça va être dur mais si je peux rendre service, n’hésitez pas. Par exemple coaching séduction, coaching blagues, coaching échecs (là je suis sérieux), etc. Après si vous avez des suggestions, je suis toute ouïe :wink:

[quote=“Freudinou, post:939657”]Bonjour la communauté !

Bon alors je cherche une config “Warrior of steal” pour un projet. Il faudrait un pc capable de gérer une base de données de 50 M de mains =Any database over 10 million hands (=45 GB in size) is already too big, risking either database corruption (because PostgreSQL can’t handle running queries on so many hands) or performance/lagging issues in HM2, because PostgreSQL needs to retrieve information from a 45 GB database. [quote]Any database over 10 million hands (=45 GB in size) is already too big, risking either database corruption (because PostgreSQL can’t handle running queries on so many hands) or performance/lagging issues in HM2, because PostgreSQL needs to retrieve information from a 45 GB database. [/quote]environs ainsi qu’un écran 52 pouces et un normal =>[quote]quels sont les ports sur les écrans ? si tu as du display port sur les 2 - une gtx1060 sera très bien (compte un peu moins de 300 euros)[/quote], les écrans sont déjà achetés. Avant de lancer l’achat, j’aimerais aussi savoir si l’un d’entre vous pourrait m’indiquer si HM2 ou PT4 sont capables de gérer un tel volume de database dans des délais décents.
=> [quote]là sans hésiter, la réponse est non !! snif un peu le forum HM et ils sont clair sur le sujet, au dela de 10M de mains, ils préconisent le split de BDD - après tu peux selon ton besoin utiliser un autre outil que HM2 ou PT4 pour traiter la BDD dans postgresql, générer un nouveau fichier avec les mains qui t’intéressent et ensuite réimporter dans une bDD toute neuve, toute fraiche[/quote]

Si la config gagnante se trouve ici, je me ferai un plaisir d’offrir une heure de coaching ou une photo dédicacée, au choix. :wink:

Merci à vous.[/quote]

salut,
très honnêtement une base de données de ce volume sera une très grosse source d’ennuis - la lenteur de traitement étant presque annexe.
les risques de corruptions de datas sont trop importante.

pour les besoins d’une config pour ce type d’usage, il te faut beaucoup de RAM (16Go étant presque une évidence - voir plus - et un disque SSD voir un RAID SSD est à privilégier (2 disques qui se partagent (mode RAID 0 (ou strip pour les puristes)- soit 2 disques qui sont en “parallèles” et sur lesquels sont écrits parti des données en simultannée => 100 Mo = 50 Mo sur chacun, ce qui quand on prend en compte que les IO (lecture/écriture) restent le principal goulet d’étranglement dans une machine, apporte un gain significatif.

donc :

1 - mémoire + disque(s) rapide(s) SSD et/ou RAID aux petits oignons
2 - si ta BDD est de 50Millions de mains, tu vas avoir une BDD d’une telle taille que le traitement sera trop long
3 - le risque de perte/corruptions de données est réel - ça rame, ça crame ! tu perds tes données.

gl anyway

hey si ça peut aider je t’envoie la config que j’ai
j’avais des besoins assez similaires hormis pour la database
c’est un informaticien à son compte près de chez moi qui me l’a fait :

freudi.png

Merci à vous les gars mais ça y est la bête à été livrée, je vous tiens au courant si ça marche. B)

Tu a enterré Deep blue ou pas ?

++