Dell XPS M1730 (T9300 + SLI de 8800M GTX)

Salut à tous,



Afin de guider ceux qui seraient intéressés par le XPS M1730, je vais vous présenter mon nouveau joujou au fur et à mesure que je le découvre.



Voici tout d’abord la configuration que j’ai commandé :





DELL XPS M1730

INTEL CORE 2 DUO T9300

(2.50GHZ/6MO/800MHZ)

17" WUXGA - 1920X1200

(ÉCRAN BRILLANT)

NVIDIA 8800MGTX SLI 2x512M

4GO RAM (2X2GO) 667MHZ

2x200GO DISQUE 7200 TPM

WEBCAM INTÉGRÉE 2MP

GRAVEUR DVD +/-RW 8X

WIFI AGN / BLUETOOTH

CARTE AGEIA PHYSX

BATTERIE 9 CELLULES

AUTONOMIE : 2H30

VISTA PREMIUM AVEC DVD

COULEUR : ROUGE

4 ANS SITE J+1

4.9KG

Livraison incluse dans le prix



Options :

  • TUNER TV TNT EXPRESS CARD AVERMEDIA AVERTV HYBRID NANO EXPRESS

    ATTENTION, INCOMPATIBLE AVEC UBUNTU
  • CARTE SON INTÉGRÉE SOUND BLASTER

    AUDIGY ADVANCED HD AUDIO (qui n’est pas une carte son mais un simple DSP logiciel : Gare à l’arnaque !)
  • BATTERIE SECONDAIRE 9 CELLULES



    En plus :
  • Zalman NC 2000B, pour refroidir la bête !





    -----





    PREMIERES IMPRESSIONS :



    Le temps d’attente (6 semaines après démarrage de la production) fut long, mais la livraison fut rapide et sans souci une fois le PC expédié.



    Au déballage la machine est superbe, et la couleur rouge-pourpre de l’éclairage n’a rien d’hideuse, même si ça fait un peu jacky BBR avec le rétro éclairage blanc du clavier et les lumières bleues de statut.





    IMPRESSIONS APRES 6 MOIS ET RECOMMANDATIONS :



    Le XPS M1730 est une machine robuste, très agréable à utiliser (clavier sensas, écran de qualité) parfaitement adaptée aux jeux (SLI de 8800 GTX (G92) équivalent SLI 9800 GT (G92 également), ce en 65nm). La relative ancienneté de la plate-forme Santa-Rosa Refresh ne doit pas évincer ses performances qui restent encore de premier plan, malgré l’impossibilité de passer au Quad-Core, et le manque d’un port eSata. Je ne regrette donc pas mon achat. L’offre op-rentrée étudiants ayant pour beaucoup conditionné mon achat (prix canon, 4 ans de garantie sur site J+1).



    Cela dit, je ne le conseillerais plus vraiment maintenant, car pour le même prix un asus W90 18.4" et son Crossfire de Radeons 4870 seront peut-être plus pérennes. Cela dit, si vous cherchez un P4G robuste et qu’il est de nouveau disponible à prix encore plus cassé via offre op-rentrée 2009, pourquoi pas !





    PHOTOS :



    A venir, peut-être…





    BIEN :



    +1 pour l’aspect solide et classieux du chassis. Ok c’est pas du plastique velouté au toucher velour, mais ça fleure bon la rigidité et donc la solidité sur le long terme. Celà dit le revêtement est assez salissant. (mes petits doigts… ^^)

    Edit : 6 mois plus tard le joujou a toujours l’air neuf, comme sorti de la boite. De bons matériaux donc !



    +1 pour la bonne réactivité du système et les faibles temps de chargement. Ca me change le T9300, même si certains s’en plaignent déjà… Le sous système disque raid 2x200go 7200rpm est vraiment rapide.



    +3 pour la puissance graphique ! Une fois le SLI maitrisé, je n’ai jamais été pris en défaut dans un des jeux que j’utilise, qui ne sont pas de la toute dernière génération il est vrai ! Tout tourne en 1920x1200x32 High à 60 FPS mini !



    +2 pour l’écran, qui est suffisamment lumineux pour rendre peu sensible les reflets du glossy de la dalle, qui est au demeurant plutôt réactive, aucune rémanence ne s’étant faite remarquée dans les jeux, bien que je ne sois pas un accro de FPS !



    +1 pour le rescaling correct au changement de résolution, l’image prenant tout la dalle, ni plus ni moins, dans toutes les résolutions testées. Par contre, rescaling oblige, la netteté laisse à désirer.



    +1 pour le touchpad qui est réactif, meilleur que sur mon Inspiron 8600 qui était assez peu précis.



    +3 pour le clavier, car les touches sont larges, et la frappe est douce et précise, et c’est tout simplement le meilleur clavier notebook que j’ai eu l’occasion de tester. Tellement douce que cay déroutant, tellement déroutant que je tape mon feedback rien que pour le plaisir de taper, ou presque… :smiley:



    +1 pour le tuner TNT Avermedia livré, qui est de bonne facture. Aucun souci pour le faire fonctionner avec Windows Media Center. L’image est nickelle, le time-shifting fonctionne à merveille, bref, je ne regrette pas d’avoir choisi l’option. La petite antenne est sympa, et s’installe sans souci n’importe ou dans la pièce, même si il faut prendre quand même garde au placement pour capter un max de chaines. Me reste à tester la TNT HD.



    +1 pour le Gamepanel Logitech intégré (le petit écran LCD au dessus du pavé numérique). Pratique pour afficher le monitoring des fréquences, températures et FPS, ou simplement l’heure, ce en jouant !



    +1 pour l’image de la webcam qui est tout à fait correcte niveau définition, colorimétrie, et fluidité.





    PAS BIEN :



    -1 pour les hauts parleurs, d’assez médiocre qualité pour un high-end notebook 17"



    -1 pour la fameuse carte son Audigy, dont j’ai découvert après achat qu’elle se résumait à un CD de drivers spéciaux…

    Edit : Néanmoins le DSP Creative Advanced MB est plutôt bien pensé pour avoir un son correct avec les HP embarqués, et même améliorer celui sortant de ma chaine Hifi… Néanmoins l’EAX est une blague, car je n’arrive pas à le sélectionner dans Warcraft 3… Donc Audigy mon cul ! Je me tate d’appeler Dell…



    -1 pour la sortie électrique des ports USB, qui n’alimentent pas suffisament bien pour faire tourner mon disque 2.5 pouces externe… Mon Inspiron y arrivait très bien. :frowning:

    [i]Edit : Après installation des drivers Intel pour la mobo et le raid matrix, tout est presque rentré dans l’ordre. Au lieu d’essayer de bourriner à 30mo/sec sur les disques externes, maintenant les transferts se font à 15-20mo/sec et je n’ai quasiment plus d’interruption (une seule en début de test), y compris avec trois disques 2.5" connectés et transférant simultanément, même si il faut réduire à deux disques pour une fiabilité sans faille. En effet, notebook oblige, l’ensemble des ports USB disposent d’une tension cumulée de sortie assez faible.

    Edit 2 : Quand le kick NVIDIA (la ventilation qui démarre quand la sonde de température des CG detecte 75°C ou plus) s’actionne, les disques durs externes ont également quelques problèmes de sous alimentation.



    -1 pour les programmes inutiles, même si ça reste somme toute correcte, comparé à ce que j’ai pu voir sur du packard bell, ou le PC était déjà rempli de trashware au démarrage.



    -3 pour l’organisation des partitions sur le RAID :
  • 100 mo de partition cachée (Pas de prob, je la garde)
  • 10 go de partition recovery à la suite (Totalement idiot en début de disque)
  • 360 go de partition OS Vista (…)
  • 2.5 go de Dell Media Center (Inutile pour moi, et m’empêche de stocker programmes et documents sur partition séparée)
  • Bref, tout à refaire… J’ai fait un système 25go (Vista) 15go (XP ou Linux plus tard) 330go (Programmes et documents) A noter : Limite de 4 partitions sur mon raid, la petite de 100mo Dell Utilities incluse.



    -2 toujours pour le RAID, qui me fait parfois des erreurs/m’occasionne des freeze système. J’ai du mal à cerner pourquoi…

    Edit : Après 6 mois d’utilisation, j’ai fait sauté le mode RAID, qui est peu fiable sur le XPS M1730. Tout est rentré dans l’ordre.



    -2 Pour l’obscurité du SLI et de l’overclocking des 8800 GTX. J’ai bien du mal à trouver un bon couple drivers/tweakers…

    Edit : L’overclocking ne fonctionne qu’avec Ntune, monitoring à l’appui avec RivaTuner et GPU-Z. J’ai passé mon SLI en 600/1500/900. Ne cherchez pas à overclocker votre XPS M1730 avec RivaTuner, car l’outil d’overclocking (contrairement à celui de monitoring) de ce logiciel ne détecte pas le 4e niveau de fréquence (les fréquences nominales 500/1250/800) des 8800 GTX), mais seulement les trois premiers, ce qui explique les valeurs de 363/767/301 maximales detectées, et rend toute tentative d’overclocking via RivaTuner foireuse par avance.

    Edit 2 : Toutefois problème avec la ventilation des CG (La fonction NVidia Powermizer régulant la fréquence des cartes graphiques ne fonctionnant pas) que je n’arrive pas à régler, ni dans nTune, ni dans Rivatuner. Ca me cause des problèmes de chauffe en 2D (75° max) alors qu’en 3D je dépasse pas 60, les cartes étant ventilées en mode 3D. -_-


    Edit 3 : A partir des FW 185.85 Mobiles WHQL (et 185.81 Mobiles Béta selon le témoignage d’un autre membre du forum P4G), Powermizer fonctionne de nouveau correctement. Nous somme désormais presque en été et mes CG sont à 50-60°C max sous Windows en mode 2D, les fréquences (et la ventilation ?) étant désormais correctement contrôlées. j’incite donc vivement tous les possesseurs de M1730 à passer à ces drivers. En revanche, le nTune contenu dans les nVidia System Tools 6.03 ne fonctionne plus correctement avec ces drivers, et enregistre des fréquences complètement fantaisistes (et extrêmes !) quand on essaie d’overclocker les C.G… Donc tout est question de choix !



    -1 pour la télécommande express-card Dell qui ne m’a réserve aucune bonne surprise. Assez tatillonne, et sensibilité aléatoire du récepteur et des touches.





    TEMPERATURES (avec Zalman NC2000 tournant à bloc) :



    A 22°c de température ambiante, activité bureautique, C.G en mode standard 2D (200/400/100) :



    CPU : 35-40°C pour chaque core.

    GPUs : 50-60°C, ventilation GPU off.

    HDD : 40°C





    A 24°c de température ambiante, 3DMark Vantage, C.G en mode nominal (o/c) (650/1550/1000@1.00V) :



    CPU : 45-50°C pour chaque core.

    GPUs : 70-82°C environs pendant le benchmark.

    HDD : 40°C





    A 24°c de température ambiante, 3DMark Vantage, C.G en mode nominal (o/c) (660/1650/1044@1.00V) :



    CPU : 45-50°C pour chaque core.

    GPUs : 71-84°C environs pendant le benchmark.

    HDD : 40°C





    A 28°c de température ambiante, BOINC (calcul distribué) tournant sur les 2 cores du CPU et une 8800M GTX (@620/1550/1000@1.00V), activité disque soutenue sur l’un des deux disques durs internes :



    CPU : 52-55°C pour chaque core.

    GPU : 68-75°C

    HDD : 48°C





    A 24°c de température ambiante, BOINC (calcul distribué) tournant sur les 2 cores du CPU et les 2 8800M GTX (@620/1550/1000@1.00V), activité disque soutenue sur l’un des deux disques durs internes :



    CPU : 57-60°C pour chaque core.

    GPUs : 75-80°C

    HDD : 47°C





    FurMark Stress Test mode intensif en 1920 1200 No AA @660/1650/1044 mhz : GPUs à 93° au bout de 10 minutes, 94 au bout de 20, pas d’artefacts ni de crash ! :slight_smile:





    OVERCLOCKING :



    Le potentiel d’overclocking des 8800 GTX semble très important (cf. tests effectués par des overclockers et publiés sur mvktech.net ci dessous), bien qu’elles soient gravées en 65 nm (G92), contre 55 pour les nouvelles révisions G92b (260m et 280m GTX) et que cela varie bien entendu selon la qualité de la série de puce utilisée dans tel ou tel laptop !



    Leurs fréquences nominales d’origine sont de 500 mhz (GPU) ; 1250 mhz (Shaders du GPU) ; 800 mhz x 2 (Mémoire DDR), ce à une tension d’origine de 1.00V à ces fréquences.



    En raison de l’incompatibilité de RivaTuner avec le SLI de 8800M GTX du XPS M1730 (voir plus haut), et désormais de nTune avec les drivers 185.85 et supérieurs, j’ai donc décidé de m’intéresser à Nibitor (v.5) et nVflash (v5.72), logiciels qui permettent d’éditer et de flasher le vBIOS des 8800, ce qui est désormais la seule solution viable à ma connaissance.



    Merci au passage à MarcParis pour son petit tuto qui m’a orienté vers ces logiciels : http://portables4gamers.com/forum/viewtopic.php?id=458&p=2 (voir post #37)



    Voici les étapes qui diffèrent vraiment pour le SLI de 8800M GTX, le reste du tutorial étant à suivre sur le post de MarcParis et bien entendu à accorder au pluriel ! :smiley: :





    3- Sauvegarder la version actuelle de notre video bios (vbios)



    ----->Pour NVFlash, décompresser le contenu du zip téléchargé sur la clé USB directement

    ----->Rebooter sur votre cle usb système et taper les commandes suivante, sans les guillemets :

    “nvflash -b -i0 nombios1.rom”

    "nvflash -b -i1 nombios2.rom"


    Ce qui aura pour effet de sauvegarder vos vBIOS ORIGINAUX sur la clé usb, sous les nom de “origin1.rom” et “origin2.rom” (bien sûr il est possible de spécifier les noms que vous voulez, en 8 lettres maximum !)



    Il est ABSOLUMENT impératif de garder ces vBIOS d’origine et les sauvegarder en lieu sûr ! En cas de souci, et surtout de retour au SAV du portable pour n’importe quel problème, mieux vaut reflasher les 8800M GTX avec les vBIOS d’origine pour éviter de se faire gauler et de perdre sa garantie !



    Ensuite, une fois les vBIOS d’origine copiés en lieux sûr, on va les modifier avec nVflash ! (voir étape 4)





    NB : A ce sujet, une règle importante selon moi : Il faut de préférence appliquer strictement les mêmes réglages aux deux vBIOS modifiés : Même fréquences ; Même tensions ; Et mêmes timing mémoires si vous vous amusez à les modifier, ce que je déconseille FORTEMENT !





    5- Préparer ses fichiers .bat



    ----->Nous allons utiliser pour cela des fichiers .bat pour lancer la commande. Ceci est beaucoup plus pratique que taper toujours la même commande.

    ----->Créer deux nouveaux document.txt et renommer le origin1.bat et origin2.bat (confirmer le changement d’extension) histoire de les repérer

    ----->Clic droit sur chacun d’entre eux et faire modifier.

    ----->Un editeur de texte s’ouvre et copier/coller une des 2 commandes suivantes dans chacun des fichier, sans les guillemets :

    “nvflash -5 -6 origin1.rom”

    “nvflasg -5 -6 origin2.rom”


    ----->Sauvegarder, quitter, et copier les sur la clé usb. Les fichier de restauration sont prêts ! Sauvegardez les avec les copies de vos vBIOS d’origine !



    ----->Refaire la même manipulation pour les fichiers de flash vBIOS overclockés que vous avez édité avec NiBiTor (par exemple B0600V00.rom et B1600V00.rom (Ma nomenclature étant la suivante : B x (bios) xxx (fréquence) Vxx ( décimales de la tension)). Bien sûr, essayer de normaliser les noms des fichiers .bat avec le même nom que le fichier de flash OC que vous allez utiliser, par exemple B0600V00.bat et B1600V00.bat avec dans chacun d’entre eux une des 2 commandes suivantes, sans les guillemets :

    “nvflash -5 -6 B0600V00.rom”

    "nvflash -5 -6 B1600V00.rom"






    6- Flasher ses vbios !!!



    ----->Rebooter sur votre cle usb

    ----->taper le nom du fichier.bat pour le premier vBIOS : par exemple B0600V00.bat.

    ----->A cet instant, le flashage va s’initialiser…et si tout se passe bien nvflash vous demandera de confirmer le flashage en appuyant sur “y”

    ----->une fois “y” appuyée, un BIP retenti et les LEDs clignotent alternativement…et le flashage de vbios commence!! Il s’arrête une fois que tout est fait et vous avertit avec un autre BIP…et l’invite DOS revient sur C:\



    ----->Répétez la manoeuvre pour le second vBIOS : par exemple B1600V00.bat



    ----->BRAVO vous venez de flasher vos BIOS de carte graphique ! Maintenant il faut tester leurs stabilité…étape la plus longue !! (voir étape 7)





    Encore merci à MarcParis !





    -----------





    Mes tests d’overclocking stables via Nibitor/nVflash (tension/fréquences) :


  • 1.00V : (tension d’origine) : 600/1500/950 mhz (contre 500/1250/800 mhz d’origine).







    3DMark Vantage : 10878


  • 1.00V : (tension d’origine) : 650/1550/1000 mhz (contre 500/1250/800 mhz d’origine).







    3DMark Vantage : 11375


  • 1.00V : (tension d’origine) : 660/1650/1044 mhz (contre 500/1250/800 mhz d’origine).







    3DMark Vantage : 11774



    Je tenterais bientôt des tests plus poussés, sans modifier puis en modifiant les tensions, benchs à l’appuis, surtout qu’il semble que mes 8800, ainsi que leurs puces RAM proviennent d’une série particulièrement adaptées à l’o/c ! :smiley:





    Les tests d’overclocking du SLI de 8800M GTX du XPS M1730 via flashage du bios observés sur le forum mvktech.net à titre d’exemple (tensions fréquences) :
  • 1.00V : 640/2088/1600 - 650/2040/xxxx
  • 1.05V : 700/2088/1750
  • 1.10V : 725/2088/1812 - 740/1900/1850 - 700/2120/xxxx
  • 1.15V : 790/2066/xxxx



    Bien entendu, ces données sont présentées à titre d’infos, et dépasser 1.05V ou les fréquences d’un G92 desktop (600/1500/950) reste risqué pour votre matériel !





    BENCHS :



    Tous les benchs sont fait avec les 2 cartes du SLI de 8800 GTX activées, sauf mention contraire.



    Les premiers sont simplement faits en regardant FRAPS dans le GamePanel, donc ça s’arrête à 60 FPS, soit la fréquence de rafraichissement de l’écran du XPS.



    Vista Indice : 5.1 (5.4 , 5.1 , 5.9 , 5.9 , 5.9) Comme attendu, la RAM et dans une moindre mesure le CPU sont les facteurs limitants.



    3D Mark 2006 1.1 : Un piteux 11456 points en 1280x1024 (No o/c et FW 167.55 d’origine). Et le soft ne me detecte pas mon SLI, même si le score est trop gros pour une simple C.G mono GPU… :frowning:

    Edit : j’atteinds maintenant les 12000, avec drivers plus récents (FW 175.xx) et o/c des GPUs @650/1550/950.

    Edit 2 : les drivers des séries 185.8x et 186.0x donnent de moins bons résultats (-3 à 5% à la même résolution et avec le même o/c). Cela n’enlève du reste rien à leur excellence dans tous les autres domaines (autres benchs, jeux, stabilité, bonne gestion powermizer)!



    Warcraft 3 The Frozen Throne 1.22 en1600x1200x32 high : 60 fps en zoom normal, 35-40 en zoom 4000.

    Edit : Le SLI fonctionnant maintenant dessus grâce à une révision du profil W3 des drivers NVIDIA (j’ai pris le profil W3 des 185.20 et je l’ai importé avec l’aide de nHancer sur les 179.48), le jeu bourrine à 60 fps quasiment tout le temps maintenant, ce sans o/c et quelque soit le niveau de zoom (inférieur ou égal à 4000, pas testé au dessus).





    Pro Evolution Soccer 6 en 1920x1200 High : 60 fps



    Pro Evolution Soccer 2008 1.20 en 1920x1200 High : 60 fps



    Pro Evolution Soccer 2009 1.40 en 1920x1200 High : 60 fps





    FurMark et FluidMark : Score (Min fps/Max fps/Average fps)





    FurMark 1.65 1920x1200 NO AA : 3818 (52/84/64)



    FurMark 1.65 1280x1024 NO AA : 5151 (74/114/86)



    FurMark 1.65 640x480 NO AA pour le fun :smiley: : 17546 (259/411/293)



    NB : Pas de test en résolutions personnalisées sous FurMark, car celles-ci grèvent d’office le score final d’environs 2% (test fait en cochant 1280x1024, puis répétant le test en spécifiant cette résolution dans les champs personnalisés).





    FluidMark 1.00 1920x1200 NO AA via SLI 8800 GTX : 4444 (42/304/74)

    FluidMark 1.00 1280x1024 NO AA via SLI 8800 GTX : 4731 (43/453/79)

    FluidMark 1.00 640x480 NO AA via SLI 8800 GTX : 4851 (41/514/82)



    La résolution joue ici peu quand ce sont les C.G qui font le boulot graphics + PhySX : moins de 10 % d’écart entre le 640x480 et le 1920x1200. Néanmoins, on constate une baisse plus sensible en 1920x1200 par rapport au 1280x1024.



    FluidMark 1.00 1920x1200 NO AA via Ageia PhySX 100 : 1597 (10/293/28)

    FluidMark 1.00 1280x1024 NO AA via Ageia PhySX 100 : 1750 (9/385/31)

    FluidMark 1.00 640x480 NO AA via Ageia PhySX 100 : 1836 (9/482/32)



    Idem ici, comme attendu. Le PPU Ageia 100 limite clairement les performances de l’ensemble, disposant de la moitié environs de la puissance brute d’une 8800 GTX en matière de calculs physiques. Mais il ne s’agit que d’un bench, graphiquement peu gourmand. Son utilité peut peut-être se démontrer dans le cadre d’un jeu PhySX extrêmement gourmand graphiquement… Ou pas.



    Le différentiel 1920x1200 / 640x480 est ici de 15%, avec la même inflexion quand on descend en résolution.



    FluidMark 1.00 1920x1200 NO AA via T9300, un seul core étant utilisé sur les 2 : 1046 (5/273/18)

    FluidMark 1.00 1280x1024 NO AA via T9300, un seul core étant utilisé sur les 2 : 1214 (5/362/22)

    FluidMark 1.00 640x4800 NO AA via via T9300, un seul core étant utilisé sur les 2 : 1319 (5/492/23)



    Enfin, on voit le processeur totalement à genoux en calculs physiques, surtout qu’un seul core est employé. Celui-ci disposant visiblement de 50% de la puissance de calcul du PPU Ageia 100 en la matière.



    Le différentiel 1920x1200 / 640x480 est ici de 25%, avec toujours la même inflexion quand on descend en résolution.





    The last remnant :



    SLI@640/1600/1053@1.00V







    TLR@1920x1200 Full Screen : 72.79 FPS



    TLR@1680x1050 FS : 75.23





    -----





    A suivre… Et fin ! xD



    Désolé à tous du manque de MAJ ! J’avais perdu mon mdp, et la vie… Ah, la vie… à repris son court sans P4G jusqu’à ce que je me décide à contacter Eric pour le récupérer. Merci à lui !



    Pour la petite histoire, la seconde 8800, qui servait quand j’utilisais le SLI a commencé à déconner à la fin de l’été 2009, ce qui a rendu ce dernier inutilisable (surchauffe, défauts graphiques, puis finalement plantage). La 8800 principale a suivi au début de l’automne.



    J’ai donc contacté Dell pour une réparation, et après un mois de patience et un petit coup d’éperon envoyé par mail, il se sont décider à enfin me recontacter. Après de petites tractations et un cas pratique juridique, j’ai récupéré via procédure de remplacement de machine le joli m17x que j’ai en signature, qui a quelques menus problèmes de jeunesse (!) au niveau du BIOS (mais que font leurs ingés ???), mais qui me satisfait pleinement, et avec une nouvelle garantie de 4 ans en prime, jusqu’en fin 2013 !



    Je regrette seulement mon petit écran logitech… :arf:



    Bref, maintenant j’ai un m17x évolutif et relativement récent (Quad Core ; eSata ; DDR3), sans puces nVidia au principal (hormis la petit 9400M qui ne me sert pas bcp :vert:), principaux reproche à adresser au m1730, belle machine qui était malheureusement basé sur une déjà ancienne plate-forme Santa Rosa Refresh avec des puces graphiques de séries défectueuses.





    Signature souvenir… XPS M1730 - T9300 - SLI de 8800 GTX 500/1250/800@620/1550/1000 @1.00V - 4go DDR2 800@667 555-15 - 2x200go 7200 RPM No Raid - 17" WUXGA - Windows Vista Premium SP2 - FW 186.03 - 3DM06 : 11875 - 3DVant : 11774

[quote name=GSA]la couleur rouge-pourpre n’a rien d’hideuse, même si ça fait un peu jacky BBR avec le rétro éclairage blanc du clavier et les lumières bleues de statut.[/quote]

LooooooL :lol:


[quote name=GSA]-1 pour la fameuse carte son Audigy, dont j’ai découvert après achat qu’elle se résumait à un CD de drivers spéciaux…[/quote]

Il me semblait qu’il y avait une puce hardware non ?


[quote name=GSA]Une big up à Litchy qui j’espère va vite recevoir son joujou à lui ![/quote]

Merci GSA :wink: Ma commande est passée en expedition aujourd’hui. :smiley:





Merci de nous faire part de tes impressions. Amuses toi bien avec ta bete (heu je parle du pc là :rolleyes:)

La puce Hardware est une Sigmatel, qui ne supporte pas l’EAX matériellement. Bref, la bête puce son de tout XPS M1730.



Courage, ton joujou va arriver aussi ! xD

Sympa ta présentation du XPS :wink:



Pour 3DMark 2006 je ne suis pas étonné de ton score vu qu’il dépend principalement du CPU, je gagne plus de 3000 points avec le X9000. Par contre, je pense que l’écart serait plus faible avec Vantage qui utilisera plus les ressources du SLI des 8800.



Pour ce qui est des ventilos, je suis en contact avec un développeur de CPUID. Pour l’instant il a réussi à afficher la vitesse des ventilos via HardWare Monitor et il essaye de voir s’il est possible de les contrôler et des les forcer à une certaine vitesse.



S’il y a une évolution je te tiens au courant. :slight_smile:

Joli bébête mais SLI 8800GTX la batterie doit bien souffrir :confused: : genre tu passe 30minutes sur crysis et après tu dois brancher sur le secteur :arf: mais bon sinon tu peut toujours le convertir en PC fixe … :cool:

Superbe review, j’ai hâte de voir les photos de la bête et les benchs.

@Seb : Pour les ventilos, en voilà une nouvelle qu’elle est bonne ! Je ne m’étais pas penché sur Hardware Monitor depuis bien longtemps, j’ai manqué quelque chose on dirait ! J’espère que le développeur en question arrivera à notre bonheur ! :smiley:



Edit : J’ai bcp moins d’infos que toi dans mon HWMonitor ! Tu utilises la version payante ?



Quand à 3DMARK 2006 et la faiblesse processeur, l’achat d’un X9000 est déjà budgetté, mais j’attends d’en avoir besoin pour autre chose que les benchs/ou de trouver une offre intéressante (genre moins de 300 euros pour un Q174) !



@FireBourrin : Effectivement, il faut éviter de s’en servir sur batterie, surtout pour jouer, si on veut pas être coupé en plein élan, même si une petite heure de jeu me semble possible. Perso il me sert de PC Fixe qui ne m’envahit pas mon espace, et peut être déplacé easy pour un voyage ou une lan ! :slight_smile:



@solitaire : Merci ! Maintenant que j’ai du temps, je vais d’ailleurs essayer d’étoffer progressivement cette review, avec photos et bench bien sûr, mais aussi en compilant les informations intéressantes que j’ai pu dénicher sur la bête, ici ou ailleurs. :slight_smile:

J’ai une autre version que le développeur m’a passé pour que je la test sur mon laptop. Mais pour modifier les vitesses des ventilos (ou autre chose), il faudra certainement passer à la version payante :wink:

Seb, est-ce que sous le bureau Windows tu descends en mode standard 2D (200/400/100 mhz) ou seulement en mode low 3D (275/550/300 mhz) avec Powermizer quand tu es branché sur secteur ?



Parce que je ne descends qu’en low 3D sous le bureau quand je suis branché sur le secteur et il faut que je passe sur batterie pour passer en standard 2D. J’avais pas fait gaffe avant d’installer nTune, qui du reste fonctionne très mal avec les FW 185.85 et présente un danger pour les C.G du fait qu’il enregistre aléatoirement les fréquences personnalisées, donc je me demande si ce maudit soft n’aurait pas un peu détraqué la config powermizer de mon système. :confused:



Edit : Pour solutionner les troubles, bien causés par nTune sous les FW 185,85, le désinstaller ne suffit pas, en effet. Il faut également désinstaller les drivers, puis nettoyer le registre avec driver sweeper (j’ai utilisé la v.2b2) en mode sans échec, puis réinstaller en mode normal les drivers (j’en ai profité pour passer aux FW 186.03 Mobile WHQL).

Et j’ai de nouveau accès au mode standard 2D quand je suis branché sous le secteur ! :smiley:

Bien joué GSA :wink:



Par contre, je n’avais pas remarqué d’anomalie avec les 185.85 WHQL !? Au contraire, lors du passage aux 186.03 WHQL, j’ai obtenu des bugs sous L4D… Peut être qu’il faut effectivement repasser par un Driver Sweeper lors d’un changement de drivers.

Il prévoit de le mettre jours son XPS avec de nouvelles carte graphique?



Ils ne risquent pas de disparaitres à cause du rachat de Alienware ?

@Seb : Vu qu’on change de série de drivers, je pense qu’il est judicieux de passer par driver sweeper (4 clés registre supprimées dans mon cas). Cela dit, ton problème vient plus probablement d’un bug de la nouvelle série de FW avec ton jeu, la stabilité des FW venant généralement avec l’évolution de leur décimale !



@solitaire : Pour l’évolution, je ne suis pas dans le secret des dieux de Dell, mais le XPS pourrait probablement supporter un SLI de 280M GTX sans broncher… Si Dell évite de délaisser ses XPS gamers plus ou moins “bradés” actuellement sur leur site pour booster AlienWare, comme tu l’évoques…



Cependant ce qui me turlupine c’est les 32 shaders désactivés sur les G92 des séries 8800M GTX par rapport au G92 desktop… Je suis à la recherche d’un softmod/bios permettant de les réactiver (si toutefois cela est possible). Un SLI de 280M GTX (en 65 nm) pour pas un rond… Quel délice ça serait !

Il me semble qu’a partir du 24 juin c’est les soldes… à mon avis ils vont les brader avant l’arrivé des nouveaux modèles …

Tout cela me parait très intéressant, surtout que la réactivation des 32 shaders doit être possible.



Mais ce qui me brancherait encore plus serait le 1 Go de mémoire par carte. Je pense contacter Dell sous peu pour leur demander l’achat d’un SLI de 9800m GTX…

Je pense surtout que cette “réactivation” si elle était possible, serait fatale à la puce. La 8800M GTX n’est pas en 55nm. Elle serait donc accompagnée d’un énorme dégagement de chaleur. Je ne parle même pas de l’alimentation en plus qui faudrait fournir :confused:



Mais bon on ne sait jamais, faites moi savoir en tout cas :slight_smile:

Au pire on peut passer une 8800m GTX en 9800m GTX en activant 16 Shaders, la tempéarture et la conso devrait suivre vue que la 9800m GTX est gravée en 65nm.



Au passage je viens de voir que les 260m GTX sont gravée en 55nm, donc impossible pour NVidia de recycler ces 9800m GTX en 260m GTX… Il y a peut être moyen d’en récupérer pour le M1730 :slight_smile:



@ Yo Eight :

C’est vrai que “logiquement”, la conso et la température devraient diminuer avec une gravure plus fine, mais ça ne s’est pas toujours vérifié dans le passé.

Regarde la 260 GTX de bureau, malgrès un passage en 55nm la température et la conso ont augmenté. Bon, pour la T° ça viendrait du ventirad, mais pour la conso :huh: ???

C’est vrai mais ils en avaient profité pour augmenter les fréquences et d’autres choses que je n’ai plus en tête. De souvenir MarcParis avait un moment une GTX 260+. Avoir si il confirme :slight_smile:

Concernant les steam processors (et non shaders, dsl de la méprise) des 8800M GTX, ils sont présents au vu du nombre de transistors du G92 (754 millions sur toutes les versions), et je n’ai trouvé sur les forums d’o/c et de CG aucune info laissant penser qu’ils sont matériellement désactivés.





Concernant les BIOS des 8800M GTX c’est plus complexe. Plusieurs séries de BIOS existent, en fonction du câblage des 8800M GTX (MXM III ou propriétaire comme chez Dell). Il faut continuer à chercher les infos à ce propos ! :smiley:





Concernant le TDP des 8880M GTX converties, c’est à voir en effet (avec mes connaissances mathématiques d’étudiant en droit ( J’ai validé ma licence hier, youhou !!! :cheers: ) :


  • Du point de vue du système de refroidissement des GPU, celui du XPS M1730 est tout simplement excellent (v. les overclocking stables en jeu réalisés par un utilisateur du forum mvknet ci dessus, ce en 1.10 et 1.15V). Une augmentation stable de 55+% de la fréquence du GPU, de 45% des shaders, de 30+% de la mémoire et de 15% de la tension GPU (et donc de la dissipation thermique du GPU en sus de l’augmentation due aux fréquences…) est possible sur les meilleures séries en 65 nm.


  • Donc, et en utilisant la formule de Matrix pour calculer la dissipation thermique indicielle de cet overclocking par rapport à celui des GPU aux fréquences d’origines (indice 100), sachant qu’on arrondira à 50% l’augmentation de la fréquence moyenne GPU/Shaders (55 et 45), on obtient :


  1. Formule de Matrix = Fréquence x Tension² x constante (inutilisée ici car nous utilisons des indices et pas des valeurs absolues, ne connaissant pas la constante exacte ni même approchées des GPU)



    1a) Donc en indiciel pour les GPU : Fréquence d’origine x taux d’augmentation de la fréquence x tension²

    x = (1 x 1.5) x 1.15 ; x = 1.5 x 1.3225 ; x = 1.98375 que nous arrondirons à 2, soit une dissipation termique double possible pour les GPU.



    1b) Et pour la RAM dont je ne connais pas la tension (la flème de démonter maintenant ! :D), ni même si celle-ci s’aligne sur celle du GPU et est modifiée par PowerMizer, on peut néanmoins être certain d’une augmentation d’au moins 30% de sa dissipation thermique… soit un indice de 1.3


  2. Moyenne des deux indices de dégagement thermique pour être modérés, sachant qu’en réalité le GPU dégage bien plus de chaleur que les puces de GDDR3 : (2 + 1.3) /2 = 1.65


  • Nous voyions donc que le système de refroidissement des GPU du XPS M1730 peut dissiper au moins 65% de chaleur en plus de ce qu’il dissipe quand les GPU et la RAM ne sont pas overclockés, et le double si l’on ne prend en considération que le dégagement thermique supplémentaire possible pour les GPU.


  • Or, une augmention de 33% du nombre de steam processors actifs (96 => 128) n’augmenterait que de 33% la chaleur dégagée par les GPU, corrige moi Yo Eight si je me trompe.


  • Donc cela reste possible de passer les 8800M GTX en 280M GTX sans problème ni risque pour les puces, si les celles-ci ne sont pas défectueuses. Le système de refroidissement des GPU n’est selon moi pas limitant.





    Enfin, concernant le passage de 512mo à 1go, c’est intéressant pour jouer aux derniers jeux en 1920x1200 au moins, et avec les filtres, non ? Les G92 justifient-ils une telle débauche de mémoire ?

J’ai juste une question comment ferait tu l’augmentation de 512 MO à 1GO et évidement l’augmentation des steam processors ??? :bigeyes:



Oui mais le SLI de 1GO tu es obligé de l’acheter chez Dell non ?? :huh:

@Predator : En achetant un SLI de cartes dotées de 1go de RAM chacune ! :smiley:



Quand aux steam processors, on se pose la question justement, notamment en matière d’upgrade de BIOS. (voir posts à partir de aujourd’hui 0:55)