Une application peut-elle casser la carte graphique?

15

Note rapide: Je sais que c'est un site de questions-réponses sur le développement de jeux , mais je suppose que vous connaissez et avez surtout de l'expérience avec les cartes graphiques, je vous adresse donc cette question. Si vous pensez que c'est complètement hors sujet, veuillez me référer à un site / forum approprié. Edit: En fait, cela est lié à gamedev: si un mauvais code peut entraîner une surchauffe ou une rupture de la carte, les développeurs de jeux doivent en être conscients et s'assurer que leurs applications ne le font pas.

Cela peut sembler une question étrange ou stupide, mais est-il réellement possible d'écrire une telle application de rendu graphique qui peut casser la carte graphique (de quelque manière que ce soit)?

La raison immédiate qui m'a fait poser cette question était (sans surprise) ma propre carte graphique cassée. Après l'avoir réparé, le militaire a déclaré qu'il avait testé diverses applications (jeux) et que cela fonctionnait bien. Mais lorsque j'ai lancé ma propre application (démonstration d'ombrage différé), elle l'a chauffée à plus de 100 degrés Celsius. Donc, ma carte ne s'est pas révélée être réparée après tout, mais ce qui est important ici, c'est que le problème ne semble se produire que lorsque j'exécute ma propre application.

J'ai joué à divers jeux exigeants en GPU (comme Crysis) et je l'ai souvent poussé à la limite et plus encore (avec des réglages si élevés que les jeux tournaient à 5 FPS), ainsi que des repères ... J'ai donc donné ma carte, à plusieurs reprises, tellement de charge de travail qu'elle ne pouvait pas rattraper (donc faible FPS) mais elle n'a jamais atteint des températures dangereuses. Mais ma propre application a réussi à y parvenir (au moins lorsque la v-sync était désactivée). : P Comme ce n'était que ma propre application, je ne pense pas qu'un mauvais système de refroidissement soit le coupable.

Je demande donc - pensez-vous (ou savez-vous peut-être) s'il est possible de casser la carte graphique (de quelque manière que ce soit, pas seulement en surchauffant) par un code vicieux?

Mise à jour:

Joe Swindell a déclaré que la surchauffe peut être le problème (eh bien, cela peut certainement casser la carte). Mais un système de refroidissement approprié ne devrait-il pas empêcher cela (en aucun cas)?

Boreal a signalé un autre problème. Si je comprends bien, FPS est lié à la fois au CPU et au GPU (est-ce vrai?). Un FPS si faible peut signaler une charge CPU élevée ou une charge GPU élevée. Mais encore une fois - un système de refroidissement approprié ne devrait-il pas empêcher le GPU de surchauffer même si la carte est "utilisée à 100% tout le temps"?

NPS
la source
La plupart des jeux n'utiliseront pas votre GPU à son plein potentiel - ils seront à bien des égards liés au processeur. Cependant, votre propre application peut ne rien faire du côté du processeur, ce qui entraînera une utilisation beaucoup plus élevée du GPU. En termes simples, les GPU ne sont pas destinés à être utilisés à 100% tout le temps. C'est pourquoi vous ne voulez pas acheter un GPU d'occasion en ce moment - il a probablement été utilisé pour l'exploitation de Bitcoin.
jmegaffin
6
@Boreal Je suis fortement en désaccord avec cela. Si vous achetez un GPU auprès d'un fabricant de cartes de qualité, il est conçu pour être utilisé à 100% tout le temps, et les vitesses de refroidissement et d'horloge ont été définies pour garantir sa stabilité dans ces conditions. Maintenant, si vous avez un dissipateur thermique de rechange qui n'est pas installé correctement, ou si vous overclockez la carte à un niveau dangereux, c'est une autre histoire.
Nathan Reed
"Mais un système de refroidissement approprié ne devrait-il pas empêcher cela (en aucun cas)?" - dites que les ventilateurs, les dissipateurs thermiques et les gaz d'échappement de votre GPU sont recouverts de poussière parce que vous n'avez pas pris soin de votre ordinateur. Ensuite, il peut définitivement surchauffer et se casser, même avec des pièces haut de gamme. J'espère qu'il détectera la chaleur et s'arrêtera et redémarrera avant qu'il ne soit endommagé, mais vous ne voulez vraiment pas parier sur cela.
Sean Middleditch
Pour info, l'ordinateur doit s'arrêter en cas de surchauffe dangereuse. Est-il possible que cela soit désactivé sur votre ordinateur?
Richard Tingle
SeanMiddleditch, par «bon», je voulais dire, entre autres, un système de refroidissement propre et pleinement fonctionnel. RichardTingle, je ne l'ai pas désactivé moi-même, au moins. Mais je pensais que ma question était un problème général, ne cherchant pas une solution à mon cas concret.
NPS

Réponses:

32

Ce n'est pas la responsabilité de l'application de s'assurer que le GPU ne surchauffe pas, et ce n'est pas la faute de l'application si elle surchauffe.

Si le GPU n'a pas un refroidissement approprié, alors oui, l'exécution d'une application 3D peut la chauffer à des niveaux dangereux. Je ne sais pas pourquoi votre application le fait et Crysis non, mais cela signifie que la carte a un refroidissement inadéquat et / ou qu'elle a été endommagée (overclocké ou autres paramètres / pilotes d'usine modifiés).

Outre la surchauffe, je ne connais aucune autre manière dont un logiciel pourrait endommager physiquement la puce sur laquelle il fonctionne. Ce n'est vraiment pas censé être possible; ce serait un très grave échec de conception.

Nathan Reed
la source
1
Donc, sur la base de ce que vous avez dit, devrais-je (en tant que programmeur) ne pas me soucier du tout de la charge (et du chauffage) du GPU générée par mon application (tant qu'elle fonctionne correctement)?
NPS
11
@NPS Droite. Vous vous souciez de la charge du GPU dans la mesure où elle affecte la fréquence d'images (et sur les appareils mobiles, la durée de vie de la batterie), mais ce n'est pas votre responsabilité de vous soucier de la façon dont elle affecte la température - c'est pour les pilotes / OS de s'inquiéter. Si une application surchauffe le GPU, elle n'est pas refroidie correctement et / ou il y a un problème avec la mise à l'échelle dynamique des fréquences du pilote.
Nathan Reed
4
+1, c'est le travail de l'utilisateur de s'assurer que son matériel répond aux exigences (et "ne pas fondre pendant le jeu" compte comme une exigence) et le travail du matériel / pilote de faire de son mieux pour protéger la carte contre les dommages. L'application doit (et doit) s'appuyer sur cela, elle ne peut rien faire d'autre.
Thomas
Je veux écrire un manifeste pour l'éthique du fabricant: lorsque vous achetez un morceau de matériel d'une spécification donnée, vous devriez pouvoir accéder à cette spécification dans toutes les conditions énoncées sur l'emballage (0 à 40 degrés C est généralement indiqué). Et ne souffrez pas d'un étranglement thermique stupide, sinon un bon essai devrait démontrer que j'ai été volé mon argent par de fausses déclarations sur le colis.
v.oddou
@NPS "Donc, sur la base de ce que vous avez dit, devrais-je (en tant que programmeur) ne pas me soucier de la quantité de GPU (et du chauffage) générée par mon application (tant qu'elle fonctionne correctement)?" - Oui, vous devez vous soucier de la charge, mais pas de la surchauffe. Assurez-vous simplement que des réglages plus bas génèrent une charge plus faible et donc moins de bruit de refroidissement. Comme je joue parfois sur batterie, je vais voter contre les jeux sur Steam qui brûlent 100% CPU et GPU sans rien faire, et je ne suis pas le seul.
Peter
24

C'est arrivé dans la nature.

Starcraft II en 2010 avait un problème où il y avait un framerate non plafonné sur les écrans de menu plaçant une charge étrange sur les cartes graphiques, détruisant les cartes de certains fournisseurs avec une protection thermique insuffisante.

Les défauts de conception et de fabrication du GPU lui-même peuvent également entraîner le démontage de la carte sous charge. Les GPU mobiles G84 / G86 avaient des joints de soudure qui se sont cassés sous des charges de température acceptables et se sont finalement cassés. Nous avons également le fameux Red Ring of Death de la XBox 360 qui a des problèmes thermiques similaires avec la soudure et l'expansion.

Tous ces éléments sont un mélange de défauts matériels et de conceptions thermiques insuffisantes, amplifiés par la charge logicielle.

Lars Viklund
la source
6
Starcraft était l'exemple auquel j'ai immédiatement pensé avec cela. Bien que sans doute Starcraft ait révélé un bogue avec un certain nombre de cartes graphiques, puis ait fourni une solution de contournement pour ce bogue plutôt que Starcraft ne soit réellement en faute. Pas que quiconque avec une carte détruite se soucie trop de cette distinction
Richard Tingle
1
Il était une fois une génération de moniteurs non intelligents qui pouvaient voir leurs transformateurs flyback détruits par des logiciels qui introduisaient de mauvaises valeurs dans les registres du CRTC. Une troisième raison des échecs à ajouter est que la course à la vitesse a fait que de nombreux fabricants ont coupé les coins ronds, plusieurs fois les cartes n'ont pas été construites suffisamment robustes pour 100%
Patrick Hughes
9

Votre question est beaucoup plus complexe que ce que vous avez écrit. Je dirais que la question générale est "le logiciel peut-il casser le matériel?", Et la réponse à cette question est définitivement oui.

Attention, tous les matériels ne peuvent théoriquement pas être cassés via des commandes logicielles, mais finalement, ce que fait le logiciel est d'envoyer des signaux électriques à des composants matériels très délicats. Habituellement, plus un composant matériel est délicat, plus il est probable qu'il soit endommagé lorsqu'il est manipulé d'une manière qui n'a pas été conçue.

Il existe de nombreuses façons amusantes de casser le matériel, mais considérons simplement la surchauffe: le travail de traitement génère de la chaleur, et cette chaleur doit aller quelque part. En fonction des caractéristiques de dissipation de votre carte, du débit d'air dans le boîtier et de la température globale de la pièce, la quantité de chaleur évacuée du système peut être plus ou moins importante que ce qui est généré par celle-ci.

Si vous demandez à la carte vidéo d'effectuer un travail qui génère plus de chaleur que ce qui peut être efficacement dissipé, la température de la puce augmentera. Si vous le maintenez, la température augmentera au-dessus du niveau de fonctionnement sûr et la puce se brisera, perdra sa fumée magique et provoquera probablement même un risque d'incendie. Vous venez de casser votre carte vidéo, j'espère que vous êtes content.

Maintenant, pouvez- vous écrire un logiciel qui fait cela? Je dirais que non. Tout programme (de niveau utilisateur) que vous écrivez ne parlera pas directement à la carte vidéo. Il existe de nombreuses protections conçues pour éviter cette situation, et elles doivent toutes échouer, de sorte que votre programme de rendu finit par brûler votre maison.

  1. En règle générale, les dissipateurs de chaleur et les ventilateurs sont conçus de manière à ce qu'ils puissent éliminer confortablement la quantité maximale de chaleur que la carte générera, même dans des boîtiers mal ventilés sous des climats chauds (dans les plages de fonctionnement spécifiées par le fabricant).

  2. Si la génération de chaleur est supérieure à la dissipation thermique, la première ligne de défense serait le conducteur. La plupart des pilotes vérifieront la température centrale du GPU, et si elle augmente, le pilote peut limiter la quantité d'instructions qu'il envoie au GPU pour éviter de générer plus de chaleur.

  3. En cas d'échec, le micrologiciel de la carte graphique devrait détecter que la chaleur s'accumule dangereusement et réduira donc la vitesse d'horloge afin de réduire la génération de chaleur.

  4. Si après tout cela, la chaleur continue de s'accumuler, une diode thermique disponible dans la plupart des processeurs et GPU modernes arrêtera complètement la carte vidéo et la génération de chaleur s'arrêtera.

Donc, si vous voulez casser votre carte vidéo coûteuse d'une application de niveau utilisateur via une surchauffe, en plus de créer un logiciel qui sollicite le système au maximum, vous aurez besoin de:

  1. Un système de dissipation de chaleur défectueux ou cassé. Il suffit de coller votre doigt dans le ventilateur (toujours au centre, pas dans les pales) devrait faire l'affaire. Difficulté: facile

  2. Un pilote personnalisé (ou buggé) avec des fonctionnalités de limitation désactivées ou cassées. Difficulté: normale

  3. Un firmware personnalisé avec des fonctionnalités de réduction d'horloge désactivées ou cassées. Difficulté: difficile

  4. Une diode thermique cassée. Si vous déclenchez constamment la diode thermique, elle peut être endommagée. Difficulté: très difficile

... mais pas impossible! N'hésitez pas à l'essayer *, mais assurez-vous de garder le téléphone de votre service d'incendie à portée de main lorsque vous le faites.

*: C'est du sarcasme. Je ne tolère en aucun cas la création d'un risque d'incendie ou toute activité qui pourrait vous nuire à vous, votre famille, votre chien ou votre communauté de quelque façon que ce soit. En lisant cet article, vous me dégagez complètement de toute responsabilité que vos actions pourraient entraîner.

Pyjama Panda
la source
1
+1 pour beaucoup de choses, mais surtout pour penser au chien. :)
Andrew Thompson
2

Même avec VSYNC désactivé, de nombreux jeux peuvent ne pas atteindre même 98% d'utilisation du GPU. Plus ils mettent en œuvre un gameplay réel, moins ils peuvent mettre en scène d'images et plus le GPU risque d'être sous-utilisé. De bons jeux multi-core optimisés peuvent se rapprocher considérablement de l'utilisation à 100% du GPU, mais généralement la logique de jeu garde le processeur suffisamment occupé avec d'autres tâches qu'il n'est pas en mesure de saturer le GPU avec une charge de travail complète. Les applications de rendu pur peuvent facilement atteindre 100% de charge GPU, mais les jeux font bien plus que le rendu.

Sur une note latérale, sur ma machine domestique, mon GPU génère un EMI important sous une charge élevée et il interfère avec l'audio intégré bon marché sur ma carte mère. Je peux entendre un gémissement aigu sur l'audio analogique dont la fréquence varie avec la charge. J'en suis venu à apprécier cela et à le considérer comme une fonctionnalité plutôt qu'un défaut de conception, cela rend le profilage intéressant car je peux réellement entendre le niveau de charge sans avoir à échantillonner un compteur de performances GPU. Cependant, je suppose que si vous avez un appareil très sensible aux interférences électromagnétiques et mal protégé, cela pourrait être un problème ... une charge élevée du GPU pourrait provoquer une défaillance dans un autre appareil.

Andon M. Coleman
la source
0

La surchauffe EST en train de casser votre carte graphique. Lancer une énorme boucle de données qu'il ne peut pas gérer va certainement, comme vous l'avez vu, planter et éventuellement endommager votre carte de façon permanente.

Joe Swindell
la source
4
Mais toute application peut donner à la carte plus qu'elle ne peut mâcher (à peu près n'importe quel jeu quelques années plus jeune que la carte elle-même). Un bon système de refroidissement devrait empêcher cela (quelle que soit l'application), n'est-ce pas?
NPS
Vous avez raison en ce que n'importe quel jeu POURRAIT faire cela ... mais la plupart du code ne suffoquera pas le GPU à 100% et si c'est le cas, ce n'est généralement pas 100% pendant des périodes prolongées. Cependant, je serais d'accord à 100% avec vous qu'un système de refroidissement approprié devrait empêcher tout cela.
Joe Swindell
2
Cela ressemble à de la folie. La vitesse d'horloge doit être réglée à un niveau sûr, tout comme le CPU
Richard Tingle
0

Oui il peut.

  • La surchauffe comme exemple évident, peut être causée par des charges de travail extrêmes. Habituellement atteint grâce à l'overclocking. Ce serait le plus facile à provoquer délibérément.

Peut être évité avec de bons systèmes de refroidissement. L'activation de la synchronisation V est également un bon moyen d'éviter cela. V-sync empêche le GPU de sortir des images à une vitesse plus rapide que le moniteur ne peut gérer, qui sont des images qui sont normalement supprimées, pour ne jamais être vues.

Moins d'images = moins de traitement = moins de charge de travail extrême.

Il est également important de garder une trace des capacités du GPU. J'imagine que les programmeurs de Crytek ont ​​écrit le code pour être prêt à ce que quelqu'un surestime leurs capacités de cartes graphiques. S'ils l'ont fait, je suis sûr que c'est une fonctionnalité qui a sauvé de nombreux GPU et a épargné à de nombreux propriétaires de GPU ignorants de la frustration.

  • Un peu de données corrompues (ou mal codées) peut faire en sorte qu'un pointeur finisse par pointer vers un endroit où il n'est pas supposé, ce qui peut détruire toutes sortes de choses. Bien qu'il ne soit probablement pas permanent, il peut entraîner divers degrés de défaillance dans son fonctionnement. Un tel défaut sur le CPU est normalement détecté par le système d'exploitation et évité ou, s'il ne peut pas être évité, invoquera un BSOD (écran bleu de la mort).

Peut être évité avec un codage soigneux et une double vérification au moment de l'exécution. (Mais il y a toujours des bugs. S'il n'y en a pas, c'est parce qu'ils jouent avec vous.)

  • Le GPU va également avoir un pilote, ce qui ajoute un autre endroit où les choses peuvent mal se passer. Certaines données peuvent y être corrompues, ou il peut y avoir un bogue, etc., etc. Pour ajouter à cela, les pilotes courent généralement le risque de provoquer un BSOD. Le système de secours du système d'exploitation lorsque quelque chose se passe très mal et qu'il doit exécuter une opération d'arrêt d'urgence pour essayer de minimiser ou de prévenir les dommages. Un pilote soigneusement codé ne le fera pas (espérons-le), mais il y a toujours un risque de bogue. Y compris dans les procédures d'arrêt d'urgence.

Cela peut être évité avec un codage soigneux et une double vérification au moment de l'exécution.

Wolfgang Skyler
la source
3
Heureusement, les pilotes d'affichage n'ont pas été une source importante de BSOD depuis longtemps. Microsoft a complètement révisé le modèle de pilote dans Windows NT 6.0 (Vista) et a poussé une grande partie du pilote en mode utilisateur; Les BSOD ne sont causés que par des plantages en mode noyau. Lorsque le pilote d'affichage en mode utilisateur se bloque, la pire chose qui arrive est que le pilote se réinitialise - dans un jeu D3D, vous devrez peut-être faire face à une perte de contexte et passer un certain temps à recharger les ressources, mais dans GL, vous pouvez parfois récupérer complètement de manière transparente . Il faut un échec de bas niveau pour obtenir un BSOD.
Andon M. Coleman
0

Réponse en un mot: OUI.

Réponse détaillée: oui. Cela peut (dans certaines situations). Imaginez que vous écrivez un programme qui transfère considérablement les données de votre GPU vers une boucle infinie. Il est certain qu'il va surchauffer. Maintenant, n'est-ce pas la responsabilité de son système de refroidissement de s'en occuper? Bien sûr que oui. Mais vous devez également vous rappeler que le système de refroidissement a également certains niveaux de seuil. Si la chaleur produite est hors de la plage de fonctionnement de votre système de refroidissement, alors votre système de refroidissement est à peine utile. Je ne sais pas ce que fait votre application, mais en parlant du point de vue des programmeurs, vous pouvez écrire de tels programmes, ce qui conduit à ce genre de situation.

user1890817
la source
Autant que je sache, tout cela a déjà été dit. C'est ce que vous vouliez dire?
Anko
0
  1. L'installation d'un pilote non compatible avec la carte utilisée peut facilement entraîner des dommages permanents. Mon ami a réussi à le faire grâce à la réinstallation répétitive du système d'exploitation et au changement physique du disque dur.

  2. Allumez et éteignez votre PC plusieurs fois. Je ne sais pas si cela peut provoquer un échec, mais c'est très possible. Quoi qu'il en soit, cela ne semble pas être un softwaremoyen de le faire.

  3. Manipulez le niveau d'alimentation du système en allumant et éteignant les périphériques USB consommateurs d'énergie (exemple: disque dur externe qui n'utilise pas sa propre alimentation). Faire cela rend toujours mon clavier et ma souris inutilisables jusqu'au prochain redémarrage et il a (plus de 2 ans de branchement et de déconnexion quotidiens de 3 disques durs) brûlé plusieurs cellules dans l'une de mes puces RAM, ce qui a entraîné un BSOD toutes les 10-20 minutes.

Vladivarius
la source
1
Parlez-vous de choses qui peuvent être faites par logiciel parce que je ne suis pas sûr?
NPS
WRT # 3, le rail 5V utilisé par USB est régulé par l'alimentation indépendamment du ou des rails 12V, qui sont également réglementés sur la carte mère et la carte graphique pour alimenter le CPU, le GPU et la mémoire système. Les cartes mères utilisent souvent des polyfusibles pour limiter le courant via les ports USB, ce qui pourrait expliquer vos problèmes de clavier / souris lorsque les disques durs sont branchés s'ils partagent le même polyfuse. Le courant d'appel pour faire tourner le plateau peut provoquer une chute de tension sur le rail d'alimentation USB, conduisant à un brunissement sur le microcontrôleur du clavier. Cependant, votre RAM défaillante est presque certainement une coïncidence.
bcrist
0

Mon expérience personnelle:

J'avais un Lenovo Thinkpad T61p avec un Quadro FX570M construit vers août 2008, ce lot était connu pour avoir des GPU défectueux qui échoueraient un jour ou l'autre (le soudage était sous-optimal sur certaines des broches du GPU.)

Tout allait bien pendant environ 5 ans jusqu'à ce que j'exécute XCOM The Bureau (un jeu connu pour ne pas être vraiment optimisé), l'ordinateur portable était chaud, les fans à pleine vitesse et pendant environ 1 heure de jeu, il a gelé mais pas un gel habituel .

Devine quoi ? J'ai éteint et rallumé l'ordinateur portable, il était mort avec les codes sonores appropriés du BIOS indiquant une panne vidéo.

Pour répondre à votre question : oui (comme d'autres l'ont souligné), un logiciel peut définitivement casser du matériel si le premier n'est pas protégé d' une manière ou d'une autre ; si, par exemple, le ventilateur du GPU est éteint, il explosera définitivement avec 100% de chances de succès: D

Aybe
la source
Ma question porte sur le matériel avec un refroidissement approprié et fonctionnel et des systèmes de sécurité intégrés. Sinon, nous parlons simplement de matériel défectueux qui est voué à l'échec avec n'importe quel logiciel.
NPS
0

J'avais une fois une carte graphique GeForce 4 MX 440 et je voulais jouer à Prince of Persia: sands of time. Mais le jeu ne s'est pas lancé car il n'a pas pu trouver le support Pixel Shader attendu. C'était un peu inattendu pour moi, car le dernier Prince of Persia: Warrior Within a très bien fonctionné.

Donc, à la fin, j'ai trouvé un analyseur 3D ( http://www.tommti-systems.com/main-Dateien/files.html ) et j'ai forcé le jeu à fonctionner et à jouer au jeu pendant plusieurs jours. Après quelques jours, ma carte vidéo s'est cassée - n'affichait plus rien. J'ai eu le nouvel ordinateur pendant environ 5-6 mois, donc je pense que forcer le jeu à fonctionner de cette façon a en fait cassé ma carte vidéo :(

Timotei
la source
-1

Oui, j'en ai cassé quelques-uns. Je ne lance plus d'applications de calcul de grille GPU. Certaines applications ont tendance à les casser, en particulier lorsque la machine passe en mode veille, mais dans des situations normales lorsque les ventilateurs fonctionnent / le liquide de refroidissement circule, il ne devrait pas y avoir de problèmes à moins que le refroidissement ne soit pas trop petit.

Anssi
la source
Que voulez-vous dire par "mode veille"? Le «mode veille» fait généralement référence à la suspension sur RAM , un état d'alimentation de l'ordinateur dans lequel seule la mémoire à accès aléatoire reste alimentée. Comment cela briserait-il une carte graphique?
Anko
@Anko, prenez-le d'ici. en.wikipedia.org/wiki/Sleep_mode
Anssi
OK, c'est ce que je pensais que tu voulais dire. Je suis cependant confus par le raisonnement: lorsque les applications sont suspendues pour le mode veille, comment pourraient-elles causer des dommages?
Anko
-2

Cela peut se produire si le circuit de la carte est court-circuité, mais il est très peu probable que cela se produise car le système est isolé jusqu'à une certaine température élevée. Dans certains cas, le système thermodynamique de la carte peut être perturbé si elle est vraiment proche d'un autre système ou si elle touche même un autre matériau qui n'est pas un système.

Orenrocco
la source
3
Comment ce scénario serait-il provoqué par une application? Cela ne semble pas répondre à la question.
Seth Battin
Je crois que vous ne connaissez pas les portes logiques ET, OU, PAS
Orenrocco
5
Et je crois que vous avez raté le point, pour la deuxième fois.
Seth Battin
1
Il n'y a pas de commande logicielle sendShortCircuit, car un tel court-circuit serait un défaut avec la carte graphique. Le logiciel n'en serait pas responsable. Cette question est de savoir si, par exemple, les cartes graphiques sont notées "100% d'utilisation jusqu'à 1 seconde, 90% d'utilisation moyenne à long terme" et le logiciel a été obligé de ne pas dépasser cette note
Richard Tingle
3
@ user3643191, nous ne vous attaquons pas; nous vous indiquons les endroits où votre message peut être amélioré et clarifié. Tous ces commentaires seront finalement supprimés (par conception); votre message est ce qui restera. Vous pouvez modifier et améliorer votre message à tout moment, alors profitez-en pour faire une meilleure réponse. Une fois que vous aurez fait cela, vous obtiendrez probablement des votes positifs (ou quelqu'un pourrait supprimer un vote négatif), ces commentaires finiront par disparaître et votre réponse éclairante éduquera pour les années à venir.
PotatoEngineer