Salut,
Je me posais une question il y a quelques jours, à propos des data centers, des serveurs et des grosses unités de calcul en général.
L'un des principaux soucis aujourd'hui est la dissipation de l'énergie thermique : elle nécessite énormément d'énergie électrique (ventilateurs, etc.. ) et elle représente elle-même une énorme perte d'énergie.
Elle est également en partie à l'origine du plafonnage des fréquences des processeurs, puisque la puissance électrique (et donc les pertes sous formes thermiques qui sont lui sont proportionnelles) augmentent avec le cube de la fréquence.
Beaucoup de data center sont placés dans des régions froides pour ces raisons. L'augmentation de la température force le processeur à des périodes d'inactivité régulière pour refroidir, et toutes les tâches qui auraient pu être traitées par le processeur sont mise en attente pendant ce temps. Cela provoque des ralentissements et nécessairement des pertes d'argent.
Or il me semble que cette énergie est dissipée par effet joule, et un tel phénomène ne se manifeste qu'en présence d'une résistance.
Donc, ne pourrait-on pas simplement supprimer cet effet de dissipation thermique en refroidissant le processeur à des températures cryogéniques, telles que cela rendrait les circuits supraconducteurs. Dans ces conditions l'énergie ne serait plus cédée sous forme thermique, et cela ferait des économies assez conséquentes. Une telle méthode semble déjà utilisée dans les aimants des IRM ou des accélérateurs du LHC, pourquoi pas dans les ordinateurs ?
Attention, je ne parle pas simplement de "refroidir" le processeur par un système perfectionné fonctionnant à l'hélium liquide. Il ne s'agit pas d'acheminer la chaleur vers l'extérieur comme un banal frigo, car là on ne supprime pas le problème, on ne fait que le déplacer : il faut faire travailler activement le compresseur du système de refroidissement pour évacuer la chaleur et l'énergie consommée est la même - voire supérieure.
Je parle bien de maintenir le processeur à basse température de façon à ce que la-dite énergie ne soit jamais produite (ou plutôt : dissipée). Ainsi une fois le processeur à bonne température, il y reste définitivement. On s'arrange pour avoir des parois aussi isolantes que possible pour éviter les apports d'énergie provenant de l'extérieur. Là le rôle du système de refroidissement sera seulement de compenser ces apports extérieurs (car l'isolation parfaite n'existe pas), le processeur ne produisant lui même rien, et ainsi la consommation totale de l'ensemble s'en trouve diminuée.
Pourquoi une telle méthode n'est pas mise à l’œuvre aujourd'hui ?
Merci et bonne journée !