La supraconductivité La supraconductivité c'est la résistance quasi nulle au sein de certains métaux, alliages ou céramique lors du passage du courant... |
Sommaire du dossier
Introduction
Découverte et historique de la supraconductivité
Explications du phénomène
Applications des phénomènes de supraconductivité
1. Introduction |
---|
La supraconductivité c'est la résistance quasi nulle au sein de certains métaux, alliages ou céramique lors du passage du courant. Les courants peuvent donc circuler sans dissipation d'énergie. Un mot magique pour des phénomènes extraordinaires ! La lévitation magnétique est de loin la manifestation la plus spectaculaire du phénomène de supraconductivité avec de nos jours la réalisation de trains à très grandes vitesses.
Au cours de ce dossier, nous retracerons dans un premier temps les grandes étapes historiques des avancées et découvertes sur la supraconductivité. Puis nous tâcherons en abordant une explication quantique d'en expliquer les causes. Enfin dans une dernière partie nous présenterons les différents applications possibles de ce phénomène.
.
2. Découverte et historique de la supraconductivité |
---|
La supraconductivité fut découverte en 1911 par le physicien néerlandais Heike Kamerlingh Onnes, qui remarqua qu'à une température inférieure à 4,2 K (-268,8°C), le mercure ne présentait plus aucune résistance électrique.
Ce qui caractérise plus fondamentalement un supraconducteur est sa capacité d'exclure les lignes de champ magnétique : si on plonge un objet supraconducteur dans un champ magnétique, un courant de surface apparaît qui produit un contre champ magnétique tel que le champ magnétique total est nul à l'intérieur de l'objet. C'est en 1939 que W. Meissner et R. Ochsenfeld ont observé cet effet (appelé effet Meissner) sur le plomb. C'est sur l'effet Meissner que se base la lévitation magnétique.
Les premières découvertes quantiques
Mais la physique fondamentale de la supraconductivité ne fut maîtrisée qu'à partir de 1957, lorsque les physiciens américains John Bardeen, Leon Cooper et John Schrieffer élaborèrent une théorie qui leur valut le prix Nobel de physique en 1972 : la théorie BCS. Cette théorie décrit la supraconductivité comme un phénomène quantique. En 1962, le physicien britannique Brian Josephson, étudiant la nature quantique de la supraconductivité, prédit le passage d'un courant entre deux supraconducteurs séparés par une mince couche isolante. Ce phénomène, qui fut confirmé expérimentalement par la suite, est aujourd'hui connu sous le nom d'effets Josephson.
Jusqu'à cette époque, les scientifiques étaient persuadés que tous les supraconducteurs agissaient de la même façon en présence d'un champ magnétique. Ils savaient que la supraconductivité disparaît si elle est soumise à un champ magnétique plus intense qu'un certain champ critique Bc, et que la valeur de ce champ critique dépend de la température. Ainsi, l'objet pouvait se trouver soit dans l'état normal, soit dans l'état supraconducteur, selon la valeur de la température et du champ magnétique appliqué. Aujourd'hui, on qualifie les matériaux se comportant de cette façon de supraconducteurs de première espèce ou de premier type.
IMG
Cependant, tel n'est pas le cas pour tous les supraconducteurs. En 1962 un deuxième type de supraconducteurs a été découvert. Ces matériaux de deuxième espèce possèdent deux champs magnétiques critiques (B_c1 et B_c2) dépendants de la température. Ainsi, ils peuvent se trouver dans trois états : l'état normal, l'état supraconducteur et l'état mixte. Sous B_c1, le matériau est complètement à l'état supraconducteur. Lorsqu'il franchit ce champ magnétique critique, il se retrouve à l'état mixte, c'est-à-dire que le flux magnétique commence à pénétrer dans l'objet à travers de minces faisceaux appelés vortex. Le centre de chacun des vortex est caractérisé par une conductivité normale, et le flux les traversant est gardé constant par des boucles de courant persistant se formant sur leur circonférence. La densité des vortex augmente en proportion du champ appliqué. Si ce champ dépasse B_c2, le matériau atteint l'état normal, de la même façon que s'il avait outrepassé la température critique sans être soumis à un quelconque champ magnétique extérieur.
IMG
Pendant 15 ans, la théorie BCS a permis aux scientifiques de bien comprendre le monde de la supraconductivité, donc de pouvoir prédire des propriétés des supraconducteurs et d'élaborer de nouvelles expériences. Par la suite, les scientifiques s'attachèrent à synthétiser des matériaux supraconducteurs à des températures les moins basses possibles. En effet, pour travailler à des températures proches du zéro absolu, il fallait alors utiliser l'hélium liquide, un agent de refroidissement coûteux et peu performant. Par ailleurs, une exploitation à température ultra basse imposait des contraintes sévères qui diminuaient considérablement le rendement du supraconducteur. Jusqu'en 1986, la plus haute température critique connue était ainsi de 23,2 K (-249,8°C), relative au niobiure de germanium.
Mais, en 1986, on découvrit dans plusieurs centres de recherche et de laboratoires d'universités que les composés d'oxydes métalliques céramiques contenant des lanthanides pouvaient être supraconducteurs à des températures suffisamment élevées pour utiliser l'azote liquide comme agent de refroidissement. À 77 K (-266°C), l'azote liquide refroidit en effet vingt fois plus efficacement que l'hélium liquide, alors qu'il coûte dix fois moins cher. Ainsi, le physicien suisse Karl Müller et le physicien allemand Johannes Georg Bednorz élaborèrent cette année-là un oxyde de lanthane, baryum et cuivre, supraconducteur à 35 K. Leurs travaux, qui furent couronnés par le prix Nobel de physique l'année suivante, déclenchèrent alors une «course aux hautes températures». En 1988, on parvint à fabriquer des supraconducteurs à plus de 100 K.
À ce jour, la plus haute température critique reproductible associée à un supraconducteur atteint 164 K (-109 C), et ce en utilisant du mercure hautement pressurisé. Il n'existe encore aucune explication satisfaisante de la supraconductivité dans ces matériaux mais à l'image des 40 ans au cours desquels fut petit à petit élaboré la théorie BCS, la patience est de mise.
IMG
3. Explications du phénomène |
---|
Tout d'abord commençons par une petite introduction de physique quantique ! Le mot clé est : quantum ! Un quantum d'énergie qui correspond à une quantité d'énergie de la dualité onde – corpuscule ! L'énergie ne peut s'échanger que par quanta : la discontinuité est de mise en physique !
Les phonons sont au son, ce que les photons sont à la lumière! Par définition, le photon est la plus petite unité d'énergie que peut posséder un mode de vibration lumineuse, tandis que le phonon est la plus petite quantité d'énergie que peut posséder un mode de vibration cristalline (vibration des atomes dans un solide).
Dans un cristal (un type de solide), les atomes sont placés de manière très ordonnée. Ce sont les forces inter-atomiques qui leur confèrent leur arrangement spécifique. Ces forces jouent le même rôle que les ressorts dans un système "masses-ressorts". Par conséquent, si on déplace légèrement un atome de sa position initiale et qu'on le relâche, il se mettra à osciller, comme un pendule. Étant donné que cet atome est relié aux autres par les forces électrostatiques qui agissent entre eux, les autres atomes du cristal se mettront eux aussi à vibrer, d'où le nom vibration cristalline! Il y aura alors propagation d'une onde de déformation dans le solide.
Les atomes d'un cristal forment une structure vibrante. Un courant qui circule correspond à un déplacement d'électrons. Leur propagation s'accompagnent de chocs : ils rebondissent sur différents obstacles (impuretés, défauts de structure …) et ces rebonds non élastiques s'accompagnent d'une perte d'énergie sous forme de chaleur : c'est le célèbre effet Joule !
Théorie BCS
Cette théorie est basée sur le couplage des électrons d'un métal en paire : les paires de Cooper. Elles forment un état unique, cohérent, d'énergie plus basse que celui du métal normal (électrons non appariés).
Le problème est d'expliquer cet appariement compte tenu de la répulsion coulombienne. Dans un métal, les électrons interagissent avec le réseau cristallin formé d'ions positifs. Ceux-ci attirent les électrons et se déplacent légèrement (grande inertie). Les physiciens ont donné le nom de phonons à ces vibrations atomiques naturelles. Cette interaction entre les électrons et les phonons est à l'origine de la résistivité et de la supraconductivité : attirés par le passage très rapide d'un électron (10+6 m/s), les ions se déplacent et créent une zone locale électriquement positive. Compte tenu de l'inertie, cette zone persiste alors que l'électron est passé, et peut attirer un autre électron qui se trouve ainsi, par l'intermédiaire d'un phonon, apparié au précédent. Et ce malgré la répulsion coulombienne. L'agitation thermique finit par détruire ce fragile équilibre d'où l'effet néfaste de la température.
IMG
La théorie quantique nous enseigne que les électrons dont le spin vaut + ou – 1/2, obéissent au principe d'exclusion de Pauli ; ainsi deux électrons de même spin ne peuvent occuper le même état d'énergie et il s'ensuit qu'il ne peut cohabiter que deux électrons par état d'énergie. Les états de basse énergie vont donc vite se saturer et l'énergie totale du système sera donc plus importante que si tous les électrons étaient dans le même état de plus basse énergie. La paire de Cooper permet un état d'énergie global plus faible donc plus stable. En effet, celle-ci se comporte comme un boson, c'est à dire une particule de spin entier, par opposition aux fermions de spin demi-entier comme les électrons.
Cela est important car seules les particules de spin demi-entier sont soumises au principe d'exclusion de Pauli. La paire de Cooper en tant que boson est soumise à la condensation de Bose-Einstein, un état particulier de la matière à basse température caractérisé par la possibilité pour les bosons d'occuper en nombre illimité le même état d'énergie, le plus bas. On appelle la différence d'énergie entre le matériau supraconducteur contenant des paires de Cooper et le matériau à l'état normal, le Gap.
Comme l'agitation thermique augmente, les paires de Cooper disparaissent et le Gap diminue jusqu'à valoir zéro. On est alors à la température critique et le matériau passe dans son état normal. Les paires de Cooper ,on l'a vu, sont soumises à la condensation de Bose-Einstein. Cet état particulier a une autre propriété des plus intéressantes : les bosons soumis à cette condensation peuvent traverser un réseau sans rencontrer d'obstacles. Les paires de Cooper peuvent ainsi circuler sans rencontrer la moindre résistance d'où la supraconductivité.
4. Les phénomènes provoqués par les trous noirs |
---|
Le phénomène de lentille gravitationnelle est extrêmement fort aux alentours d’un trou noir. On sait qu’une masse assez importante peut courber l’espace-temps, et ainsi dévier même les photons. On a alors un phénomène de lentille gravitationnelle défini, en supposant une masse non-rotative, par le développement limité :
Illustrations d'un phénomène de lentilles gravitationnelles
Un autre phénomène lumineux est le décalage vers le rouge. Il est dû au fait que le temps dans un espace fortement courbé est ralenti par le facteur :
...où vlib est la vitesse de libération en ce point.
Comme l’espace est de plus en plus courbe à l’approche du trou noir, toute la physique est ralentie, même la lumière : on observe un décalage de la lumière vers le rouge, appelé décalage Doppler gravitationnel. On remarquera que le facteur de ralentissement tend vers l’infini quand la vitesse de libération tend vers c, c’est-à-dire à l’approche de l’horizon du trou noir. L’horizon d’un trou noir actif est donc bordé de rouge.
Un trou noir actif produit un rayonnement électromagnétique important, car les gaz et poussières constituant le disque d’accrétion peuvent atteindre des vitesses de près de 1/3 de la vitesse de la lumière. Les frottements qui ont lieu alors produisent un fort rayonnement, surtout dans les gammes X et gamma.
Le dernier phénomène majeur à proximité d’un trou noir est le phénomène de marées. Le trou noir est en effet tellement massique que la différence d’accélération gravitationnelle entre deux point induit une force de marée qui tend à étirer les objets passant à proximité d’un trou noir. Une étoile peut être ainsi disloquée en approchant d’un trou noir, libérant une grande quantité de gaz qui ira alimenter le disque d’accrétion. La force de marée est donnée par l’équation.
...où h est la longueur radiale de l’objet considéré.
5. Modes de détection et preuve d'existence |
---|
Il faut savoir que toutes les observations visant à apporter la preuve indiscutable de l’existence des trous noirs concerne en fait les trous noirs supermassifs présents au cœur des galaxies. En effet, si l’on ne sait pas encore comment ils peuvent se former, on a beaucoup de preuves de leur existence, car les phénomènes qu’ils engendrent sont beaucoup plus violents et donc plus facilement observables.
On suppose qu’un trou noir supermassif est présent dans bon nombre de galaxies. Les télescopes et radiotélescopes qui ont permis l’observation des noyaux galactiques ont apporté beaucoup d’éléments surprenants.
On utilise le décalage des ondes électromagnétiques, dû à l’effet Doppler, pour calculer la vitesse des gaz et des objets stellaires proches du noyau d’une galaxie soupçonnée d’abriter un trou noir. Dans plusieurs cas, dont l’un des plus frappants est la galaxie M84, on observe une trace spectrale en « S », alors que des gaz immobiles auraient donné une trace verticale. Les régions rouges correspondent à un éloignement, et les régions bleues à un rapprochement ; on conclut à l’existence d’un mouvement de rotation extrêmement rapide autour d’une région de quelques années-lumières. Les calculs sur les équations de la gravité donnent des résultats exceptionnels: dans le cas de M84, le détecteur STIS (Space Telescop Imaging Spectrograph) du HST (Hubble Space Telescope) mesure des vitesses de l’ordre de 400 km.s-1, dans une région de 26 années-lumières de diamètre. La région centrale, correspondant au milieu du « S », devrait alors contenir une masse d’au moins 3.108Masses solaires.
D’une manière similaire, des calculs ont été faits sur les vitesses des étoiles centrales de notre galaxie, dont certaines ont été mesurées à plus de 1400 km.s-1 ; les dernières mesures (2000) donnent une masse de 2,6.106MO dans une sphère de rayon 105RO. Sagittarus A*, le centre de notre galaxie, serait donc un trou noir.
L’étude des phénomènes astrophysiques violents a aussi apporté beaucoup à la théorie des trous noirs. C’est en 1960 que le physicien Allan Sandage découvre un objet étrange, nommé 3C48, dont le spectre ne correspond à aucun objet connu. Il est de même nature que celui d’une nébuleuse (raies d’émissions), mais les raies ne correspondent pas. En 1963, on comprend la nature du spectre de 3C48 ; les raies sont les mêmes que celles d’une nébuleuse, mais fortement décalées vers le rouge, phénomène dû à l’effet Doppler cosmologique. 3C48 est en fait une source radio s’éloignant de nous à une vitesse de plus de 1/3 c, au rayonnement 10 000 fois plus important que notre galaxie, et pourtant un million de fois plus petite. On a depuis observé de nombreux objets similaires, toujours très lointains, qui furent nommés quasars (Quasi Stellar Radiosources).
Les quasars sont généralement observés dans des galaxies très perturbées, parfois sous l’influence d’autre galaxies très proches . Le meilleur modèle pour expliquer le fonctionnement des quasars est la présence d’un trou noir en rotation au centre du quasar. En effet, 40% de la masse des gaz du disque d’accrétion pourraient alors être convertis en rayonnement (contre 0,7% pour la fusion de l’Hydrogène). Plus généralement, les différents types de noyaux actifs de galaxies (Galaxies de Seyfert I et II, radiogalaxies) sont considérés comme des quasars vus sous des axes différents. En effet, on observe dans la plupart des cas deux lobes de matière radio-émettrice dus à des jets de particules provenant du noyau de la galaxie.
Si les astrophysiciens considèrent maintenant l’existence des trous noirs comme chose sûre à plus de 99%, on n’a pas encore apporté la preuve indiscutable de leur existence. Dans bien des cas d’observation, des modèles, certes extrêmement complexes et peu probables, peuvent être constitués pour expliquer les phénomènes observés sans l’intervention d’un trou noir. Dans d’autres, les incertitudes liées aux calculs complexes et aux approximation nécessaires rendent certains astrophysiciens méfiants par rapport aux résultats obtenus.
Cependant, certains phénomènes ont été modélisés, qui, s’ils sont un jour observés, apporteraient la preuve tant attendue.
Théoriquement, une étoile qui s’approche trop d’un trou noir se voit disloquée par les forces de marée. La libération soudaine des gaz entraîne un fort rayonnement. Cet événement devrait se produire une fois tous les quelques milliers d’années. L’observation de Sagittarus A* révèle la présence de tentacules de gaz perturbées qui pourraient bien être les restes d’une étoile disloquée. Si un tel rayonnement venait à être observé, il ne pourrait qu’être produit par un trou noir.
Un autre phénomène a été étudié, connu sous le nom d’effet de fronde. En effet, si un système binaire double vient à s’approcher d’un trou noir, l’une des étoiles peut être capturée, tandis que l’autre voit son énergie cinétique augmentée aux dépends de celle de sa compagne. Elle pourrait alors atteindre une vitesse de l’ordre de 10 000 km.s-1, vitesse qu’aucune configuration stellaire ne peut produire.
Le dernier phénomène étudié est la fusion de deux trous noirs, récemment modélisée à l’aide de supercalculateurs. Si deux trous noirs se rencontrent, ils finissent par fusionner, et les ondes gravitationnelles produites par un tel phénomène ne peuvent être attribuées à aucun autre phénomène connu.
L’étude des trous noirs, passionnant nombre de physiciens, a permis de grandes avancées en physique théorique ; les modèles des trous noirs ayant été formés dans le point de vue quantique ou relativiste, ils ont grandement contribué à la recherche d’une physique unifiée, que ce soit par la théorie des cordes ou par le modèle standard.
6. Bibliographie |
---|
- Pour la science, dossier Hors-série Juillet 1997 Les trous noirs
- Ciel & espace, n°365 Octobre 2000 Trous noirs, comment les débusquer ?
- Bulletin de l’Union des Physiciens n°593 (Avril 1977) et n°577 (Octobre 1975)
- Stefen Hawkins, L’univers des faits aux théories
- Frédéric Laliberté, Les Trous noirs www.fortunecity.fr/technopole/ordi/24
- M. Gafen, Formation des trous noirs, http://pages.infinit.net/gafen
- Sciences & vie n°987 Décembre 1999 Le choc des géants de l’espace
- Sciences & vie n°1000 Janvier 2001 On a pesé le cœur de la Galaxie
- La NASA et le HST pour les images et les commentaires les accompagnant