Читать книгу Faszination und Wunder der Technik - Werner Dupont - Страница 7
ОглавлениеKapitel 1: Supraleitung
„Noble Wandlung“
Wer hätte gedacht, dass eines Tages Verbraucher und Industrie gleichermaßen von der Entdeckung des aus dem niederländischen Leiden stammenden Physikers Heike Kammerlingh Onnes profitieren würden. Dieser hat nämlich im Jahr 1911 festgestellt, dass das Metall Quecksilber bei Kühlung mit dem von ihm erstmals 1908 verflüssigten Helium keinen elektrischen Widerstand mehr aufwies. Dies war die Geburt der Supraleitung. Für diese Entdeckung wurde Kammerlingh Onnes 1913 der Nobelpreis für Physik verliehen. Er hatte Helium bis zu einer Temperatur von 0,9 Kelvin, entsprechend minus 272,25 Grad Celsius, herabgekühlt. Dabei stellte er den als Supraleitung bezeichneten Zustand der Widerstandslosigkeit fest, der im Falle von Quecksilber unterhalb von minus 269 Grad Celsius, also etwas mehr als 4 Grad über dem absoluten Nullpunkt, liegt. Die Verflüssigung des Heliums ermöglichte die Entdeckung einer Reihe weiterer Supraleiter mit Sprungtemperaturen von etwas oberhalb des absoluten Nullpunkts. Mit dem Begriff Sprungtemperatur bezeichnet man diejenige Temperatur, bei der ein Material schlagartig den elektrischen Widerstand verliert.
Die Kühlung mit Helium limitierte zunächst wegen des erforderlichen Aufwands und der damit einhergehenden Kosten das Spektrum der Anwendungen der neuen Supraleitertechnologie. So manifestierten sich Anwendungen zunächst im Bereich der Medizin durch die Entwicklung und den Einsatz supraleitender Sensoren zur ultrapräzisen Bestimmung von extrem schwachen Magnetfeldern des Gehirns und des Herzens durch die in ihnen präsenten elektrischen Ströme.
Einige von uns haben vielleicht schon einmal mit einem auf Supraleitertechnik basierenden Diagnosesystem der Radiologie Bekanntschaft gemacht. Das dabei eingesetzte Verfahren der sogenannten Kernspinresonanz, auch als MRT bezeichnet, machen sich die Absorption und Emission elektromagnetischer Wechselfelder von Atomkernen zu eigen. Im MRT-Gerät können die Patienten diese als sehr laute Knackgeräusche wahrnehmen. Durch den Einsatz sehr hoher Magnetfelder, die umgerechnet bei etwa dem Zehntausendfachen der Stärke des Erdmagnetfeldes liegen, wird eine räumliche Auflösung mit einer Genauigkeit von nur einem Millimeter ermöglicht. Im Fall der medizinischen Anwendung überwog das überragende Kosten-Nutzen-Verhältnis der alternativlosen Messtechnik die wirtschaftlichen Hemmnisse und begründete ihren Siegeszug zum Wohle der Betroffenen seit den 1980er-Jahren.
Es dauerte bis Mitte der 1980er-Jahre, bis sich das MRT in der medizinischen Diagnostik etablieren konnte. Für die medizinischen Errungenschaften des Kernspinresonanzeffektes wurde 2003 ein Nobelpreis verliehen, und zwar an den Briten Peter Mansfield für Physiologie/Medizin.
Beim physikalischen Effekt der Kernspinresonanz absorbieren und emittieren Atomkerne eines Materials in einem konstanten Magnetfeld elektromagnetische Wechselfelder. Normalerweise drehen sich alle Atomkerne im menschlichen Körper um ihre eigene Achse. Diesen Drehimpuls nennt man Kernspin. Durch ihre eigene Drehung erzeugen diese Kerne ein minimales Magnetfeld. Dies betrifft vor allem die Wasserstoffkerne, die am häufigsten im Körper vorkommen. Die magnetische Ausrichtung der Wasserstoffkerne ist normalerweise rein zufällig. Wenn man jedoch an den Körper von außen ein starkes Magnetfeld anlegt, dann ordnen sich diese Atomkerne alle in der gleichen Richtung an, und zwar in Längsrichtung des Körpers. Dieses Verfahren nutzt die Magnetresonanztomographie. Im MRT-System befindet sich ein starkes konstantes Magnetfeld von typischerweise 1,5 Tesla. Zusätzlich zu diesem Magnetfeld gibt das MRT-Gerät während der Messungen noch Radiowellen mit einer hohen Frequenz von ca. 10 bis 130 Megahertz auf den Körper ab, wodurch sich die parallele Ausrichtung der Wasserstoffkerne im Magnetfeld verändert. Nach jedem Radiowellenimpuls, der sich für den Patienten als Knacken bemerkbar macht, kehren die Wasserstoffkerne wieder in die vom Magneten vorgegebene Längsrichtung zurück. Hierbei senden die Atomkerne spezielle Signale aus, die während der Untersuchung gemessen und dann vom Computer zu Bildern zusammengesetzt werden. Es werden zusätzliche Magnetfelder mithilfe von sogenannten Spulen an den Körper angelegt, um eine Körperregion aus verschiedenen Blickwinkeln abzubilden. So erhält man die verwertbaren Schichtaufnahmen des Körpers.
Das MRT zeichnet sich durch konkurrenzlose Präzision in der Darstellung bestimmter menschlicher Gewebe aus. So ist das Verfahren unabdingbar bei der Kontrolle der Entwicklung von Läsionen bei Multiple-Sklerose-Erkrankungen (MS). Etwa 200.000 Menschen sind in Deutschland von MS betroffen. Das Kontrollverfahren ermöglicht die anatomische Darstellung von Organstrukturen. Durch Gabe von paramagnetischem Gadolinium als Kontrastmittel können Neurologen beurteilen, ob es sich um akute Entzündungsherde handelt, die entsprechende medizinische Maßnahmen erfordern, oder um ältere inaktive Läsionen, die keinerlei Maßnahmen bedürfen. Wegen fehlender Strahlenbelastungen kann die MRT-Methode für Untersuchungen von Säuglingen und Kindern sowie während der Schwangerschaft bevorzugt angewandt werden.
Der Markt der MS-relevanten Produkte für die weltweit 2,5 Millionen Betroffenen in den Segmenten Diagnose und Therapie umfasste 2010 für die häufigste neuro-immunologische Erkrankung allein sieben Milliarden Euro für MS-Medikamente. Hierzu komplementär beläuft sich der Weltmarkt für Diagnostik einschließlich des besagten MRT-Verfahrens auf rund fünfunddreißig Milliarden Euro.
Als Technologie des 21. Jahrhunderts kommt der Supraleitung für die Bewahrung und Steigerung der Lebensqualität eine außerordentliche strategische Bedeutung zu. Der Markt der Supraleiteranwendungen wurde mit Stand 2010 auf mehr als zwei Milliarden Euro geschätzt. Für das Jahr 2020 wurde eine Steigerung des weltweiten Marktvolumens für supraleiterbasierte Produkte auf etwa 45 Milliarden Euro prognostiziert. Dieser Betrag schlüsselt sich auf in die Sektoren Elektronik (13,5 Mrd. Euro), Energie (12,0 Mrd. Euro), Prozesstechnik (8,3 Mrd. Euro), Transport (4,1 Mrd. Euro), Medizin (4,3 Mrd. Euro) und Forschung (2,8 Mrd. Euro). Der Medizinsektor wird sich demnach in den nächsten zehn Jahren bei einem Marktanteil von rund zehn Prozent einpendeln.
Es vergingen nahezu 50 Jahre, bis 1957 das Geheimnis der Entdeckung von Kammerlingh Onnes gelüftet werden konnte. Dies geschah gemeinschaftlich durch die Amerikaner John Bardeen, Leon N. Cooper und Robert Schrieffer. Sie lieferten die fundamentale mikroskopische Erklärung der Supraleitung und erhielten dafür 1972 den Nobelpreis für Physik. Ihre bahnbrechende Erkenntnis konzentrierte sich auf die Beschreibung der Supraleitung als kollektives Phänomen. Die nach ihren Erfindern benannte BCS-Theorie lieferte Erklärungen für diverse mit der Supraleitung einhergehende Phänomene.
Über sogenannte Phononen, so nennt man in der Sprache der Quantenmechanik quantisierte Gitterschwingungen, werden Elektronenpaare miteinander verkoppelt, lautete die Zauberformel. Dabei animieren Gitterschwingungen des Festkörperkristalls die Elektronen zur massenhaften Paarbildung, die man Cooper-Paare nennt. Als Folge verliert das Material den elektrischen Widerstand unterhalb der bereits erwähnten Sprungtemperatur. Die hierzu entwickelte BCS-Theorie fußte auf der in Experimenten gemachten Beobachtung, dass die Sprungtemperatur des Metalls eine signifikante Abhängigkeit von der Masse der Atomkerne zeigte. Deswegen wurde gefolgert, dass die Supraleitung offenbar etwas mit der Wechselwirkung der Elektronen mit den masseabhängigen Gitterschwingungen zu tun haben müsse. Anschaulich gesehen kann man sich die Wechselwirkung von Elektronen und Gitterschwingungen etwa wie folgt vorstellen: Ein negativ geladenes Elektron zieht einen positiv geladenen Ionenrumpf hinter sich her. Dabei entsteht eine aus positiven Ionen bestehende Ladungspolarisationswolke. Wegen der wesentlich größeren Masse der Ionenrümpfe erfolgt die Bewegung der Polarisationswolke zeitlich verzögert. Ein zweites Elektron wird von der Polarisationswolke angezogen, das heißt, letztendlich vermittelt das Ionengitter eine attraktive Wechselwirkung zwischen zwei Elektronen, die beschließen, ein Cooper-Paar zu bilden und den supraleitenden Zustand zu ermöglichen.
Da die damaligen metallischen Supraleiter Sprungtemperaturen von maximal minus 250 Grad Celsius erreichten, war ihr technischer Einsatz natürlich begrenzt, wenn man einmal von der Medizin absieht.
Für diesen Bereich erwiesen sich supraleitende Quanteninterferenz-Detektoren (SQUIDs) als der Königsweg, um geringste vom Gehirn oder dem Herzen erzeugte Magnetfelder mit extremer Empfindlichkeit und genauer Lokalisierung berührungsfrei zu erfassen, und ermöglichten die Entwicklung und das Einsatzgebiet der oben beschriebenen Kernspintomographen.
Den diesen Detektoren zugrundeliegenden physikalischen Effekt der Eigenschaften eines Suprastroms aus Cooper-Paaren durch eine Tunnelbarriere sagte 1962 der britische Physiker Brian D. Josephson als 23-jähriger Doktorand theoretisch voraus. Klassisch gesehen kann natürlich eine Barriere nicht durchtunnelt werden. Quantenmechanisch betrachtet ist dies jedoch sehr wohl möglich, denn es gibt für jedes physikalische Objekt eine gewisse Tunnelwahrscheinlichkeit, die es erlaubt, dass ein Objekt mit einer gewissen Wahrscheinlichkeit eine Barriere per „Durchtunneln“ überwinden kann. Der Tunneleffekt ist auch dafür verantwortlich, dass aus unseren Steckdosen elektrischer Strom kommt, obgleich ihre Oberflächen mit einer nichtleitenden Oxidschicht überzogen sind. Im Fall der Josephson-Kontakte tunneln keineswegs voneinander nichts wissende Elektronen, sondern miteinander korrelierte Elektronen der Cooper-Paare. 1973 erhielt Josephson für seine Arbeiten zusammen mit seinen Kollegen Leo Esaki und Ivar Giaever den Nobelpreis für Physik.
Durch die bahnbrechenden Arbeiten von Josephson wurde nicht nur das schon besprochene Kernspinresonanzverfahren im Medizinsektor möglich, sondern auch ein konkurrenzloses Verfahren im Bereich der Neurologie, um magnetische Felder, die durch elektrische Ströme hervorgerufen werden, mit höchstmöglicher Präzision festzustellen.
Diese als Magnetenzephalographie (MEG) bezeichnete Methode misst die die elektrischen Ströme begleitenden schwachen Magnetfeldveränderungen außerhalb des menschlichen Kopfes mithilfe von Biomagnetometern. Das erste MEG wurde 1968 von David Cohen am Massachusetts Institute of Technology (MIT) aufgenommen. Die Unterschiede zum EEG (Elektroenzephalographie) liegen in den fehlenden Verzerrungen der Magnetfelder beim Weg durchs menschliche Gewebe mit unterschiedlichen Wechselstromeigenschaften und somit der Möglichkeit einer hohen räumlichen und zeitlichen Auflösung der Biosignale ohne zeitaufwendige Berücksichtigung der Volumenleitergeometrie. Im Vergleich zum EEG ist das MEG für radiale Stromquellen blind, da diese an der Kopfoberfläche keine Magnetfeldveränderungen ergeben. Da das MEG kein bildgebendes Verfahren ist, werden die Quellenlokalisationen üblicherweise mit einem MRT-Datensatz überlagert. Daher wird diese Methode im angloamerikanischen Sprachgebrauch auch „Magnetic Source Imaging“ (MSI) genannt. Mit dieser Methode sind Quellenlokalisationen exakt auf die individuelle Anatomie des Patienten übertragbar. So ist es möglich, auch bei Veränderungen von bekannten anatomischen Strukturen, z. B. im Falle eines Hirntumors oder Ödems, die Lage und den Bezug zur MEG-Quellenlokalisation und damit zu den gesuchten Funktionsarealen zu erhalten.
Die erwähnten Möglichkeiten der in der Schädelhöhle befindlichen Stromquellen wurden erstmals 1993 dazu benutzt, das MEG zur prächirurgischen Diagnostik einzusetzen. Bereits vorher gab es Möglichkeiten für eine funktionelle Bildgebung mit den nuklearmedizinisch-metabolischen Verfahren der „Single Photon Emission Tomography“ und „Positron Emission Tomography“. Wegen der ungenügenden räumlichen Auflösung, des apparativen Aufwands und Problemen der gemeinsamen Registrierung der metabolischen Daten mit anatomischen Datensätzen fanden beide Verfahren jedoch nur vereinzelt Anwendung. Mit der Einführung des sogenannten BOLD-Kontrasts zum Zwecke des Nachweises der Abhängigkeit des Bildsignals vom Sauerstoffgehalt in den roten Blutkörperchen durch Ogawa 1990 war es dann auch möglich, nichtinvasive Studien über die Kopplung von regionaler Durchblutung und neuronaler Aktivität mit der sogenannten funktionellen Magnetresonanztomographie (f-MRT) durchzuführen. Diese Methode wird in der präoperativen Diagnostik zur Lokalisation der Zentralregion genutzt und für neurochirurgische Operationen in einigen Zentren bereits eingesetzt. Bis Mitte der 1990er-Jahre wurde im klinischen Alltag aber hauptsächlich indirekt, nämlich über anatomische Landmarken, der Bezug eines Hirntumors zum motorischen Cortex definiert. Die Anwendung dieser Methode ist allerdings erschwert, wenn die Anatomie oder die Hirnfunktion durch Massenverlagerung oder ein Ödem verstrichen ist. Oftmals konnte man dann erst intraoperativ durch somatosensorisch evozierte Potenziale, die sogenannte Phasenumkehr, feststellen, dass große Teile des motorischen Cortex durch den Tumor erfasst waren und sich eine weitere Operation daher verbat, wollte man den Patienten nicht schwer schädigen. Durch die Lokalisierung von somatosensorisch evozierten Feldern (SEF) mit dem MEG kann ein für taktile Wahrnehmungen des Körpers zuständiges Verarbeitungsgebiet im Rindengebiet des Großhirns, dem sogenannten Gyruspostcentralis, verarbeitet werden und damit der Bezug einer Raumforderung zum motorischen Cortex durch ein relativ einfaches Verfahren bereits im Vorfeld der geplanten Operation visualisiert werden. Die klinische Genauigkeit der sogenannten SEF-Lokalisationen wurde in mehreren Studien bestätigt, bei denen die SEF-Lokalisationen intraoperativ mit somatosensibel evozierten Potenzialen verglichen wurden. Mit der Einführung der Neuronavigation wurde es möglich, den neurochirurgischen Raum des Bilddatensatzes mit dem physikalischen Raum des Operationsgebietes zu verknüpfen und die Position von Instrumenten im stereotaktischen Raum in Echtzeit zu verfolgen. Die zusätzliche Einbindung der MEG-Daten in den Bilddatensatz der Neuronavigation ermöglichte, dass der Operateur durch das Verfolgen eines Pointers oder durch die Einspielung von segmentierten Bilddaten in das Operationsmikroskop nun in wenigen Sekunden funktionelle Hirnareale identifizieren konnte. Die Verknüpfung von funktionellen Bilddaten mit der Neuronavigation wird auch als funktionelle Neuronavigation bezeichnet.
Potenziell profitieren von der MEG-Technologie vor allem auch Epilepsiepatienten, deren Anzahl sich auf weltweit 50 Millionen beläuft. Aufgrund der hohen Empfindlichkeit der MEG-Systeme müssen diese gegen Störungen des Erdmagnetfeldes abgeschirmt werden. Dies erfolgt durch Unterbringung der Messungen in aus sogenanntem Mumetall (das sind weichmagnetische Nickel-Eisen-Verbindungen) bestehenden Abschirmräumen. Erste MEG-Systeme wurden von der in San Diego beheimateten kalifornischen Firma Biomagnetic Technologies Inc. hergestellt und vertrieben. Es handelt sich dabei um Systeme mit bis zu über 300 über den Kopf verteilten MEG-Detektoren, die eine vollständige Abdeckung des Gehirns ermöglichen. Die Verfügbarkeit von MEG-Systemen motivierte unter anderem den Aufbau von Epilepsiezentren.
Das Heliumzeitalter wurde 1986 durch die Entdeckung der sogenannten Hochtemperatursupraleiter der Herren J. G. Bednorz und K. A. Müller am IBM-Forschungszentrum im schweizerischen Rüschlikon mit dem Eintritt in das Stickstoffzeitalter ergänzt.
Sie entdeckten sensationellerweise supraleitende Substanzen mit Sprungtemperaturen von mehr als minus 196,15 Grad Celsius. Zu deren Kühlung reicht der deutlich preisgünstigere flüssige Stickstoff völlig aus. Es handelt sich nicht mehr nur um Metalle, sondern um Keramiken (Cuprate), komplexe Metalloxidverbindungen. Bednorz und Müller erhielten hierfür folgerichtig 1987 den Nobelpreis für Physik.
Weitere Hochtemperatursupraleiter mit unerwarteten spektakulären Eigenschaften entdeckte im Jahr 2008 der Japaner Hideo Hosono. Es handelt sich hierbei um supraleitende Verbindungen aus Eisen, Lanthan, Phosphor und Sauerstoff.
Entgegen der üblichen Lehrmeinung könnte es sich bei dieser Stoffklasse um das Vorliegen von ferromagnetischen Supraleitern handeln. Bislang nahm man an, dass das Phänomen der Supraleitung nicht mit dem Vorliegen ferromagnetischer Komponenten vereinbar ist. Aber genau dieser Umstand scheint bei diesen eisenhaltigen Verbindungen der Fall zu sein. Darüber hinaus werden bei ihnen durch Beimischungen von Arsen bemerkenswert hohe Sprungtemperaturen von minus 217 Grad Celsius berichtet.
Die Arbeiten des Forscherteams von Professor Hideo Hosono sind zudem der experimentelle Nachweis der von mir bereits 1983 in meiner Dissertation zur „Theorie ferromagnetischer Supraleiter“ prognostizierten Möglichkeit des Auftretens der Koexistenz von Supraleitung und Ferromagnetismus. Meine Arbeit kann beim TIB Leibniz-Informationszentrum Technik und Naturwissenschaften der Universitätsbibliothek Hannover eingesehen beziehungsweise angefordert werden.
Ich hatte ein zur Beschreibung magnetischer Supraleiter geeignetes Zweibandmodell, das auf seinerzeitigen experimentellen und theoretischen Erfahrungen über ternäre Verbindungen basiert, auf die Möglichkeit der Koexistenz von Supraleitung und Ferromagnetismus mit anerkannten Methoden der theoretischen Physik untersucht. Das hierzu herangezogene Bändermodell dient dabei der Beschreibung des energetischen Zustands der Elektronen von Atomen in einem kristallinen Festkörper. Während in einem einzelnen nichtgebundenen Atom die Elektronen diskrete Energiezustände einnehmen, führen in einem Kristall die Wechselwirkungen zwischen den Atomen zu einer Verbreiterung der Energiezustände, das heißt, dicht beieinanderliegende Energiezustände verschmelzen zu Energiebändern, bei denen eine kontinuierliche Verteilung der Energiezustände vorliegt. Diese Energiebänder sind durch energetische Bereiche voneinander getrennt, in denen keine Elektronenzustände erlaubt sind, das heißt, es liegen verbotene Zonen beziehungsweise Bandlücken vor. Die Bänder jedoch ermöglichen die physikalischen Eigenschaften des Festkörpers wie metallische Leitung, Isolatoreigenschaften oder Magnetismus.
Im betrachteten Fall spielen die folgenden Akteure die Hauptrollen: Elektronen des s-Bandes tragen das Trikot der Normalleitung, 4d-Elektronen das der Supraleitung und 4f-Spins bestreiten die magnetischen Eigenschaften.
Aufgrund der Berücksichtigung eines zusätzlichen Bandes normalleitender Elektronen, das mit den supraleitenden Elektronen und den magnetischen Momenten mittels Austausch wechselwirkt, ergibt sich die interessante Möglichkeit eines Austauschkompensationseffektes, der auf einer Reduktion der starken paarbrechenden Wirkung der Spinaustauschstreuung und des Austauschfeldes durch die magnetischen Momente beruht. Diese Austauschwechselwirkung tritt als Folge ihres rein quantenmechanisch begründbaren Auftretens in Erscheinung.
Diese Effekte können die Koexistenz von Supraleitung und Ferromagnetismus ermöglichen. Neben einer detaillierten Berechnung der Eigenschaften des Zweibandmodells wurde der Einfluss von Spindynamik aufgrund von Spindiffusion, also der nicht gerichteten Zufallsbewegung der Spins aufgrund ihrer thermischen Energie, sowie der Effekt durch unmagnetische Störstellenstreuung auf die supraleitende Übergangstemperatur untersucht. Der Einfluss von Spindiffusion zeigt sich in einer relativ kleinen Abschwächung der supraleitenden Übergangstemperatur im Vergleich zu Analysen, bei denen zeitliche Korrelationen außer Acht gelassen werden. Dabei stellte sich die Berücksichtigung einer Summenregel für die sogenannte magnetische Suszeptibilität, das heißt die Magnetisierbarkeit in einem äußeren Magnetfeld des Spinsystems, als von großer Bedeutung heraus. Bei der Bestimmung des Einflusses unmagnetischer Störstellen in ferromagnetischen Supraleitern stellte sich heraus, dass eine bis dato in der Fachliteratur unberücksichtigte Klasse von Feynman-Graphen, die zu einem Diffusionspol führt, die supraleitende Übergangstemperatur qualitativ verändert. Die bildlichen Darstellungen der Feynman-Diagramme wurden 1949 von dem Amerikaner Richard Feynman am Beispiel der Quantenelektrodynamik entwickelt. Die Diagramme sind streng in mathematische Ausdrücke übersetzbar. Dieser mir vertraute Formalismus brachte mich durch ein ungewöhnliches Erlebnis während einer Urlausreise zu der Feynman-Diagrammkategorie von Leitergraphen. Es war nämlich so: Um zum Hotelzimmer im ersten Stock zu gelangen, musste man eine ziemlich lange, nicht enden wollende Wendeltreppe mit ihren ach so vielen Stufen hinaufgehen. Das war der Auslöser meiner Leitergraphenidee, die schließlich die Möglichkeit der Koexistenz von Supraleitung und Ferromagnetismus nahelegte.
Die interessante und grundlegende Frage nach einem Zusammenspiel von Supraleitung und Magnetismus hatte eine Vielzahl experimenteller, theoretischer und numerischer Untersuchungen stimuliert. Nach der Erklärung des Phänomens Supraleitung durch Bardeen, Cooper und Schrieffer befasste man sich dabei zunächst mit supraleitenden Systemen, die eine geringe Konzentration magnetischer Atome, das heißt Ionen der Seltenen Erden beziehungsweise Übergangsmetall-Ionen, enthalten. Es zeigte sich, dass schon bei sehr geringer Konzentration der magnetischen Momente die Supraleitung unterdrückt wird. Den Grund hierfür erkannte man in der im quantenmechanischen Formalismus erklärbaren Austauschwechselwirkung zwischen den supraleitenden Elektronen und den magnetischen Momenten. Abrikosov und Gorkov entwickelten eine Theorie, die diesen Einfluss magnetischer Störstellen auf die Supraleitung erklärte und die Absenkung der supraleitenden Übergangstemperatur mit zunehmender Konzentration magnetischer Atome beschrieb. Eine Koexistenz von Supraleitung und magnetischer Ordnung, für die eine höhere Konzentration magnetischer Atome vorhanden sein müsste, konnte somit wegen der schon bei kleinen Konzentrationen außerordentlich starken Austauschstreuung durch die besagte Austauschwechselwirkung der supraleitenden Elektronen aufgrund der lokalen Spins in den untersuchten Substanzen nicht beobachtet werden. Der russische Physiker Alexei Alexejewitsch Abrikosov erhielt in diesem Zusammenhang 2003 zusammen mit dem russischen Physiker Witali Ginzburg und dem amerikanischen Physiker Anthony James Leggett den Nobelpreis für bahnbrechende Arbeiten in der Theorie der Supraleitung und Suprafluidität.
Erst die bedeutsamen Entdeckungen supraleitender ternärer Verbindungen, die Atome der Seltenen Erden enthalten, führten zu großen Fortschritten in der Frage der Koexistenz von Supraleitung und Magnetismus. Diese Verbindungen zeigen supraleitendes Verhalten, obwohl sie ein mit magnetischen Seltenen-Erd-Ionen (4f-Spins) besetztes periodisches Untergitter enthalten. Diese erstaunliche Erscheinung steht in Verbindung mit der speziellen Gitterstruktur dieser Systeme. Die lokalisierten 4f-Spins sind nämlich relativ weit entfernt von den 4d-Elektronen der Übergangsmetallcluster, denen die supraleitenden Eigenschaften zuzuschreiben sind. Demzufolge wechselwirken die 4d-Elektronen nur schwach mit den Seltenen-Erd-Ionen. Den normalleitenden Elektronen kann jedoch eine weitere außerordentlich wichtige Bedeutung zukommen, die wir in der folgenden Idee darlegen. Wir nehmen an, dass (bei verschwindendem äußerem Magnetfeld) das Spinsystem unterhalb einer bestimmten Temperatur, der magnetischen Übergangstemperatur, in einen homogenen ferromagnetischen Zustand übergeht. Aufgrund des sich dann ausbildenden Austauschfeldes tritt eine erhebliche Beeinflussung des supraleitenden Zustandes ein, denn schon bei relativ kleinen Austauschkopplungskonstanten zwischen supraleitendem Band und magnetischen Momenten ist in einem hochkonzentrierten Spinsystem leicht ein internes Feld möglich, das die Größe des oberen kritischen Magnetfelds erreicht oder gar übersteigt. In diesen Fällen findet somit eine Rückkehr der Supraleitung zur Normalleitung statt, Koexistenz ist nicht möglich. Wenn nun aber die Austauschwechselwirkung der magnetischen Momente mit normalleitenden (s-)Elektronen dazu führt, dass die Polarisation der s-Elektronen der Polarisation der magnetischen Ionen entgegengesetzt ist, so tritt eine Kompensation des Austauschfeldes der Ionen ein, sofern die s-Elektronen selbst mit den supraleitenden Elektronen über Austausch gekoppelt sind. Das verkleinerte effektive Austauschfeld der magnetischen Momente und der normalen Elektronen führt somit zu einer Reduktion der Spinaufspaltung des d-Bandes. Dieser Mechanismus der Kompensation des starken Austauschfeldes der magnetischen Atome im ferromagnetischen Zustand durch die normalleitenden Elektronen kann somit die Koexistenz von Supraleitung und Ferromagnetismus begünstigen.
Der großtechnischen industriellen Nutzbarmachung der Hochtemperatursupraleitung diente ein im April 2014 gestartetes Pilotprojekt in Essen, das der Demonstration des verlustfreien Energietransports über große Distanzen diente. Dem Konsortium unter Führung des Karlsruher Instituts für Technologie (KIT) gelang es, aus den spröden Keramiken flexible Drähte herzustellen.
Das AmpaCity-Projekt startete das KIT mit einem großen nordrheinwestfälischen Energieversorger und einem Kabelhersteller zur Demonstration der technischen Machbarkeit und Wirtschaftlichkeit von Supraleitungslösungen auf Mittelspannungsebene. Die Machbarkeitsstudie hatte zum Ergebnis, dass Supraleiterkabel die einzig sinnvolle Möglichkeit darstellen, städtische Stromnetze mit Hochspannungskabeln weiter auszubauen. Hierzu wurde im Rahmen des Pilotprojektes ein etwa ein Kilometer langes supraleitendes Kabel in das bestehende Stromnetz integriert. Anders als bei herkömmlichen Kupferkabeln treten bei dem neuen Kabelsystem praktisch keine elektrischen Übertragungsverluste auf. Durch einen Supraleiterstrang könnten bis zu fünf parallel verlaufende konventionelle 10.000-Volt-Kabel ersetzt beziehungsweise 110.000/10.000-Volt-Umspannstationen überflüssig werden. Das im Essener Pilotprojekt verwendete Kabel ist aufgrund seines konzentrischen Aufbaus besonders kompakt. Um die Vorlaufleitung der Stickstoffkühlung herum sind drei in Isolationsmaterial eingeschlossene Supraleiterschichten für die drei Stromphasen angeordnet. Diese Schichten werden außen von einer gemeinsamen Kupferschmierung umhüllt, die ihrerseits vom Flüssigkeitsmantel des zurückströmenden Kühlmediums umgeben ist. Kühlkreislauf, Leiterschichten und Kupferschmierung befinden sich in einem doppelwandigen, superisolierten Vakuumbehälter aus flexiblem Edelstahlrohr. Die Außenseite dieses sogenannten Kabelkryostaten ist durch eine Polyethylen-Ummantelung geschützt. Das Kabel kann als quasi idealer elektrischer Leiter mehr als hundertmal so viel Strom transportieren als Kupfer. Durch die Supraleitertechnologie hatte man einen wichtigen Treiber für eine Technologiewende in Ballungszentren. Am 30. April 2014 wurde im Beisein des Nobelpreisträgers Johannes Georg Bednorz das bis dato weltweit längste Supraleiterkabel offiziell in ein Stromnetz integriert und der zweijährige Praxistest gestartet. Für den Betrieb des Essener Kühlsystems fand sich eine Lösung, bei der lediglich eine kompakte Station an einem der Endpunkte der Kabelstrecke erforderlich ist. Ebenfalls aus supraleitendem Material gefertigt wurde der Strombegrenzer, der verhindert, dass das Kabel bei einer Netzstörung durch Fehlerströme überlastet wird.
Eine gänzlich andere Applikation mit ebenfalls direktem Bezug zur Tieftemperaturphysik rief in der ersten Dekade des 21. Jahrhunderts unter dem Schlagwort Körperscanner großes Aufsehen hervor. Es handelt sich um neu entwickelte Strahlungsdetektoren im Terrahertz-Frequenzbereich. Die Strahlung liegt bei Wellenlängen kleiner als ein Millimeter und größer als 100 Mikrometer, also im Frequenzbereich zwischen 300 Gigahertz und drei Terrahertz, dem Grenzbereich zwischen Infrarotwärmestrahlung und Mikrowellen. Die niederenergetischen Strahlen sind auch Teil der natürlichen Wärmestrahlung des menschlichen Körpers und genau dieser Umstand macht sie so interessant für die Sicherheitstechnik. Fachleute erkannten, dass die Nutzbarmachung der Strahlung zu einem entscheidenden Werkzeug im Kampf gegen Terroristen, Luftpiraten und Schmuggler werden könnte. Zu diesem Zweck wurden aktive Systeme entwickelt, bei denen die zu untersuchende Person mit einer kleinen Dosis Terrahertzstrahlen beschossen wird. Ein Detektor misst dann die entstehenden Reflektionen. Für den menschlichen Körper, eine versteckte Pistole in der Unterhose oder ein Keramikmesser unter dem Arm fällt das Frequenzspektrum jeweils signifikant verschieden aus. Alternativ hierzu favorisierten Forscher eines Jenaer Instituts für photonische Technologien ein passives System, das nur die Strahlen analysiert, die ohnehin von den Untersuchungsobjekten abgegeben werden. Im Fall des menschlichen Körpers geht es um gerade einmal 10 hoch minus 14 Watt. Um die Detektoren empfindlich genug zu machen, kühlen die Forscher ihre Messtechnik auf Temperaturen knapp über dem absoluten Temperaturnullpunkt ab. Sensoren und Signalverstärker arbeiten supraleitend. Bei dem verwendeten Material handelt es sich um Niob mit einer Sprungtemperatur von minus 263,9 Grad Celsius. Der von dem Institut ersonnene Scanner ermöglicht den passiven Nachweis der Strahlung dergestalt, dass die vom Körper abgegebenen Terrahertzwellen die Sensoren gerade so stark erwärmen, dass sich der Strahlungseinfall noch messen lässt. Die Technik ist etwa eine Millionen Mal sensibler als Infrarotkameras, wie sie zum Beispiel in Nachtsichtgeräten zum Einsatz kommen. Bereits zum Zeitpunkt des Aufkommens der Terrahertz-Sensorik prognostizierten Wirtschaftsfachleute einen Boom für Körperscanner. So wurde das Marktvolumen für sicherheitstechnische Ausrüstungen und Produkte allein in Europa auf fast zehn Milliarden Euro geschätzt, das heißt, Verkäufe von etwa 50.000 neuen Geräten zu Stückpreisen von 100.000 bis 200.000 Euro.
Auch die Raumfahrt leistete bei der Technologieentwicklung zur Terrahertzstrahlung mit ihren spezifischen Anforderungen Schützenhilfe. Bei der Exploration des Weltraums hatte man Missionen ins Auge gefasst, die auf Betreiben der Europäischen Weltraumorganisation ESA erlauben würden, neue Erkenntnisse für astronomische Fragestellungen zu gewinnen. Dies erlaubt nicht nur den Nachweis spezieller Moleküle in interstellaren Medien, sondern ermöglicht auch die Bestimmung von deren Temperatur und Dichte. Überdies erwies sich die satellitengestützte Bestimmung von Molekülen und deren Höhenverteilung in der Atmosphäre von Planeten als zielführend. Messungen der Erdatmosphäre erlauben insbesondere, Daten zu gewinnen, mit denen ein verbessertes Verständnis des Ozonlochs und der Erderwärmung möglich ist. Die ESA setzte bei der Durchführung der mit dem Namen StarTiger bezeichneten Initiative von Anfang an auf Interdisziplinarität, was sich zum Beispiel in der Zusammensetzung der Projektteams niederschlug. Schon das erste Pilotvorhaben im Jahr 2002 führte zur Entwicklung eines Bildgebungsverfahrens für den Terrahertzbereich sowohl für die astronomische Fernerkundung als auch zur Umweltüberwachung. Aus diesen beiden Aktivitäten entstand die beschriebene Sicherheitstechnik für Flughäfen im Sinne eines erfolgreichen Technologietransfers.
Magnetschwebebahnen gelangen für einen Routinebetrieb durch die Entdeckung der Hochtemperatursupraleiter in greifbare Nähe, da man sich den Umstand zunutze machen kann, dass ein Supraleiter unterhalb einer bestimmten Temperatur nicht nur den elektrischen Widerstand verliert, sondern auch Magnetfelder aus seinem Inneren verdrängt. Der aus Yttrium-Barium-Kupferoxid bestehende Keramiksupraleiter mit einer Sprungtemperatur von minus 183 Grad Celsius verdrängt Magnetfelder aus seinem Inneren, sodass er auf dem Magneten schweben kann. Bei dem verwendeten Typ wird jedoch nicht das ganze Material supraleitend, sondern es bilden sich „Flussschläuche“, das heißt normalleitende Bereiche, in denen Magnetfelder gefangen werden. Diese Schläuche können sich allerdings kaum bewegen. Der Supraleiter „merkt“ sich das beim Einfrieren vorhandene Feld und versucht immer wieder, dorthin zurückzukehren. Damit der Zug sich zwar fortbewegen kann, aber nicht aus der Bahn fliegt, wenn er in die Kurve fährt, ist das Magnetfeld in Fahrtrichtung gleichbleibend, aber in Querrichtung schnell wechselnd. Somit kann sich der Supraleiter nach vorne bewegen, da er keine Änderung des Feldes „sieht“, aber er kann sich nur unter großer Kraftanstrengung zur Seite bewegen.
Deutschland war auf dem Gebiet der Magnetschwebahn Wegbereiter. Mit einer Langstreckenverbindung zwischen Berlin und Hamburg wurde nach der Wiedervereinigung die unter dem Namen Transrapid bekannt gewordene reibungsfreie Zugtechnik in den Probebetrieb genommen. Mit dem Transrapid konnten Geschwindigkeiten von 450 Kilometern pro Stunde erzielt werden, also die Hälfte der Reisegeschwindigkeit von Reisejets. Die maximal erreichbare systembedingte Höchstgeschwindigkeit des Transrapid beträgt 550 Kilometer pro Stunde. Im Jahr 2003 unterzeichneten der damalige Bundeskanzler Gerhard Schröder und der chinesische Premierminister ein Abkommen über eine 30 Kilometer lange Teststrecke zwischen dem Flughafen und Shanghai. Es wurde von deutscher Seite angestrebt, die 1.300 Kilometer lange Strecke zwischen Shanghai und Peking mit der Schwebebahntechnik eines Industriekonsortiums zweier großer deutscher Technologiekonzerne zu realisieren. Trotz aller nachgewiesenen Machbarkeitsvorteile entschied sich die chinesische Seite jedoch aus politischen Gründen für eine eigene Schnellzugverbindung.
Auch andernorts entschied man sich grundsätzlich gegen die Fortführung der Umsetzung des Magnetschwebebahnkonzeptes, da die rasante technische Entwicklung schienengebundener Hochgeschwindigkeitszüge wie zum Beispiel der deutsche ICE oder der französische TGV mit der Erreichung von Geschwindigkeiten im Bereich 300 bis 330 Kilometer pro Stunde ermöglichte. Noch höhere Geschwindigkeiten vergleichbar mit denen des Transrapid wurden in Tests für den TGV bereits demonstriert.
Supraleitende Motoren und Generatoren sind aus dem Alltag nicht mehr wegzudenken, obgleich meistens von der Öffentlichkeit nicht als solche wahrnehmbar. 20 Jahre nach der Entdeckung der Hochtemperatursupraleiter wurde im Frühjahr 2006 der weltweit erste Generator auf HTS-Basis für den Antrieb von Schiffen präsentiert. Er ist leichter, kleiner und leistungsfähiger als konventionelle Aggregate und sehr flexibel in unterschiedlichen Schiffstypen und sogar auf Bohrinseln einsetzbar. Bislang erzeugen riesige Dieselmotoren und Generatoren elektrische Energie für Schiffe. Künftig könnten wesentlich kleinere Gasturbinen und HTS-Generatoren Strom für Antrieb und elektrische Versorgung liefern. Das, was ein Forscherteam der Siemens AG vorantrieb, war die Vorstellung, nach wenigen Jahren Entwicklertätigkeit tief unten in den stampfenden und rollenden Schiffsrümpfen Strom für den Antrieb und die Bordelektronik zu erzeugen. Schon bald surrte der erste schnelllaufende HTS-Generator von der Größe eines Kleinwagens mit 3.600 Umdrehungen pro Minute. Erste Generatorsysteme hatten Leistungen von mehreren Megavoltampere, womit sich Tausende von Einfamilienhäusern energetisch versorgen ließen, und sie sind deutlich kleiner als herkömmliche Generatoren. Wie üblich dreht sich im HTS-Aggregat ein Rotor in einem zylindrischen Gehäuse, dem Ständer. Wird der Rotor durch eine Antriebswelle in Drehung versetzt, erzeugt sein Magnetfeld in den Spulen des Ständers eine elektrische Spannung. Diese Energie wird abgeleitet und genutzt. Als Wicklungen des Rotors werden Drähte aus HTS-Keramik verwendet. Das HTS-Material kann im tiefgekühlten Zustand deutlich mehr Strom aufnehmen. Als Ergebnis konnten Gewicht und Volumen eines 4-Megavoltampere-Generators auf 70 Prozent der Werte gewöhnlicher Maschinen reduziert werden. Zugleich wurden die Energieverluste halbiert und der Wirkungsgrad verbessert. Der erzielte Vorteil kann in diesem Leistungsbereich bei den erreichten Größenverhältnissen als geradezu revolutionär bezeichnet werden. Bei konventionellen Maschinen könnte der Wirkungsgrad nur mit höherem Materialeinsatz und überproportionaler Vergrößerung von Masse und Volumen verbessert werden. Die HTS-Generatoren können vor allem auf „vollelektrischen“ Schiffen (VES) eingesetzt werden. Die Schiffsschrauben der VES werden nicht direkt durch große Dieselmotoren angetrieben. Stattdessen versetzt eine Gasturbine einen Generator in Rotation. Der so erzeugte Strom gelangt dann zu mehreren kleineren Elektromotoren für die Schiffsschrauben, sodass der VES-Antrieb Platz einspart. Statt riesiger Dieselmotoren lassen sich etliche kleine Erzeugungseinheiten im Schiffsbauch besser unterbringen. Jachten können dadurch schlanker designet werden, was den energiefressenden Wasserwiderstand deutlich verringert.
Bislang gibt es erst wenige vollelektrische Schiffe. Doch der alternative Antrieb liegt im Trend, insbesondere bei Kreuzfahrtschiffen, wo inzwischen fast jeder Neubau mit VES-Maschinen ausgestattet wird. Denn der elektrische Antrieb bietet noch weitere Vorteile. Er ist viel ruhiger als der tuckernde Diesel und die Energie dient zusätzlich der Hotellerie an Bord. Ein Drittel des Stroms wird für Küche, Beleuchtung und Passagierkomfort verbraucht. Ein weiterer Grund für die Popularität der VES ist darin begründet, dass sich Kreuzfahrtschiffe oder Privatjachten eher gemächlich bewegen, viele Häfen anfahren und gelegentlich Zwischensprints einlegen. Da sich an Bord großer VES pro Schiffsschraube etwa drei kleine Elektromotoren befinden, kann je nach Bedarf die optimale Zahl an Turbinen und Generatoren zugeschaltet werden. Das ist effizienter als der Dieselantrieb im gedrosselten Betrieb.
Seit über zehn Jahren wird der effizienten Energiespeicherung vermittels supraleitender Spulen (SMES) in Wissenschaft und Forschung hohe Aufmerksamkeit geschenkt. Derartige Systeme könnten die Elektrizitätserzeugung und deren Speicherung sowie ihren Verbrauch in gewisser Weise entkoppeln. Für viele neue Technologien der Elektrizitätserzeugung oder für neue Elektrizitätsanwendungen ist das Vorhandensein effizienter Speichertechniken eine Voraussetzung im Sinne von Schrittmachertechnologien. Zwar sind Speicherbatterien (Akkumulatoren) seit Langem eingeführt und erprobt, allerdings sind sie für viele Anwendungen aufgrund ihrer Eigenschaften nur bedingt oder nicht geeignet. Darum begann man die Suche nach technischen Alternativen. Neben Schwungradsystemen wurde auch der Energiespeicherung in supraleitenden Spulen (abgekürzt SMES für „Superconducting Magnetic Energy Storage“) verstärkt Aufmerksamkeit geschenkt.
Für die SMES-Technologie bedient man sich der Eigenschaft von Spulen, in dem durch sie aufgebauten magnetischen Feld Energie zu speichern. Zu den aus technischer Sicht besonders interessanten Eigenschaften eines SMES-Speichers zählen die kurze Zugriffszeit von wenigen zehn Millisekunden, der hohe Umwandlungswirkungsgrad (das heißt der Wirkungsgrad ohne Berücksichtigung der Hilfsenergieverbräuche) von weit über 90 Prozent, die hohe kalendarische Lebensdauer und hohe Zyklenlebensdauer sowie die mit selbstgeführten Stromrichtern mögliche unabhängige Steuerung von Wirk- und Blindleistung. Dem stehen aber auch Einschränkungen gegenüber. Hierzu zählt, dass die Stromrichterspannung durch die Auslegung begrenzt ist, wodurch mit abnehmendem Energieinhalt auch die entnehmbare Maximalleistung abnimmt. Zudem tritt ein ständiger Kühlleistungsbedarf auf, der abhängig von der Spulengröße und damit dem Energieinhalt ist und mindestens einige Prozent des Speichervermögens pro Tag beträgt. Damit ist der Gesamtnutzungsgrad des Systems stark von der Zyklusdauer abhängig.
Für Speicher dieser Art ist theoretisch eine Vielzahl von Einsatzmöglichkeiten denkbar. Vorgestellte Konzepte für den Bereich der elektrischen Energieversorgung reichen von großen Systemen für den Tageslastausgleich in Elektrizitätsversorgungsnetzen über mittelgroße Systeme zur Pufferung von größeren Elektrizitätserzeugungsanlagen auf der Basis intermittierender regenerativer Energiequellen oder als Sekundärreserve in thermischen Kraftwerken bis zu Kleinanlagen für Stabilisierungsaufgaben in der Stromübertragung oder zur Sicherung einer unterbrechungsfreien Stromversorgung bei sensiblen Verbrauchern. Auch im Verkehrsbereich ließen sich SMES einsetzen, beispielsweise zum Tageslastausgleich in der Bahnstromversorgung oder zur Spannungsstabilisierung auf dicht befahrenen Strecken des schienengebundenen Nahverkehrs.
Darüber hinaus gibt es Nischenanwendungen im Bereich der Forschung, so zur Stromversorgung von Verbrauchern mit kurzzeitigem hohem Leistungsbedarf wie im Falle von Beschleuniger- oder Fusionsexperimenten. Im Vordergrund öffentlich geförderter Vorhaben stehen vor allem Speicher mit Energieinhalten im Gigawattstundenbereich mit Leistungen von mehreren Hundert Megawatt zum Tageslastausgleich in der öffentlichen Stromversorgung.
Eine Speicherung von elektrischer Energie zum Zweck der Bereitstellung bei hohem Leistungsbedarf über längere Zeit dient primär dazu, die Stromerzeugung insgesamt wirtschaftlicher zu gestalten. Eine wirtschaftliche Speicherung von Elektrizität ist überall da von Nöten, wo der Bedarf an elektrischer Energie im Laufe des Tages wesentliche Schwankungen aufweist oder die Elektrizitätserzeugung nicht ohne technische Beschränkungen, Wirkungsgradverschlechterungen oder verstärkten Verschleiß der Anlagen einem schwankenden Leistungsbedarf der Verbraucher gerecht werden kann. Durch eine Speicherung der Elektrizität selbst ist zwar keine Einsparung von elektrischer Energie möglich, bei einer Bilanzierung über das Gesamtsystem zeigt sich jedoch, dass sich bei geeigneten Randbedingungen der gesamte Energieaufwand pro Einheit Nutzenergie reduzieren lässt. Elektrizitätsspeichersysteme für diesen Einsatzzweck werden von der Elektrizitätswirtschaft primär im Hinblick auf ihre Möglichkeit, die mittleren Stromerzeugungskosten zu reduzieren, und damit anhand ihres Gesamtwirkungsgrades und der Systemkosten bewertet.
Im Hinblick auf den Einsatz in der Spitzenlastdeckung ist die Wirtschaftlichkeit eines Supraleitersystems zu vergleichen mit der von Primärerzeugern (Gasturbinen, Verbrennungsmotoren, zukünftig vielleicht auch Brennstoffzellen), von Speichersystemen sowie anderen Maßnahmen von Energieversorgungsunternehmen (EVU) zur Steuerung des Leistungsbedarfs wie z. B. dem Lastmanagement. Es zeigte sich, dass SMES für die Spitzenlastdeckung über den gesamten plausiblen Ausnutzungsbereich die teuerste Technologie sind. Selbst unter äußerst optimistischen Annahmen werden SMES in der Spitzenlastdeckung teurer als konventionelle Gasturbinen, Pumpspeicher oder Druckluftspeicher bleiben. Größere SMES-Anlagen werden unter den derzeitigen Rahmenbedingungen also nur dann Anwendungen finden können, wenn es gelingt, Speicherspulen zu deutlich geringeren Kosten als heute absehbar zu fertigen, oder wenn aus ökologischen oder anderen Gründen Primärerzeuger beziehungsweise andere Speichersysteme nicht einsetzbar sind. Zudem verfügen einige der konventionellen Techniken noch über beträchtliches Entwicklungspotential, was kompetitive Vorteile von SMES eventuell reduziert. Weitere mutmaßliche technische Vorteile von großen SMES gegenüber anderen Speichersystemen stoßen häufig nicht auf einen entsprechenden Bedarf seitens der Elektrizitätswirtschaft.
Unter Status-Quo-Bedingungen (Dominanz der großtechnischen Stromerzeugung, gegenwärtige Zusammensetzung des Kraftwerksparks mit einem hohen Anteil fossiler Brennstoffe in der Grund- und Mittellast, nur noch begrenztes Ausbaupotenzial für Wasserkraftwerke, De-facto-Moratorium bei der Kernenergie) wäre der Einsatz von Tagesspeichern für die EVU nur dann betriebswirtschaftlich lukrativ, wenn diese zu sehr geringen Jahreskosten (und folglich geringen Investitions- und Betriebskosten) betreibbar wären. Diese Kostengrenze wird schon durch die heute großtechnisch verfügbaren Speichertechnologien derzeit in der Regel nicht erreicht. Eine Reduktion dieser beim Einsatz von SMES-Systemen entstehenden Kosten auf das unter heutigen Bedingungen erforderliche Niveau ist derzeit nicht wahrscheinlich.
Zu berücksichtigen ist bei den Überlegungen zum Einsatz großer Speicher außerdem, dass die hydraulischen und nuklearen Kapazitäten schon heute mit relativ hohen jährlichen Ausnutzungsdauern betrieben werden. Ein Speichereinsatz würde ihre Ausnutzungsdauer nur noch geringfügig erhöhen können. Bei einem ausgedehnten Speichereinsatz würde der Hauptteil der in der Nachtzeit dem Speicher anzubietenden Elektrizität durch die (hauptsächlich mit Steinkohle gefeuerten) Mittellastkraftwerke bereitzustellen sein. Abgelöst werden durch den Speichereinsatz primär gas- und ölbetriebene Spitzenlastkraftwerke. Eine Substitution von Erdgas in der Spitzenlast durch Mittellaststeinkohle ist unter der Annahme heutiger Preise und in Kenntnis der gegenwärtigen Prognosen der Preisentwicklung nicht nur wirtschaftlich nicht sinnvoll. Auch würden die Emissionen von klimarelevanten Gasen und anderen Schadgasen der Energieversorgung dadurch eher steigen.
Ungeklärt ist nach Auffassung von Fachleuten zudem, ob sich Magnete für Großspeicher überhaupt bauen lassen. Solenoide der diskutierten Größenordnung (mehrere Hundert Meter Durchmesser) wie auch einige Toroidkonzepte (Durchmesser der aufrecht stehenden Einzelspulen ca. 40 Meter) werfen Probleme nicht nur wegen ihrer Baugröße, sondern vor allem wegen der hohen technischen Komplexität dieser Systeme auf. Da viele notwendige Einzelkomponenten aufgrund ihrer Größe nicht mehr transportiert werden können, würde eine umfangreiche Vorortfertigung notwendig werden. Hinzu kommt, dass sich das Spulensystem nur am Standort (und bei Solenoiden auch nur nach Fertigstellung der Gesamtanlage) testen ließe, was eine ausgedehnte Infrastruktur voraussetzt. Neben diesen eher grundsätzlichen Problemen bedürfen auch noch viele wichtige technische Detailfragen einer Klärung. Hierzu sind noch umfangreiche, vor allem praktische Forschungsarbeiten zu leisten, bevor eine genauere Beurteilung wesentlicher technischer und wirtschaftlicher Parameter möglich ist.
Zudem wird es systembedingt für viele Anwender kein SMES-System „von der Stange“ und damit kaum wesentliche Kostenreduktionen aufgrund von Lernkurveneffekten geben. Weitere mutmaßliche technische Vorteile von großen SMES gegenüber anderen Speichersystemen stoßen häufig nicht auf einen entsprechenden Bedarf der Elektrizitätswirtschaft. Generell kann festgestellt werden, dass kurz- und mittelfristig in Deutschland ein Bedarf für die Entwicklung großer SMES als Tagesspeicher nicht erkennbar zu sein scheint. Es könnte jedoch langfristig unter der Vorrausetzung starker Veränderungen in den Organisationsstrukturen der Elektrizitätswirtschaft und in der Zusammensetzung des Kraftwerksparks verstärkter Bedarf an Speichertechnologie entstehen. Der gegenwärtige Stand der Technik lässt allerdings für den Tagesspeichereinsatz keine eindeutige technische oder wirtschaftliche Überlegenheit von SMES gegenüber anderen konventionellen Speichertechniken erkennen.
Neben dem Einsatz von SMES als Großspeicher wird ein zweiter zentraler Einsatzbereich von SMES-Anlagen diskutiert, nämlich die Speicherung von elektrischer Energie zur sofortigen Bereitstellung oder Aufnahme elektrischer Leistung im Bedarfsfall sowie die periodische Leistungsbereitstellung mit einer Periodendauer im Sekundenbereich. Hierbei ist gefordert, sehr schnell hohe elektrische Leistungen abgeben oder aufnehmen zu können. Da die meisten Anwendungen von SMES-Anlagen dies lediglich für kurze Dauern erfordern, werden oft nur geringe Energiemengen benötigt (großes Primärenergieverhältnis P/E). SMES haben bei vielen dieser Anwendungen, die man auch dynamische Anwendungen nennt, deutliche technische Vorteile gegenüber den konventionellen Alternativen. Dies ist insbesondere auf die sehr guten dynamischen Eigenschaften von SMES-Anlagen wie schnelle Zugriffszeit, hohe Zyklenfestigkeit und unkritische Tiefentladung zurückzuführen. Für dynamische Anwendungen sind die Gesamtwirkungsgrade in der Regel von untergeordneter Bedeutung, im Vordergrund steht vielmehr die technische Funktionalität des Systems.
Eine Beurteilung des „Wertes“ einer Technologie für solche Einsatzbereiche ist schwierig und häufig sehr subjektiv. So fehlen bislang verlässliche und akzeptierte Daten zur Quantifizierung unter Berücksichtigung der durch Lastveränderungen bei Kraftwerken verursachten dynamischen Kosten. Gleiches gilt für die Reservehaltung oder die Versorgungsqualität. Einer sicheren und qualitativ hochwertigen Stromversorgung wird sowohl seitens der EVU als auch seitens der Verbraucher ein hoher Stellenwert beigemessen, wobei die tatsächlich technisch notwendigen Qualitätserfordernisse der Verbraucher recht unterschiedlich sind. Aus physikalischen wie auch aus infrastrukturellen und wirtschaftlichen Gründen sind zumindest auf den höheren Netzebenen keine unterschiedlichen Qualitätsstandards denkbar. Die Betriebsmittel sind technisch auf ein hohes Qualitäts- und Zuverlässigkeitsniveau ausgelegt. Es hängt im Einzelfall davon ab, ob die notwendigen Kosten dafür durch die Verbraucher getragen werden.
SMES-Anlagen kleine(re)n Energieinhaltes und vergleichsweise großer Leistung bieten im Bereich der dynamischen Anwendungen eine Reihe attraktiver Möglichkeiten. Hierzu zählen Themen wie Primärregelreserve (Frequenz-Wirkleistung-Regelung), Dämpfung von Netzschwankungen, Gewährleistung einer unterbrechungsfreien Stromversorgung (USV), Pufferung von Stoßlasten, Anwendungen in der Bahnstromversorgung sowie mobile Anwendungen.
Es konnte gezeigt werden, dass in einigen dieser Anwendungsbereiche SMES durchaus wettbewerbsfähig mit konventionellen Maßnahmen beziehungsweise alternativen Speichertechniken sein können. Allerdings sind globale Aussagen dazu nicht möglich, vielmehr bedarf es in der Regel einer standort-, anwender- und anwendungsspezifischen Untersuchung.
Durch SMES-Anlagen entstehen elektromagnetische Felder, die auf im Umfeld befindliche lebende Organismen und Systeme einwirken. Biologische Wirkungen elektromagnetischer Felder sind von zentraler Bedeutung für die Beurteilung der Umweltverträglichkeit von SMES und die Akzeptanz solcher Systeme in der Bevölkerung.
Empirie und Theorie der biologischen Wirkungen elektromagnetischer Felder sind zurzeit in vielen wesentlichen Punkten mit großen Ungewissheiten behaftet. Deshalb kann auch die Bewertung der Gesundheitsfolgen von biologischen Wirkungen oft nur mit Ungewissheit vorgenommen werden. Auch die für Deutschland relevanten Grenzwerte reproduzieren diese Ungewissheit. Allerdings werden Ungewissheiten zum Teil durch vorsorglich ergriffene Sicherheitsmaßnahmen aufgefangen. Die aktuellen Grenzwerte im Bereich der in der SMES-Anlage Tätigen werden durch die betrachteten Felder von Solenoid-Anlagen um Größenordnungen überschritten. Dies könnte für den Bau der Anlage juristisch relevant sein. Auch gesellschaftlich ist die Risikoproblematik umstritten. So stehen Forderungen nach wesentlich niedrigeren als den gültigen Grenzwerten nur an wohl bestätigten Wirkungen zu orientieren. Aus all dem leitet sich nachfolgende Empfehlung ab: Erstens aufgrund vieler wissenschaftlich und gesellschaftlich ungeklärter Fragen, zweitens auch in Einklang mit allgemeinen Vorsorgeprinzipien, wie sie in relevanten Richtlinien ausgesprochen werden, und drittens schließlich wegen der erwähnten Grenzwertüberschreitungen sollten Feldexpositionen durch SMES-Felder so klein wie möglich gehalten werden. Dies bedeutet, dass bereits beim Entwurf und beim eventuellen Bau von SMES-Anlagen auf Spulenformen mit geringen äußeren Feldern, wie beispielsweise Toroidspulen zurückgegriffen werden sollte.
Elektrizitätsspeichersysteme für die Spitzenlastdeckung sind derzeit nur in Ausnahmefällen wirtschaftlich attraktiv. Dies könnte sich ändern, wenn sie zu wesentlich geringeren Kosten realisierbar wären oder sich die wirtschaftlichen, organisatorischen oder gesellschaftlichen Rahmenbedingungen der Elektrizitätswirtschaft ändern sollten. Einige denkbare Beispiele wären:
1. In konventionellen Spitzenlastkraftwerken (und auch in den für diesen Einsatzzweck für die Zukunft vorgeschlagenen Brennstoffzellen) werden hauptsächlich hochwertige fossile Brennstoffe wie Erdgas oder Erdölprodukte eingesetzt. Sollten diese sich wesentlich verteuern oder ihr Einsatz aus anderen Gründen wie zum Beispiel Emissionen nicht mehr opportun erscheinen, könnten Spitzenlastkraftwerke durch Speichersysteme ersetzt werden. Längerfristig würde ein solches Szenario einhergehen mit einem verstärkten Ausbau von Grundlastkraftwerken mit niedrigen spezifischen Stromgestehungskosten. Wenn diese auf Kohlebasis arbeiten, so ist in der Emissionsbilanz zumindest keine Entlastung zu erwarten. Ob in Zukunft wieder Kernkraftwerke errichtet werden, wird kontrovers diskutiert und unterliegt der gesellschaftlichen Konsensfindung.
2. Verschiedene derzeit im politischen Raum diskutierte Überlegungen zur wettbewerbsnäheren Gestaltung der Stromversorgung hätten tiefe Eingriffe in die Organisationsstruktur der Elektrizitätswirtschaft zur Folge. Sie würden die für das neue System zentrale, in der deutschen Elektrizitätswirtschaft nicht bekannte Figur des Netzbetreibers hervorbringen. Dieser ist für die Sicherheit, Zuverlässigkeit und Leistungsfähigkeit in seinem Gebiet – und damit auch für die Spannungshaltung und den Lastenausgleich – sowie den Netzausbau verantwortlich.
Für den Netzbetreiber böten sich mehrere Möglichkeiten, den Regelaufgaben in seinem Teilnetz zu entsprechen. Neben vertraglichen Regelungen mit den Betreibern der entsprechenden Kraftwerke oder dem Vorhalten der Regelreserve ausschließlich in eigenen Kraftwerken könnte der Netzbetreiber die Regelungsaufgaben mittels eigener Speicher, die er je nach Angebot zu Poolpreisen füllen kann und die für Lastausgleich, Spannungshaltung, Reservebereitstellung etc. zur Verfügung stehen und dementsprechend auszulegen wären, realisieren.
3. Bei verstärkter Einspeisung intermittierender regenerativer Energiequellen in der Zukunft werden neue Anwendungsfelder für Energiespeicher eröffnet. Das Problem der Langzeitspeicherung wird mit SMES aufgrund des hohen Hilfsenergieverbrauchs wirtschaftlich nicht befriedigend gelöst werden können, besonders bei umfangreicher photovoltaischer (PV) Stromerzeugung entsteht aber Speicherbedarf im Kurzzeitbereich. Auch an Tagen mit guter Witterung sind plötzliche Einbrüche der PV-Leistung nicht auszuschließen. Eine solche Situation stellt bei höheren Einspeiseanteilen große Anforderungen an die Regelbarkeit der konventionellen Kraftwerke. Hier könnte der Einsatz schneller Elektrizitätsspeicher geboten sein und – abgesehen von den bekannten wirtschaftlichen Problemen – ihre Verfügbarkeit möglicherweise ein verstärktes Eindringen von Regenerativen in den Markt der Stromerzeugung erst ermöglichen.
4. Nukleare Erzeugungsanlagen erfordern eine stabile Betriebssituation und sind schlecht oder gar nicht geeignet, Lastschwankungen zu folgen. Sollte in ferner Zukunft die Vorstellung einer nuklearen Energieversorgung – sei es Kernspaltung oder Fusion – verwirklicht werden, so würde eine darauf basierende Struktur größere und vergleichsweise schnelle Speicher erfordern.
Vor dem Hintergrund der beschriebenen Potenziale der SMES sollte man sich die damit grundsätzlich in Verbindung stehenden Kosten-Nutzen-Verhältnisse vor Augen führen.
Die Anforderungen an das Kühlsystem für Hoch- und Tieftemperatursupraleiterringspulen der Ausgangstemperaturen minus 196, minus 253 und minus 269 Grad Celsius nehmen in dieser Reihenfolge zu. Die Kühlanforderungen sind als die elektrische Leistung definiert, die benötigt wird, um das Kühlsystem zu betreiben. Während die gespeicherte Energie um den Faktor 100 höher liegt, steigen die Kühlkosten nur um den Faktor zwanzig. Die Einsparungen der Kühlung sind für ein Hochtemperatursystem um 60 bis 70 Prozent größer als für Tieftemperatursysteme.
Ob Hochtemperatursupraleiter oder Tieftemperatursupraleiter wirtschaftlicher sind, hängt auch von anderen wesentlichen Komponenten ab, die die Gesamtkosten von SMES bestimmen, wie zum Beispiel Leiter bestehend aus Supraleiter und Kupferstabilisator sowie Kälteunterstützung. Diese sind bereits nennenswerte Kostenelemente an sich. Sie müssen beurteilt werden vor dem Hintergrund der Gesamteffizienz und Anlagenkosten. Andere Komponenten wie Vakuumbehälterisolation zeigten sich als kleiner Anteil im Vergleich zu den hohen Spulenkosten. Die kombinierten Kosten der Leiter, Struktur und Kühlung der Ringkerne werden durch die des Supraleiters dominiert. Der gleiche Trend zeichnet sich für die Magnetspulen ab. Hochtemperatursupraleiterspulen kosten das Doppelte bis Vierfache von Tieftemperaturspulen.
Um einen gewissen Einblick zu gewinnen, ist die Betrachtung der Aufschlüsselung nach den Hauptkomponenten für sowohl Hochtemperatursupraleiter als auch Tieftemperatursupraleiter für die drei typischen Energiespeicherniveaus von 2, 20 und 200 Megawattstunden hilfreich. Die Leiterkosten überwiegen die drei Kostenelemente für alle vorgenannten Fälle von Hochtemperatursupraleitern, insbesondere bei kleinen Abmessungen. Der Hauptgrund liegt in der vergleichbaren Stromdichte der Materialien von Hochtemperatursupraleitern und Tieftemperatursupraleitern. Der kritische Strom für Hochtemperatursupraleiterdrähte ist allgemein niedriger als der von Tieftemperatursupraleiterdrähten bei Betrieb in Magnetfeldern von fünf bis zehn Tesla. Nehmen wir einmal an, dass die Drahtkosten gleichermaßen ins Gewicht fallen. Da Hochtemperatursupraleiterdrähte niedrigere kritische Stromstärken aufweisen als Tieftemperatursupraleiterdrähte, bedarf es mehr Draht zur Erzeugung der gleichen Induktion. Aus diesem Grund sind die Drahtkosten viel höher als die von Tieftemperaturdrähten. Wenn die SMES-Größe von 2 über 20 bis 200 Megawattstunden zunimmt, steigen zudem die Leiterkosten von Tieftemperatursupraleitern ebenfalls schrittweise um den Faktor zehn. Die Hochtemperaturleiterkosten steigen ein wenig geringer, stellen aber bei Weitem den teuersten Baustein dar.
Die Strukturkosten von sowohl Hochtemperatursupraleitern als auch Tieftemperatursupraleiterm steigen gleichmäßig um den Faktor zehn für die besagten Schrittweiten. Allerdings sind die Kosten der Struktur der Hochtemperatursupraleiter höher, da bei diesen die Dehnungstoleranz (Keramiken können keine hohen Zugkräfte vertragen) geringer ist als bei Tieftemperatursupraleitern wie zum Beispiel Niob-Titan oder Niob-Zinn, wodurch mehr Strukturmaterial erforderlich ist. Somit können in den meisten Fällen die Kosten der Hochtemperatursupraleiter nicht einfach durch eine Reduktion der Spulengröße in einem entsprechen höheren Magnetfeld ausgeglichen werden.
Man sollte an dieser Stelle anmerken, dass die Kosten der Kühlung in allen betrachteten Fällen nur einen begrenzten Einfluss auf die Gesamtsystemkosten haben. Dies bedeutet auch, dass in Fällen von Hochtemperatursupraleitern, die besser bei niedrigen Temperaturen (z. B. minus 250 Grad Celsius) betrieben werden können, eine solche Betriebstemperatur sinnvoll erscheint. In Fällen sehr kleiner SMES können reduzierte Kühlungskosten positivere signifikante Auswirkungen haben.
Die Ausmaße supraleitender Spulen nehmen mit der Menge der gespeicherten Energie zu. Man kann ebenfalls feststellen, dass der maximale Durchmesser des Torus des Tieftemperatursupraleiters stets kleiner ist für einen Hochtemperatursupraleitermagnet im Vergleich zu einem Tieftemperatursupraleiter aufgrund des höheren Magnetfeldbetriebs. Im Fall von Magnetspulen ist die Höhe oder die Länge ebenfalls kleiner für Hochtemperatursupraleiterspulen, aber noch viel größer als bei Tori (aufgrund niedriger externer Magnetfelder).
Eine Zunahme in Spitzenmagnetfeldern führt zu einer Abnahme in sowohl Volumen (höhere Energiedichte) als auch Kosten (reduzierte Leiterlänge). Kleineres Volumen bedeutet höhere Energiedichte und die Kosten werden reduziert aufgrund der Abnahme der Leiterlänge. Es gibt einen optimalen Wert des Spitzenmagnetfeldes von etwa sieben Tesla. Wenn das Feld weiter erhöht wird, sind weitere Volumenreduktionen bei minimaler Kostenzunahme möglich. Die Grenze, bis zu der das Feld gesteigert werden kann, ist üblicherweise nicht wirtschaftlich, obgleich physikalisch möglich.
Materialentwicklungen sind Schlüsselthemen im Bereich Forschung und Entwicklung auf dem Gebiet der SMES. Entwicklungen konzentrieren sich auf die Erhöhung der kritischen Stromstärke, Umfang des Dehnungsbereichs sowie Reduktion der Herstellungskosten supraleitender Drähte.
Bei der Suche nach den elementaren Bausteinen unserer Welt erwies sich die Supraleitung als zentrales Vehikel zu deren Auffinden. Am CERN, der Europäischen Organisation für Kernforschung im schweizerischen Kanton Genf, wird diesem Umstand dienende physikalische Grundlagenforschung betrieben.
Dem Aufbau der Materie wird mithilfe großer Teilchenbeschleuniger nachgegangen. Mit den großen Teilchenbeschleunigern werden Elementarteilchen auf nahezu Lichtgeschwindigkeit beschleunigt und zur Kollision gebracht. Mit einer Vielzahl unterschiedlicher Teilchendetektoren werden dann die Flugbahnen der bei den Kollisionen entstandenen Teilchen rekonstruiert. Hierdurch lassen sich wiederum Rückschlüsse auf die Eigenschaften der kollidierten beziehungsweise der neu entstandenen Teilchen ziehen.
Am Anfang der Experimente stehen Beschleuniger, die den Teilchen die für die Untersuchungen notwendige kinetische Grundenergie verleihen. Hierzu zählen das „Super Proton Synchrotron“ (SPS) für die besagte Vorbeschleunigung und der „Large Hadron Collider“ (LHC). Dieser große Hadronen-Speicherring ist der größte Teilchenbeschleuniger der Welt. Der Beschleunigerring hat einen Umfang von ca. 26,5 Kilometern, verläuft unterirdisch sowohl auf schweizerischem als auch auf französischem Staatsgebiet und enthält 9.300 Magnete.
Zur Durchführung der Experimente muss der Speicherring in zwei Schritten auf die Betriebstemperatur heruntergekühlt werden. Im ersten Schritt werden die Magnete mithilfe von flüssigem Stickstoff auf minus 193,2 Grad Celsius und in einem zweiten Schritt mittels flüssigen Heliums auf minus 271,25 Grad Celsius heruntergekühlt. Anschließend wird die Anlage kontrolliert hochgefahren. Die Teilchen werden in mehreren Umläufen auf nahezu Lichtgeschwindigkeit beschleunigt und mit extrem hoher kinetischer Energie zur Kollision gebracht.
Am 10. Juni 1955 erfolgte die Grundsteinlegung des CERN durch seinen ersten Generaldirektor Felix Bloch. Dieser hatte zuvor als Schweizer Physiker bedeutsame Arbeiten zum Ferromagnetismus sowie zur magnetischen Kernspinresonanz (NMR), wie bereits eingangs beschrieben, publiziert. Für seine Arbeiten auf dem Gebiet der NMR erhielt er 1952 zusammen mit dem Amerikaner Edward Mills Purcell den Nobelpreis für Physik.
Um die bei den Experimenten anfallenden ungeheuren Datenmengen verarbeiten zu können, werden die notwendigen Rechnersysteme permanent aktualisiert. Um Forschungsergebnisse unter den Wissenschaftlern des CERN schnellstmöglich und höchst effizient auszutauschen, wurde bereits 1989 hierfür ein Konzept entwickelt, das letztendlich zum World Wide Web avancierte.
Viele fundamentale Erkenntnisse über den Aufbau der Materie und der Grundkräfte der Physik wurden am CERN gewonnen. Die Entdeckung der W- und Z-Bosonen gelang 1983 dem späteren italienischen CERN-Generaldirektor Carlo Rubbia und dem Niederländer Simon van der Meer, wofür sie 1984 den Nobelpreis für Physik erhielten.
Nach Jahrzehnten der Suche wurde 2012 am CERN das Higgs-Boson, benannt nach dem Briten Peter Higgs, der seine Existenz im Jahr 1964 vorhergesagte, nachgewiesen. 2013 wurden den Teilchenphysikern Higgs und Francois Englert, der 1964 unabhängig von Higgs die gleiche Prognose aufgestellt hatte, der Nobelpreis für Physik verliehen.
Kurzschlussstrombegrenzer sind eine weitere Anwendung von Supraleitern, wobei es sich um elektronische Sicherungen handelt, die im Falle eines Defektes den im Stromnetz auftretenden Kurzschlussstrom begrenzen. Im Gegensatz zu herkömmlichen Strombegrenzern reduzieren supraleitende Strombegrenzer den Kurzschlussstrom innerhalb weniger Millisekunden. Dadurch kann beispielsweise die Überdimensionierung konventioneller Bauteile verhindert werden. Hierzu wird das supraleitende Bauelement einfach so dimensioniert, dass die im Kurzschlussfall auftretende Stromstärke die kritische Stromstärke überschreitet, sodass der Supraleiter normalleitend wird und einen ohmschen Widerstand aufweist. Durch die dabei auftretende Widerstandserhöhung wird der Strom begrenzt. Sobald der Normalzustand wieder eingetreten ist, wird der Stromfluss durch den Übergang in den supraleitenden Zustand wieder freigegeben. Mit diesem Prinzip lassen sich Kurzschlussströme in Energienetzen reduzieren. Dies erlaubt es, verschiedene Netze besser miteinander zu verbinden, sie effizienter auszulasten und auch andere Netzkomponenten einzusparen.
In diesen Strombegrenzern werden beispielsweise spiralförmige Schaltelemente aus Hochtemperatursupraleitern verwendet. Die aus dünnen HTS-Schichten strukturierten Spiralen sind noch mit einer dünnen Deckschicht aus Gold bedeckt. Damit die notwendigen Strom- und Spannungswerte eines derartigen Strombegrenzers eingestellt werden können, sind mehrere solcher Schaltelemente in Reihe und Serie miteinander verbunden. Da die Schaltelemente mit flüssigem Stickstoff gekühlt werden müssen, befinden sich diese in einem Kryostaten. Hierzu ist der Kryostat mit einer Kältemaschine verbunden, die den flüssigen Stickstoff auf einer konstanten Temperatur von etwa 77 Kelvin hält. Derartige Strombegrenzer mit einer Schaltleistung von einem Megavoltampere werden von Industrieunternehmen hergestellt.
Synchronmaschinen können sowohl als Generator als auch als Motor eingesetzt werden. Im Rahmen des öffentlichen, nicht zuletzt auch durch politische Entscheidungsträger animierten Diskurses über Transportsysteme der Zukunft verdienen supraleitende Motoren als innovativer Beitrag zur Verkehrstechnik besondere Beachtung.
Möglich wurde ein solches Gedankenexperiment mit konkretem Realitätsbezug durch die Entdeckung der bereits zuvor erwähnten Hochtemperatursupraleiter (HTS) im Jahr 1986. Die hierdurch ausgelösten intensiven Forschungs- und Entwicklungsarbeiten konzentrierten sich auf Materialien wie Bismut-Strontium-Calcium-Kupferoxid (BSCCO 2223) und Yttrium-Barium-Kupferoxid (YBCO 123), die unterhalb einer Sprungtemperatur von minus 163 Grad Celsius beziehungsweise minus 181 Grad Celsius zu widerstandslosen Stromleitern werden. Es mussten grundlegend neue Verfahren entwickelt werden, um aus diesen spröden Werkstoffen flexible Drähte für die industrielle Verarbeitung herzustellen.
Für die Drahtproduktion nach dem sogenannten Powder-in-tube-Verfahren werden mit Supraleiterpulver (BSCCO) gefüllte Silberrohre zu feinen Filamenten gezogen und gewalzt. BSCCO-Draht findet weltweit in Prototypen mit Supraleitertechnologie Verwendung. Für die meisten kommerziellen Anwendungen kann er mit einem Silberanteil von ca. 70 Prozent aber bestimmte Kostengrenzen nicht unterschreiten.
Als kosteneffiziente Alternative wurden Bänder mit supraleitender Beschichtung auf YBCO-Basis entwickelt. Mit neuen Verfahren bewältigte man nicht nur die Sprödigkeit der keramischen Leitersubstanz, es gelang auch, in der Beschichtung alle Kristalle des Leitermaterials gleichförmig auszurichten. Dies ist entscheidend, da der Ladungstransport in Hochtemperatursupraleitern stark richtungsabhängig ist und fast ausschließlich in bestimmten Schichten ihrer Kristallstruktur erfolgt. Bereits geringe Abweichungen würden die Übertragungsleistung deutlich schmälern.
Flexible Supraleiterbänder mit hoher Stromtragfähigkeit für energietechnische und industrielle Anwendungen, aber auch quasi einkristalline supraleitende Massivteile für Magnetlager, Stromzuführungen oder Magnetfeldabschirmungen wurden recht bald kommerziell hergestellt.
Eine Besonderheit stellen Rundleiter dar, die nur auf der Basis von BSCCO 2212 in die Entwicklung Eingang fanden. Sie sind vor allem von Interesse für einen Einsatz bei tiefen Temperaturen und extrem hohen Feldern wie sie z. B. in der Kernfusion benötigt werden. Aber auch für Beschleunigermagnete in der Hochenergiephysik bietet sich ihr Einsatz an.
Zum Themenbereich Transport ersann und erprobte man eine Reihe supraleitender Anwendungen, die in vielerlei Hinsicht den Mobilitätsanforderungen der Zukunft gerecht werden sollten. Hierzu sollen nachfolgend einige Beispiele näher beleuchtet werden.
Supraleitende Motoren mit Wechselstromsupraleitern wurden nach einigen Jahren erfolgreicher Forschungs- und Entwicklungstätigkeiten bereits Stand der Technik.
Konventionelle Personenkraftwagen mit elektrischem Antrieb sind seit dem ersten Jahrzehnt des zweiten Jahrtausends in aller Munde. Zu ihnen zählen insbesondere Fahrzeuge mit Energieversorgung mittels Akkumulatoren. Das Hauptmanko solcher Elektroautos besteht primär in ihrer geringen Reichweite von weniger als 200 Kilometern und langen Ladezeiten von bis zu mehreren Stunden. Darüber hinaus ist das Gewicht der Batterien beträchtlich, was zu nennenswerten Begrenzungen des Stauraums beziehungsweise der zusätzlich für Personen oder Gepäck zu Verfügung stehenden Ladekapazität führen kann.
Das erste Elektroauto der Welt wurde bereits 1888 von dem Coburger Fabrikanten Andreas Flocken entwickelt, also 23 Jahre vor der Entdeckung der Supraleitung. Was hat ein Elektroauto mit „konventioneller“ Batterietechnik in meinen Ausführungen über Supraleitung zu suchen? Wir werden zum Thema Auto auf Supraleiterbasis in Bälde noch kommen.
Das Elektroauto des Herrn Flocken wurde dadurch möglich, dass im gleichen Jahr die Accumulatoren-Fabrik Tudorschen Systems Büsche & Müller OHG in Hagen, die Keimzelle der Varta, die ersten Akkumulatoren mit entsprechender Energiedichte von 27 Wattstunden pro Kilogramm industriell gefertigt wurden. Bei dem Flocken-Elektrowagen handelte es sich ursprünglich, ähnlich der Motorkutsche von Gottlieb Daimler, um eine Chaise, die aber mit einem Elektromotor versehen wurde. Es handelte sich um einen hochrädrigen Kutschwagen mit einem Elektromotor, dessen Kraft per Lederriemen auf die Hinterachse des Drehschemel-Viersitzers übertragen wurde. Das Fahrzeug entsprach dabei noch weitgehend einer Pferdekutsche. Der Elektromotor des Flockenwagens wurde durch Akkumulatoren nach der Konstruktion des luxemburgischen Ingenieurs Henri Tudor (1859–1928) gespeist. Die Accumulatoren-Fabrik Tudorschen Systems Büsche & Müller OHG stellte zu der Zeit als einziges deutsches Unternehmen Bleiakkumulatoren industriell her.
Tudor hatte den 1859 von Gaston Plante entwickelten Bleiakkumulator leistungsstärker, effizienter und zuverlässiger gemacht. Die Akkus erreichten um 1890 schon eine Energiedichte von 27 Wattstunden pro Kilogramm. Die Akkus des Flockenwagens hatten ein Gewicht von rund 100 Kilogramm. 2012 wurde die Marke Flocken im deutschen Patent- und Markenamt eingetragen.
Etwa 125 Jahre nach der Geburtsstunde des Elektrofahrzeugs bedurfte es einmal mehr einer Energiekrise, um sich alternativen Fahrzeugantrieben verstärkt zuzuwenden. Nach dem im Jahr 2013 geäußerten Willen der deutschen Bundesregierung sollten bis zum Jahr 2020 eine Million Elektroautos fahren. Bis Ende 2013 lag die Anzahl der tatsächlich in Deutschland zugelassenen Elektroautos jedoch nur bei etwa 13.000. Die Preise für Akkus sind und werden ein entscheidender Faktor für die Marktentwicklung von Elektroautos sein. Lag im Jahr 2011 der Akkupreis noch bei 500 Euro pro Kilowattstunde, so waren 2014 aufgrund eines stattlichen Preisverfalls gerade noch gut 80 Euro fällig. Somit könnte man sich zur Überwindung der Markteintrittsschwelle für eine zunehmende Verbreitung von Elektroautos im Wesentlichen auf die Reichweitenzunahme konzentrieren.
Gemäß einer Anfang 2014 veröffentlichen Studie des Fraunhofer-Instituts für System und Innovationsforschung ISI zu „Markthochlaufszenarien für Elektrofahrzeuge“ wurde der Frage nachgegangen, welcher Marktanteil an Elektrofahrzeugen bis zum Jahr 2020 zu erwarten sei.
Es wurde ausgeführt, dass es zwar eine hohe Unsicherheit beim Markthochlauf von Elektrofahrzeugen gäbe, da dieser stark von externen Rahmenbedingungen wie der Batterie-, Rohöl- und Strompreisentwicklung abhinge, eine Zahl von einer Million Elektroautos aber unter günstigen Bedingungen auch ohne Kaufförderung möglich erscheine. Selbst unter ungünstigen Rahmenbedingungen, wurde prognostiziert, könnte bis 2020 eine nennenswerte Zahl von Elektrofahrzeugen von 150.000 bis 200.000 Exemplaren in den Markt kommen.
Eine Besonderheit des Elektroantriebs bietet sich aufgrund seiner Konzeptimmanenz dadurch an, dass derartige Fahrzeuge nicht grundsätzlich nur den Antrieb durch einen einzigen Motor nutzen können, sondern den Antrieb direkt über die einzelnen Radnaben ermöglichen. Radnabenmotoren kamen bereits im 20. Jahrhundert in Elektrofahrzeugen zum Einsatz. Schon Ferdinand Porsche rüstete ein Elektroauto für die Weltausstellung im Jahr 1900 mit lenkbaren Radnabenmotoren aus. Zu Beginn des zweiten Jahrzehnts dieses Jahrhunderts wurden im Bereich von Forschung und Entwicklung mehrere Prototypen für leistungsfähige Elektroautos mit Direktantrieb vorgestellt.
Hauptvorteil von Elektroradnabenmotoren ist der Wegfall des klassischen Antriebsstrangs von Antriebskonzepten mit zentralem Motor. Dessen Übertragungsverluste durch Komponenten wie (Schalt-)Getriebe, Kardanwelle, Differentialgetriebe und Antriebswellen bergen Potenziale zur Wirkungsgradsteigerung des gesamten Antriebssystems. Weiterhin bieten Antriebskonzepte mit Radnabenmotoren unter anderem wegen reduzierter Drehträgheit des Antriebsstrangs und der viel prompteren Regelung des Antriebsmoments eine wesentlich verbesserte Dynamik, die beispielsweise für Fahrsicherheitssysteme und die Fahrdynamikregelung genutzt werden kann.
Die „klassische“ Antriebstechnologie von Elektroautos ist die mit zentralem Motor. Der Ladevorgang kann wie folgt umrissen werden. Die Ladezeit hängt nicht nur von der Kapazität der Traktionsbatterie, sondern auch von der Ladetechnik und des zur Aufladung verwendeten Stromanschlusses ab. So steht zum Beispiel der Standardladevorgang zur Verfügung, wobei die Elektroautos mit ihren eingebauten Bordladegeräten an einer herkömmlichen Schuko-Steckdose mit 230-Volt-Haushaltsspannung aufgeladen werden. Zum Übertragen größerer Leistungen und damit zum Erzielen kürzerer Ladezeiten, steht in Europa das 400-Volt-Netz mit Dreiphasenwechselstrom (Kraft- oder Drehstrom) zur Verfügung. Gleichstrom-Schnellladung kann von den Herstellern in den Elektroautos bereits implementiert werden. Hierbei wird die teure Ladetechnik in die Stromtankstelle integriert und die Traktionsbatterie direkt mit angepasst starkem Gleichstrom aufgeladen. Die Gleichstromladetechnik bietet den Vorteil der Schnellladung, ohne in jedes Fahrzeug teure Ladetechnik integrieren zu müssen.
Die Entwicklung und der Einsatz von Elektroautos lassen sich grob unterteilen in Industriefahrzeuge, neu entwickelte Elektroautos, Elektroautos als Anpassung von Serienfahrzeugen und Elektroautos als Umbauten von Serienfahrzeugen. Bei den Industriefahrzeugen handelt es sich zumeist um elektrische Lastkarren und automobile Flurfördergeräte, die in vielen gewerblichen Bereichen, meist außerhalb des allgemeinen Straßenverkehrs oder innerhalb von Gebäuden fahren. Neu entwickelte Elektroautos betreffen Fahrzeuge, für die es keine Ausführungen mit konventionellem Antrieb gibt und bei denen daher keine konstruktiven Kompromisse eingegangen werden müssen. Das Fahrzeugspektrum umfasst Studien und Experimentalfahrzeuge als Prototypen, die mittels modernster Technik akzeptable Reichweiten beziehungsweise Höchstleistungen bei Geschwindigkeit und Beschleunigung erreichen. Stadtfahrzeuge wie Leichtelektromobile schließen die Lücke zwischen Roller und Auto. Es sind kompakte, leichte Fahrzeuge, die sparsam mit Energie umgehen und typischerweise im Alltag etwa 4 bis 10 Kilowattstunden elektrische Energie für eine Strecke von 100 Kilometern benötigen. Für eine Geschwindigkeit von mehr als 80 Kilometern pro Stunde werden autobahntaugliche Elektroautos angeboten und in beachtlichen Stückzahlen auf dem Pkw-Markt geordert. Mehrere große Automobilfirmen beschritten den Weg der Herstellung von Elektroautos als Anpassungen von Serienfahrzeugen an die Anforderungen eines Elektroantriebs. Derartige Fahrzeuge im Alltagseinsatz benötigen typischerweise etwa 12 bis 20 Kilowattstunden elektrische Energie für eine Strecke von 100 Kilometern. Bei den Elektroautos als Umbauten von Serienfahrzeugen mit Verbrennungsmotor wird entweder ein in Serie gefertigter neuer Antriebsstrang verbaut oder es wird über eine Adapterplatte der Elektromotor an das serienmäßige Schaltgetriebe angeflanscht. Anstelle von Kraftstofftank und auch oft Reserverad wird die Traktionsbatterie verbaut. Sportliche Elektroautos mit hohen Fahrleistungen von deutlich über 200 Kilometern pro Stunde und Reichweiten von etwa 500 Kilometern, das heißt, vergleichbar zu Fahrzeugen mit Verbrennungsmotor, sind im oberen Preissegment angesiedelt.
Fahrzeuge mit supraleitenden Motorelementen benötigen natürlich entsprechende Kühlungen. Im Falle von Hochtemperatursupraleitern genügt zur Erzeugung des supraleitenden Zustands flüssiger Stickstoff, der bei minus 196 Grad Celsius siedet. Flüssigstickstoff wird industriell in großen Mengen zusammen mit Flüssigsauerstoff durch fraktionierte Destillation von flüssiger Luft hergestellt. Ausreichend isoliert von der Umgebungswärme kann Flüssigstickstoff in Isolierbehältern aufbewahrt und transportiert werden. Flüssigstickstoff ist somit eine kompakte und einfach zu transportierende Quelle von Stickstoffgas.
Seit Beginn des zweiten Jahrzehnts des dritten Jahrtausends beschäftigten sich Firmen mit der Entwicklung von Antrieben auf Supraleiterbasis. Anfangs beschäftigten sich die Hersteller vor allem mit Motoren, deren Rotor supraleitend ausgelegt war, denn durch ihn fließt Gleichstrom. Doch man erkannte, dass es Vorteile bringt, den Stator zu kühlen. Es stellte sich heraus, dass die befürchteten AC-Verluste gering blieben. Um das Verhalten von Autokarosserien zu testen, setzen sie die Hersteller auf Teststände. Alles, was sich im Bereich der Karosserie dreht, übernehmen Elektromotoren.
Unter anderem wurde ein Typ konzipiert, dessen Stator supraleitend ausgelegt ist. Zuvor wurden vor allem Motoren entwickelt, deren Rotoren gekühlt wurden. Ein erster 575-Newtonmeter-Motor mit 40 Kilowatt zeigte, dass die Kraftdichte um den Faktor zwei höher als bei konventionellen Motoren liegt. Bei gleicher Leistung verringert sich das Gewicht um 40 bis 60 Prozent, der Wirkungsgrad liegt bei 99,7 Prozent. Die Drähte der zweiten Generation werden dabei auf minus 196 Grad Celsius gekühlt. Als das einzige gravierende Problem, das es zu überwinden galt, stellte sich die Kryotechnik heraus. Der für die Kühlung erforderliche Aufwand stellte sich als beträchtlich heraus. Er liegt um den Faktor drei höher als für den Motor selbst. Die Speicherung von großen Strommengen in supraleitenden Spulen, wie in der Medizintechnik bereits praktiziert, wäre die Erfüllung von Träumen vieler Technologen. Hierzu sind Supraleiter, die statt mit Helium mit flüssigem Stickstoff gekühlt werden können, potenzielle Kandidaten.
Wenn es gelänge, HTSL-Generatoren, die für die zur Verfügung stehenden Raummaße entsprechend miniaturisiert angepasst sind, zu entwickeln und zur Serie zu führen, könnte der Automobilsektor hiervon sprungartig profitieren. Doch bis es so weit ist, könnte es noch der Vergabe des einen oder anderen Physiknobelpreises für hierzu erforderliche Entdeckungen bedürfen.
Das Thema Elektromobilität, so wie es öffentlich diskutiert wurde, ließ mir in den Jahren ab 2015 keine Ruhe. Um ein Gedankenmodell vor dem Hintergrund meiner wissenschaftlichen und industriellen Tätigkeiten hinsichtlich möglicher Anwendungen der Koexistenz von Supraleitung und Ferromagnetismus, wie ich sie in meiner Dissertation aus dem Jahre 1982 vorgestellt hatte, zu erstellen, befasste ich mich detailliert mit der Idee der Machbarkeit eines supraleitenden Elektrofahrzeugs und seiner Realisierungspotenziale. Mir war nämlich aufgefallen, dass es eine Reihe von Veröffentlichungen gab, die sich auf supraleitende Elemente, die meines Erachtens nach geeignet erschienen, konzentrierten, auf denen aufbauend ich meine Idee eines supraleitenden Elektroautos konzipieren konnte.
Es lagen Berichte über die Realisierung von Elektromotoren mit Hochtemperatursupraleitern für Leistungen bis zu einigen Hundert PS vor. Kühlsysteme für flüssigen Stickstoff waren ebenfalls Stand der Technik wie auch eine Tieftemperaturtankanlage und Radnabenantriebe. Darauf zurückgreifend und mit einer entsprechend angepassten Konzeptsteuerung, wie man sie aus dem Bereich der Systemtechnik kennt, war der Weg zu meiner Konzeptidee für ein supraleitendes Auto gelegt.
Das Vorhandensein von Hochtemperatursupraleitern (HTSL), deren Kühlung mit flüssigem Stickstoff erfolgen kann, war mein Motiv, supraleitende Autos ins Visier zu nehmen. Meine Erfahrungen durch eine Reihe von Projekten wie unsere Kooperationsforen zu diversen Gebieten, in denen ich mich mit meinen Mitarbeitern durch die von uns eingeladenen Fachleute zu Kernelementen wie Kühlung von HTSL und Umgang mit flüssigem Stickstoff unterrichten ließ, untermauerten das.
Unternehmen und Forschungseinrichtungen, die sich mit der Kühlungsthematik mit flüssigem Stickstoff beschäftigen, waren meine Quelle zum Stand der Technik. Flüssigen Stickstoff gewinnt man durch Luftzerlegung nach dem sogenannten Linde-Verfahren. Carl von Linde entwickelte 1895 die nach ihm benannte Methode zur Gastrennung, welche die Verflüssigung von Gasgemischen wie Luft und einzelnen atmosphärischen Gasen wie Sauerstoff, Stickstoff und Argon in großen Mengen ermöglicht und so der Kälteerzeugung im Temperaturbereich von minus 196,15 Grad Celsius bis minus 173,15 Grad Celsius dient.
Die Firma Linde Gas ist führender Gasanbieter in Deutschland und Europa und produziert ihre Industriegase an einer Reihe von Standorten. Ein weiteres führendes Unternehmen im Bereich Gase ist die Firma Air Liquide. Kryobehälter sind von diesen Firmen ebenfalls beziehbar. Flüssigstickstoffbehälter werden in Form von Lagerbehältern und Transportbehältern von der Cryotherm GmbH & Co. KG in Kirchen/Sieg zur Verfügung gestellt. Supraleitende Elektromotoren wurden und werden von der im bayrischen Miltenberg ansässigen mittelständischen Firma Oswald Elektromotoren GmbH entwickelt und produziert. Radnabenantriebe, wie sie ursprünglich von Ferdinand Porsche zur Weltausstellung 1900 präsentiert wurden, werden heutzutage von der Firma Schaeffler mit beachtlichen Drehmomenten von bis zu 700 Newtonmetern angeboten.
Mein Vorschlag zur Umsetzung eines supraleitenden Konzeptfahrzeugs enthält fünf Bauelemente:
B1): Mikroprozessorbasierte Konzeptsteuereinheit
B2): Supraleitender Elektromotor
B3): Tieftemperaturkühlsystem
B4): Tieftemperaturtankanlage
B5): Radnabenantriebe
Diese Elemente stehen miteinander in konzeptionellen und funktionalen Interdependenzen in Verbindung. Der Stand der Technik der aufgeführten Elemente stellte sich Anfang des zweiten Quartals des Jahres 2019 wie folgt dar:
Die Aufgabe der Konzeptsteuerung beinhaltet das Management aller Elemente des supraleitenden Konzeptfahrzeugs auf Basis der der Konzeptsteuerungseinheit zur Verfügung stehenden Ein- und Ausgabeparameter. Ihr Input sind die Ausgangswerte der Subsysteme. Der Algorithmus der Konzeptsteuerung ist in einem Mikrorechner realisiert. Die Kommunikation zwischen der Konzeptsteuereinheit und den anderen Elementen des Konzeptfahrzeugs erfolgt über aktuelle Bluetooth-Punkt-zu-Punkt-Übertragung. Sie basiert auf einem Mikrochip samt Sende- und Empfangseinheit sowie einer den Datentransfer steuernden Software. Diese sorgt für gegenseitige Erkennung der ebenfalls über Bluetooth-Einrichtungen verfügenden anderen Elemente des Konzeptfahrzeugs. Die im Bluetooth-Mikrochip zur Steuerung des Datentransfers implementierte Software umfasst den kompletten Steuerungsalgorithmus einschließlich den der obigen Bauelemente B2) bis B5). Die Funktionsweise des Konzeptmanagementsystems wird elektronisch in der entsprechenden Fahrzeugelektronik realisiert. Dies kann zum Beispiel durch Mikrochips beziehungsweise anwendungsspezifische integrierte Schaltungen erfolgen. Das Managementsystem hat die Organisation des Zusammenwirkens der Interdependenzen der Einzelelemente zur Aufgabe. Deren Zustandssituation dient als Input zur Durchführung der Managementaktivitäten. Die dadurch erzielten Ergebniszustände bilden die Gesamtheit des Outputs. Diese wiederum bilden die Eingangswerte der Zustände für den nächsten Iterationsschritt.
So liefert die Konzeptsteuerung in ihrer Aufgabe des Managements aller Elemente des supraleitenden Konzeptfahrzeugs auf Basis der der Konzeptsteuerungseinheit zur Verfügung gestellten Ein- und Ausgangsparameter als Input die Ausgangswerte der Subsysteme. Als Output der Konzeptsteuerung dienen deren Ausgangswerte als Eingangswerte für die Subsysteme. Das Programm der Konzeptsteuerung liest zunächst die Statusparameter der Elemente B2) bis B5) ein. Diese sind die Temperaturbestimmung des HTSL und des flüssigen Stickstoffs, die Mengenbestimmung des Tankinhalts für den flüssigen Stickstoff sowie die Zustandsermittlung und -anzeige der Radnabenantriebe.
Der erfindungsgemäße Programmablauf zur Konzeptsteuerung umfasst folgende Schritte: Der Start des Programms wird durch Drehen des Zündschlüssels oder Drücken des Startknopfes ausgelöst. Mittels einer Abfrage wird durch die Konzeptsteuereinheit über eine Bluetooth-Sende-und-Empfangseinheit festgestellt, ob die Ausgangswerte der Systemsteuerung als Eingangswerte für die Subsysteme vollständig zu Verfügung stehen. Daraufhin erfolgt das Einlesen der Ist-Werte der Subelemente supraleitender Elektromotor (B2), Kühlsystem (B3), Tankanlage (B4) und Radnabenantriebe (B5).
Öffentlich zugängliche Informationen über supraleitende Elektromotoren und patentierte Konzepte zum Antrieb von Elektrofahrzeugen unter Ausnutzung supraleitender Eigenschaften wurden recherchiert. Diese waren ein Beitrag zum Nachweis der prinzipiellen Machbarkeit eines supraleitenden Elektroautos. So findet sich eine am 15. November 2011 eingereichte Offenlegungsschrift über eine „Vorrichtung zum Antreiben eines Elektrofahrzeuges“ beim deutschen Patent- und Markenamt, in der die Vorteile supraleitender Antriebe aufgeführt sind. Betont werden beispielsweise eine lange Reichweite von rund tausend Kilometern, kurze Ladezeiten von einigen Minuten, hohe Energiedichten und hohe Wirkungsgrade von ca. 99 Prozent. All das ermöglicht Vorteile der supraleitenden Fahrzeugantriebe im Vergleich zu konventioneller Batterietechnik.
Auch der im Jahr 2019 stark emotional fortgeführte Diskurs über die Mobilität der Zukunft könnte durch den angeführten Konzeptvorschlag bereichert werden. Dieselfahrverbote und Feinstaub standen im Vordergrund der öffentlich geführten Diskussion. Wären den Diskutanten die Vorteile eines supraleitenden Autos wie hier beschrieben bekannt gewesen, hätte der Diskurs vielleicht einen anderen oder zusätzlichen Verlauf genommen …
Denn die Reichweiten von Elektroautos betrügen nicht mehr nur einige Hundert Kilometer, sondern wie in der Patentschrift beschrieben rund 1.000 Kilometer. Die Elektroautos wären absolut abgasfrei. Eine Tankinfrastruktur für flüssigen Stickstoff müsste natürlich aufgebaut werden, wie dies für andere batteriebetriebene Elektroantriebe auch nötig wäre.