Was kommt nach Moore? – Grenzen der Prozessor-Technik

SSEM_Manchester_museum

Im Computer-Zeitalter gilt hauptsächlich eine Regel: Es gibt genau 10 Arten von Typen: Die, die „binär“ verstehen, und die, die es nicht verstehen. (Bild: Wikipedia von Parrot of Doom, Lizenz: CC BY-SA 3.0)

Moore beschrieb die Gesetze der technologischen Entwicklung, jedoch wird in naher Zukunft dürfte die Silizium- durch Quanten-Technologie abgelöst werden.

Während wir zombiemäßig auf unsere Smartphones schauen, unnötige Apps mit Wischgesten steuern und abends nett gemeinte Hasskommentare ins weltweite Netz streuen, beginnt ganz heimlich ein neues Computerzeitalter. Nein, keine Allgegenwärtigkeit des Linux-Kernels – das hättet ihr wohl gerne.In den Laboren der Halbleiter-Industrie arbeiten Forscher vielmehr an den Computern der Zukunft. In der Vergangenheit war es Gordon Moore, der die Gesetze der technologischen Entwicklung beschrieb. In naher Zukunft dürfte die Siliziumtechnologie abgelöst werden. Warum das so ist und welche Alternativen es gibt, wollen wir euch in diesem Beitrag näherbringen.

Das Mooresche Gesetz zum Einstieg in die Welt der Quanten

Moore beschrieb die Entwicklung der Informationstechnologie anhand einer Exponentialfunktion: die Anzahl der auf einem Siliziumchip verbauten Transistoren verdoppelt sich etwa alle zwei Jahre. Genauer: die Komplexität eines integrierten Schaltkreises verdoppelt sich alle 18 Monate, wobei die Komplexität mit der Integrationsdichte von Transistoren auf einem Mikrochip erklärt wird. Entsprechend mussten die Chiphersteller ihre Fertigungsmethoden immer weiterentwickeln – was zu hohen Produktionskosten führte.

Gordon_Moore_with_Robert_Noyce_at_Intel_in_1970

Das Mooresche Gesetz geht auf Gordon Moore, einen Mitbegründer von Intel zurück, der in den sechziger Jahren prognostizierte, dass sich die Zahl der Transistoren von integrierten Schaltungen (IC) jährlich verdoppelt. (Bild: „Intel CEOs Gordon Moore und Robert Noyce im Jahr 1970“, von Intel Free Press, Lizenz: CC BY-SA 2.0)

Mit der Zeit erkannten Forscher, dass die Grenzen der Siliziumtechnologie langsam aber sicher erreicht werden. Wenn mehr Transistoren auf engstem Raum implementiert werden, erzeugen sie mehr Wärme. Plus: Schon jetzt bewegt sich die Siliziumtechnologie im Bereich von Nanometern. Die Chipstrukturen sind so klein, dass die bekannten Gesetze der Physik außer Kraft treten – unwägbare Quanteneffekte kommen zum Tragen.

Aktuelle Probleme der Siliziumtechnologie: Taktung und Kerne

Deshalb versuchten die Forscher, die Taktfrequenz von Mikroprozessoren zu begrenzen. Seit mehr als zehn Jahren ist die maximale Taktfrequenz von Hochleistungsprozessoren nicht mehr gestiegen. So sollte das Problem der Wärmeentwicklung gelöst werden, da Transistoren weniger Wärme erzeugen, wenn sich die Elektronen im Innern nicht so schnell bewegen. In Sachen Integrationsdichte und Leistungsfähigkeit war auf diese Weise noch ein wenig Luft nach oben. Doch auch bei diesem Ansatz werden die Probleme der Integrationsdichte nicht vermieden: denn irgendwann ist rein physikalisch gesehen Schluss. Es passt nur eine bestimmte Anzahl von Transistoren auf einen Chip – selbst wenn die Chipstrukturen nur noch wenige Nanometer zwischen den Transistoren klein sind. Winzig klein.

Neben der Reduzierung der Taktfrequenz verfolgten die Forscher noch eine weitere Strategie: Sie veränderten die Architektur der Chips so, dass die Leistungsfähigkeit anstieg, obwohl die maximalen Takte des Systems begrenzt sind. Wie? Mit Mehrkernprozessoren und Multithreading. Statt einem Kern wurden zwei, vier und sogar acht Kerne verwendet. Statt einem Thread gibt es zwei, vier oder acht zerlegte Aufgaben. Auf diese Weise war zumindest die Taktfrequenz nicht mehr problematisch, denn die Takte von Mehrkernchips lassen sich addieren: ein Chip mit acht Kernen und 500 MHz liefert genauso viel Leistung wie ein Chip mit einem Kern und 2 GHz Taktung. Zugleich wird die Wärmeentwicklung über die Architektur des Chips verteilt und sie lässt sich besser kontrollieren.

Noch mehr problematische Fragen: parallele Algorithmen und Logik

Mehrkernprozessoren haben aber einen ganz anderen Nachteil, der auf der Softwareschicht zu finden ist: die Hardware lässt sich verteilen, aber die Algorithmen, die sie steuern, nicht oder nur bedingt. Diese sogenannte Parallelisierung von Algorithmen bereitet den Forschern nach wie vor Probleme. Denn die Aufgaben, die mit der Hardware gelöst werden sollen, müssten wie die Kerne des Mikrochips ebenfalls zerlegt werden. Die Leistung von Multithreading- und Mehrkernsystemen ist davon abhängig, wie gut Algorithmen parallelisiert werden können, um gleichzeitig verschiedene Aufgaben bearbeiten zu können. Das, was sich nicht gleichzeitig bearbeiten lässt, bremst das ganze System aus, weil es alle Ressourcen belastet. Ein interessantes, aktuelles Forschungsgebiet in der theoretischen Informatik, an dem akribisch gearbeitet wird.

old computer

In den letzten Jahren ist der Bedarf an Rechenleistung so stark angestiegen, dass er von sequentiellen Computers nicht mehr erfüllt werden kann. (Bild: Wikipedia, Lizenz: Gemeinfrei)

In der Praxis warten noch andere Herausforderungen. Einige Algorithmen können zwar Aufgaben parallel lösen, aber Computer sind zu einem gewissen Maß auf eine sequentielle Verarbeitung angewiesen. Sprich: eine Sache nach der anderen. Alles andere würde ihre Logik durcheinanderbringen. Das gilt für Speichervorgänge wie für Prozessoraufgaben. Weil aber beim Zugriff von Prozessoren auf Speichermodule relativ viel Energie benötigt wird, entsteht hier die größte Wärme. Es ist kaum mehr ein Problem, Speicherbausteine zu entwickeln, die beispielsweise mehrdimensionale Strukturen aufweisen und fast unser gesamtes Weltwissen speichern könnten. Man denke nur an den kürzlich vorgestellten 5D-Speicher.

Einer der Knackpunkte: Tunnelströme

Die Schwierigkeit liegt vielmehr darin, Prozessoren zu konzipieren, die die oben genannten Probleme der räumlichen Begrenztheit und parallelen Algorithmen umgehen. Der Hauptgrund dafür ist der quantenmechanische Tunnelstrom: ab einer gewissen Größe der Chipstrukturen können einzelne Halbleiter-Bauteile sehr, sehr kleine Ströme durchlassen – vorausgesetzt, die Elektronen können auf der anderen Seite andocken. Das kann man sich so vorstellen: liegt an einem Halbleiter ein Strom an, leitet er. Ist das nicht der Fall, dann leitet er normalerweise nicht. Das ist sozusagen das Grundprinzip von Transistor-Schaltungen. Sind die Strukturen klein genug, dann kann es aufgrund der Wellenfunktion in der Quantenmechanik vorkommen, dass der Strom trotzdem leitet.

Colossus

Als Tunnelstrom bezeichnet man einen elektrischen Strom, der durch den quantenmechanischen Tunneleffekt zustande kommt.(Bild: „Colossus Mark II“ Wikipedia, Lizenz: Gemeinfrei)

Es entstehen Tunnelströme. Selbst durch einen Nichtleiter, der eigentlich isoliert, fließen Ströme. Das führt zu einem Systemverhalten, das deterministische Gesetze ab und an ignoriert. Willkürlich, wie es den Tunnelströmen gefällt. Immer wenn ein kleiner Reststrom die Barriere durchbricht, gewinnt die Quantenmechanik das Spiel mit den physikalischen Gesetzen der Welt, wie wir sie kennen. Das klingt unlogisch und widerspricht unseren Erfahrungen, aber wir sind eben auch keine allwissenden Nanowesen. Man kann sagen, dass wir noch am Anfang der Forschung zwischen theoretischer Informatik, praktischer IT und Quantenphysik stehen. Das heißt auch: Jetzt wird es erst richtig spannend. Bis wir kleine smarte Quantencomputer in der Hand halten, vergehen vielleicht nur noch wenige Jahre.

Neue Denkansätze: Quanten in der Dunkelheit

Wenn man von der Siliziumtechnologie ausgeht, befindet man sich schnell in den Sackgassen der Grundlagenforschung. Die Forscher lassen sich davon aber nicht beirren und verfolgen neue Denkansätze. Der eben erwähnte Quantencomputer ist einer davon. Zwar sind die meisten Ansätze noch theoretischer Natur, aber es gibt schon jetzt ein paar vielversprechende Anwendungen. Eine Kooperation zwischen Google und der NASA ist ein Beispiel dafür. Der Quantencomputer heißt D-Wave 2X und soll 100 Millionen Mal schneller sein als ein Ein-Kern-Prozessor nach aktuellem Stand der Technik.

Etwas gruselig ist das Innere dieses Quantencomputers: damit er funktioniert, müssen absolute Dunkelheit und Temperaturen nahe dem Nullpunkt herrschen. Ach, und ruhig muss es sein: jedes irritierende Geräusch würde die Funktionen des Computers beeinträchtigen, der nicht nach dem binären System arbeitet, sondern auch Zustände zwischen Nullen und Einsen kennt.

Also eine dreiwertige, nicht mehr sequentielle Logik. Zum Rechnen mit Null und Eins kommt ein Zustand dazu, der die Werte Null und Eins zugleich besitzen kann. Interessant ist deshalb die Steuerung eines Quantencomputers. Denn bisher ist noch unklar, wie der Computer Anfragen entgegennimmt und verarbeitet, wenn er auf mehr Signale und Logiken reagieren muss. Für die Forscher bedeutet das: es ist noch viel zu tun auf dem Weg zu neuen Gerätegenerationen.

Noch mehr Denkansätze: Neuronen und die Architektur der Elemente

Natürlich existieren auch andere Denkansätze. Zum Beispiel neuromorphe Computersysteme. Diese Rechner ahmen das menschliche Gehirn nach: sie sind aufgebaut wie ein Netzwerk aus Nervenzellen, die mit Milliarden von Synapsen verbunden sind. Fällt eine Synapse aus, springen die anderen ein. Bei herkömmlichen Computern droht ein Systemabsturz, wenn ein Bestandteil ausfällt. Neuromorphe Systeme gleichen solche Effekte aus. Das Problem: wir wissen gar nicht ganz genau, wie unser Gehirn funktioniert, wie es Informationen speichert und verarbeitet. Es gibt einige Theorien wie das Liquid Computing, aber in der Praxis muss das alles noch überprüft werden. Neuronale Schaltkreise sind jedenfalls ein Ansatz, der auch die bereits erwähnte Siliziumtechnologie betrifft. Es ist relativ schwierig die Anzahl der Neuronen und Synapsen eines menschlichen Gehirns zu simulieren. Es sind einfach zu viele. Aktuelle Forschungen mimen Netzwerke aus hunderttausenden Nervenzellen und Synapsen.

D

as bringt uns zu ganz anderen Architekturen mit neuartigen Materialien wie Graphem und Strukturen mit Nanoröhrchen, um Ströme zu übertragen. Graphem ist im Grunde der Stoff, aus dem die Mienen von Bleistiften sind, mit denen wir früher Matheaufgaben gelöst haben. Habt ihr doch, oder? Graphem wird heutzutage anders eingesetzt: einerseits soll es die Wärmeentwicklung von Mikrochips reduzieren, andererseits ist das Material unter bestimmten Bedingungen noch leitfähiger als herkömmliche Siliziumchips – immer dann, wenn es leicht erhitzt wird.

In der Anwendung werden Grapheme dazu eingesetzt, die oberflächlichen Strukturen von Siliziumchips zu verändern oder innere Strukturen mit Nanoröhrchen zu bilden. Auf diese Weise verändern sich nicht nur die Mikrostrukturen der Chips, sondern auch ihre Eigenschaften: die Leitfähigkeit, die Wärmeentwicklung und der Energieverbrauch. Graphem gilt als vielversprechende Alternative für Silizium. Doch auch hier befinden sich die Forscher noch in den Anfängen.

Was würdet ihr mit einem Quantencomputer oder einer alternativen Technologie anstellen? Würdet ihr sagen, dass gehirnähnliche Computer mit neuartigen Materialien wie Graphem oder Quantentechnologie auf jeden Fall besser sind als herkömmliche PCs? Wie geht die Entwicklung des PCs eurer Meinung nach weiter?


Starte deine eigene Tekkie-Story


Sag uns deine Meinung!