Читать книгу Wie erzielen Sie mit Kryptowährungen bombastische Gewinne? Oder verlieren das letzte Hemd? - Alen Menetyan - Страница 6

4.Die Phasen der technischen Revolutionen

Оглавление

Immer wenn eine neue Technologie eingeführt wurde, war man anfangs skeptisch. Einige erkannten das Potenzial früh, andere hingegen gar nicht. Aber dies ist eine natürliche menschliche Reaktion. Auch gibt es viele Erfindungen, welche am Anfang ihrer Entwicklung hochgelobt wurden, sich bis heute aber nicht durchgesetzt haben und weitgehend in Vergessenheit geraten sind. Es sind beide Seiten vorhanden. Dazu fällt mir ein Zitat aus dem Buch 'The Salmon of Doubt' von Douglas Adams ein:

"I've come up with a set of rules that describe our reactions to technologies:

1. Anything that is in the world when you're born is normal and ordinary and is just a natural part of the way the world works.

2. Anything that's invented between when you're fifteen and thirty-five is new and exciting and revolutionary and you can probably get a career in it.

3. Anything invented after you're thirty-five is against the natural order of things."

Damit die Blockchain überhaupt zum Leben erweckt werden konnte, war viel Vorarbeit notwendig. Fünf Generationen an Erfindungen und Entwicklungen waren essenziell. Ich bezeichne die Blockchain-Technologie als die sechste technische Revolution. [1]

Eine Erklärung, wie eine Innovation eines Marktführers in Abhängigkeit zur Zeit verläuft, liefert der Informatiker Roy Amara. Diese Beobachtung ist auch als Amara’s Gesetz bekannt. Zuerst wird die neue Technologie in einem allgemeinen Hype überbewertet und überschätzt. Danach folgt in einer zweiten Phase die Ernüchterung. In der dritten Phase wird die Technologie allgegenwärtig und wichtig, sodass wir uns ein Leben ohne sie gar nicht mehr vorstellen können. Kurz gesagt: Kurzfristig überschätzen wir den Einfluss einer neuen Technologie, langfristig unterschätzen wir ihn. [2]

In der unteren Abbildung ist die menschliche Erwartung über eine Technologie in Abhängigkeit zur Zeit linear dargestellt. Der tatsächliche Einfluss der Technologie verläuft S-förmig. Im Bereich A überschätzen wir den Einfluss und im Bereich B unterschätzen wir ihn


Erste Generation: Elektronenröhre

Mit dem technischen Vakuum wurde im 20. Jahrhundert die Einführung der Glühlampe und der Elektronenröhre möglich. Elektronenröhren sind aktive elektrische Bauelemente mit Elektroden. Sie dienen der Gleichrichtung, Verstärkung, Erzeugung und der Modulation elektrischer Signale. Bis zur Einführung des Transistors waren die Elektronenröhren die einzigen schnellen, aktiven und steuerbaren Bauelemente der Elektronik. Natürlich gab es vorher Relais (elektrischer Schalter) zur Verfügung, wobei aber nur zwei Zustände (ein/aus) möglich waren und ihre Schaltgeschwin-digkeit durch die bewegte Masse begrenzt war. Da Elektronen eine deutlich geringere Masse aufweisen, können damit sehr viel höhere Frequenzen verarbeitet werden. In alten Fernsehgeräten oder Computermonitoren wurden Kathodenstrahlröhren verbaut. Man konnte mit dieser Technologie auch über grössere Distanzen telefonieren. Dazu ein Zitat aus dem Jahr 1876 von William Orton, Präsident der Western Union, als er Graham Bells Angebot ablehnte, seine in finanzielle Nöte geratene Firma zu übernehmen:

"Was soll diese Firma mit einem elektronischen Spielzeug anfangen? Das Telefon hat zu viele Schwächen, dass es nicht ernsthaft als Kommunikationsmittel taugt. Das Ding hat für uns an sich keinen Wert."


Zweite Generation: Transistoren

Transistoren sind elektronische Halbleiter-Bauelemente zum Steuern verschiedener elektrischer Spannungen und Ströme. Transistoren kann man sich als Ein/Aus-Schalter vorstellen, vergleichbar mit den Eigenschaften einer Elektronenröhre und sie werden vor allem in integrierten Schaltkreisen eingesetzt, aber auch in der Leistungselektronik, Nachrichtentechnik oder in Computersystemen. 1954 kamen Bipolartransistoren aus Silizium auf den Markt, was den Preis der Transistoren senkte. Dies ermöglichte die Entwicklung von Transistorradios und den endgültigen Erfolg des Rundfunkempfangsgerätes. Durch die Transistorbestückung konnte eine signifikante Gewichts-, Grössen- und Betriebskostenreduktion erreicht werden. Was heute die Smartphones sind, war in den sechziger Jahren das Transistorradio, die trendige und luxuriöse High-Tech-Novität. Es war der Marktrenner! Der berühmte Forscher William Thomson erster Baron Kelvin, nach ihm wurde die Einheit Kelvin benannt, sagte 1879: "Das Radio hat absolut keine Zukunft."


Durch das fortschreitende Transistorisieren elektronischer Geräte, konnten viele technische Geräte verkleinert werden. Die Miniaturisierung der Schaltungstechnik führte die Technik in die Zukunft der Halbleiterelektronik. Der Transistor ist die technische Funktionseinheit, welche von der Menschheit in den höchsten Gesamtstückzahlen produziert wird und bis jetzt produziert worden ist. Die Mikroprozessoren in unserem Computer bestehen aus vielen Millionen bis Milliarden Transistoren!


Dritte Generation: Integrierte Schaltkreise

Integrierte Schaltkreise (auch IC genannt für "integrated circuit") sind Bauteile, welche eine Schaltung mitsamt allen notwendigen Bauelementen, wie Transistoren, Dioden, Widerständen oder anderen Funktionsteilen, auf sehr kleinem Raum beinhalten. Das meist rechteckige Chipgehäuse schützt den integrierten Schaltkreis. Ein integrierter Schaltkreis kann ein Verstärker, Oszillator, Timer, Zähler, Computerspeicher oder Mikroprozessor sein. Es gibt analoge oder digitale integrierte Schaltkreise. Seit Anfang der 1990er Jahren werden diese Elemente im Nanometer-Bereich gefertigt, diese werden Chips genannt.

"Computer der Zukunft werden nicht mehr als 1,5 Tonnen wiegen", stand 1949 in der Zeitschrift 'Populäre Mechanik'.

Die weitere Miniaturisierung führt in einen Bereich, wo die Strukturen nur noch die Grösse weniger Atome besitzen. In diesen Grössenordnungen versagen die Gesetze der bekannten Elektronik und werden durch die Gesetze der Quantenphysik abgelöst. Im Moment arbeitet man an der Entwicklung von Schaltkreisen auf der Grundlage der Quantenphysik. Diese werden auch Quantenschaltkreise und die dazugehörige Elektronik als Quantenelektronik bezeichnet.


Vierte Generation: Mikroprozessoren

"Schön, aber wozu ist das Ding gut?" - Ein IBM-Ingenieur über den Mikroprozessor, 1968

Auch Mikroprozessoren, wie sie in Computern verwendet werden, zählen zu den integrierten Schaltkreisen, welche wenige Quadratmillimeter gross sind. Es sind hochkomplexe Schaltungen mit vielen Milliarden elektronischen Bauelementen v. a. Transistoren. Ein Mikroprozessor ist ein Prozessor, bei dem alle Bausteine des Prozessors auf einem Mikrochip vereinigt sind. Anfang der 1970er Jahren konnte man mehrere tausend Transistoren auf einem Chip unterbringen. Dies ermöglichte die Entwicklung des Hauptprozessors (CPU) auch Mikroprozessor genannt. Die Zunahme der Integrationsdichte von Transistoren in einem Chip führte zu einem geringeren Platzbedarf, eine geringere Temperaturentwicklung, eine höhere Verarbeitungsgeschwindigkeit, eine niedrigere Ausfallquote sowie einen geringeren Stromverbrauch. Diese Möglichkeit reduzierte die Kosten für Computer extrem.

Ken Olson Präsident von Digital Equipment Operation hat 1977 festgestellt: "Es gibt keinen Grund, warum irgendjemand einen Computer in seinem Haus haben wollen würde."

Mit der weiteren Miniaturisierung des Mikroprozessors wurde der Mikroprozessor um einen Speicher- und Ein-/Ausgabe-Funktionen erweitert, was sich als Microcontroller etabliert hat.


Fünfte Generation: Internet

Mit der Entwicklung von Computern kam schnell die Idee auf diese miteinander zu vernetzen. Das Netzwerk ist das Internet. Dadurch kann man z. B. E-Mails von der Schweiz nach Australien schicken oder Webseiten in China aufrufen. Heutzutage sind elektronische Geräte wie Computer, Laptop, Smartphone, Tablet ohne das Internet so gut wie wertlos.

Der Nobelpreisträger Paul Krugman hat 1998 geschrieben, "bis ca. 2005 wird es klar werden, dass der Einfluss des Internets auf die Wirtschaft nicht grösser sein wird, als die des Faxgerätes."

Auch gab es damals Kritiker, welche von dieser Technologie gar nicht begeistert waren. Einer davon war der Ethernet Erfinder Robert Metcalfe, welcher sich im Jahre 1995 äusserte: "Das Internet wird wie eine spektakuläre Supernova im Jahr 1996 in einem katastrophalen Kollaps untergehen." Bis ca. 1989 war das Internet eine sehr komplizierte Technologie. Erst Tim Berners-Lee Erfindung des World Wide Web, welche die leichte Veröffentlichung von Informationen im Internet ermöglichte, verhalf dieser Entwicklung den Durchbruch. Durch Suchmöglichkeiten und Links, welche von einer Seite zu einer anderen Seiten führen, lassen sich die Informationen auch leicht wiederfinden. Heute ist das Internet nicht mehr wegzudenken und ein wichtiges Werkzeug für unser Leben.

Mit den sogenannten Social-Media-Plattformen wie Facebook, Youtube oder Twitter war der leichte und schnelle Austausch von Nutzern erzeugten Inhalten möglich. Diese Plattformen werden zentral verwaltet, zentral gespeichert und sind in sich abgeschlossen (ein Konto mit Registration wird benötigt). Die zunehmende Interaktivität zwischen den Nutzern durch Bild-, Audio- und Videoeinbindung des Internets wird als Web 2.0 bezeichnet.

Im Moment ist vom Web 3.0, vom "Internet der Dinge", bei den Maschinen, Geräte usw. miteinander vernetzt werden und von Cloud basierten Internetdiensten die Rede.


Sechste Generation: Blockchain-Technologie

Die Ideen einer Blockchain und der des digitalen Geldes sind schon viel älter, als wir gedacht haben. Blockchain-Datenspeicher gibt es bereits seit 1990. Sie sind fehlgeschlagen, weil digitale Transaktionen kopiert werden konnten und es daher den Nutzern möglich war, Geldbeträge mehrmals auszugeben.

Erst mit der Version, welche 2008 unter dem Pseudonym "Sakoshi Nakomoto" im White Paper zu Bitcoin beschrieben wurde, konnte der Durchbruch erzielt werden. Aus der Neukombination von verschiedenen Konzepten wie Peer-to-Peer, Dezentralisation, Kryptographie, Konsens usw. hat sich die Blockchain als ein Journal der Buchführung (chronologische Auflistung aller Transaktionen) durchsetzen können. Und wird daher auch "Internet der Werte" genannt. 2009 wurde der Bitcoin-Blockchain als Open-Source Software veröffentlicht. Zum ersten Mal war es möglich, ohne eine vermittelnde zentrale Instanz (z. B. Banken) direkt zwischen Privatnutzern digitale Transaktionen vorzunehmen.

"Die Blockchain mag uns helfen, viele Probleme zu lösen – aber wir dürfen davon ausgehen, dass sie auch viele neue Probleme schafft." – Maurizio Ferraris, Professor für Theoretische Philosophie an der Universität Turin

Digitale Informationen können in der Blockchain verteilt werden, ohne dass diese kopiert werden können. Ursprünglich wurde die Blockchain für die digitale Währung Bitcoin entwickelt, aber mittlerweile gibt es weitere Einsatzmöglichkeiten für diese Technologie.

"Bitcoin ist was für Spekulanten, aber keine Währung." - Ewald Nowotny, Gouverneur der OeNB, 2017

Wie bei Ihrem Auto oder Smartphone müssen Sie nicht verstehen, wie eine Blockchain funktioniert, um sie zu nutzen.


Siebte Generation: Quantencomputer

Es ist durchgesickert, dass den Ingenieuren von Google die Konstruktion eines Quantencomputers gelungen sein soll. Im Vergleich zu gewöhnlichen Computern hat der Computer-Chip Sycamore für eine spezielle Rechenaufgabe gerade einmal 200 Sekunden gebraucht. Im Vergleich bräuchte der weltbeste Supercomputer dafür 10'000 Jahre.

Herkömmliche Computer arbeiten nach der sogenannten Von-Neumann-Architektur. Das heisst die einzelnen Rechenschritte werden nacheinander, also Bit für Bit, abgearbeitet. Ein Bit kann nur einen wohldefinierten Zustand von 0 oder 1 annehmen. Diese zwei Zustände machen das Binärsystem aus.

"Wenn du denkst, du verstehst die Quantenmechanik, verstehst du die Quantenmechanik nicht." - Richard Feynman, Physiker

Quantencomputer arbeiten nach den Eigenschaften der Quantentheorie. Somit haben sie eine ganz andere Architektur. Das klassische Bit entspricht in Quantencomputern dem Quantenbit, kurz Qubit. Sie können verschiedene Zustände, also 0 und 1, gleichzeitig annehmen, sowie alle Werte dazwischen! Denn Quanten können in sogenannten "Superpositionen" existieren. Also gibt es "halb 1", sowie "halb 0". Auch können sich verschiedene Quantenteilchen in so genannte verschränkte Zustände bringen lassen. Die Qubits stehen alle direkt und ohne jede Krafteinwirkung in Kontakt zueinander. Jedes Qubit weiss, was die anderen gerade treiben. Einfach ausgedrückt können wir sagen: Quantenteilchen können gleichzeitig alle möglichen Zustände einnehmen. Mithilfe eines entsprechenden Algorithmus können alle verschränkten Qubits gleichzeitig verarbeitet werden. Diese Parallelverarbeitung macht die Quantencomputer so unglaublich schnell. Und das Ganze ist eine Potenzfunktion. In herkömmlichen Computern nimmt die Rechenleistung linear mit der Anzahl der Rechenbausteine zu. Die Leistung eines Quantencomputers nimmt exponentiell mit der Anzahl der eingesetzten Qubits zu.

Ein weiterer Vorteil des Quantencomputers ist, dass die Darstellung von Quantenzuständen nur noch jeweils zwei statt 16 Bits benötigt. Dabei bleibt die Genauigkeit der Ergebnisse gleich. Das heisst, dass der Speicherbedarf sich ums Achtfache verringert.

Die Herausforderung im Moment besteht darin, dass Quantencomputer nur bestimmte Aufgaben schneller durchrechnen. Zum Beispiel die Primfaktorzerlegung, die zum Knacken von Passwörtern genutzt wird. Wahrscheinlich werden klassische Computer nicht durch Quantencomputer ersetzt werden können. In Quantencomputern nehmen alle beteiligten Atome eine Superposition ein, in welcher sie während einer Rechenoperation gehalten werden müssen. Dies ist sehr schwierig, weil sich Wechselwirkungen negativ auf die Atome auswirken. [3]

Es gibt viele Anwendungsgebiete für solche Quantencomputer, einige davon sind hier aufgelistet:

 Kryptographie - Verschlüsselung

 Lösung komplexer Optimierungsaufgaben

 Auffinden neuer molekularen Verbindungen

 Künstliche Intelligenz

 Suche in grossen Datenbanken (Big Data)


Achte Generation: Künstliche Intelligenz

Viele sprechen davon, aber die wenigsten wissen, was darunter gemeint ist. Fälschlicherweise wird angenommen, dass die schnelle Auswertung riesiger Datenmengen und dessen Resultate als künstliche Intelligenz (KI) oder artificial Intelligence (AI) gilt (Stichwort: Big Data). Auch ist die Begrifflichkeit der Intelligenz nicht eindeutig festgelegt.

Allgemein akzeptiert zur Feststellung der künstlichen Intelligenz ist der Turing-Test. Benannt nach dem Vater der theoretischen Computertechnologie Alan Mathison Turing. Bei diesem Test führt ein menschlicher Fragesteller, ohne Sicht- und Hörkontakt z. B. über ein Chat-Programm, eine Unterhaltung mit einem Menschen und einer Maschine. Kann der Fragesteller nach der intensiven Befragung nicht mit Bestimmtheit zwischen der Maschine und dem Menschen unterscheiden, hat die Maschine den Turing-Test bestanden und gilt als intelligent. Die Problematik bei diesem Test ist, dass nur die Funktionalität geprüft wird und nicht das Vorhandensein eines Bewusstseins oder einer Absicht.

"KI ist wahrscheinlich das Beste oder das Schlimmste, was der Menschheit passieren kann." - Stephen Hawking, Theoriephysiker

Das Ziel der Forscher ist, das intelligente Verhalten zu automatisieren und maschinelles Lernen zu ermöglichen. [4]

Hier aufgelistet einige Beispiele für die KI-Technologie:

 Automatisierung; Prozess, bei dem ein System automatisch funktioniert

 Machine Learning; maschinelles Lernen, d. h. Computer ohne Programmierung zum Handeln zu bringen

 Machine Vision; Fähigkeit Computer "sehen zu lassen"

 Natural Language Processing (NLP); Verarbeitung der menschlichen Sprache durch ein Computerprogramm


Wie erzielen Sie mit Kryptowährungen bombastische Gewinne? Oder verlieren das letzte Hemd?

Подняться наверх