Hast Du eine NVIDIA Grafikkarte der neuesten Generation drin und läßt Du mal eine Simulation drauf laufen, Du hast heute zB eine Blender oder Fusion Simulation oder auch eine Simulation von Lösungen von Differentialgleichungen (zB mit COMSOL) zT mit 1 Sekunde gelöst was noch vor 10 Jahren auf einem Rechnercluster mehre Minuten oder zT eine halbe Stunde dauerte.
Und das mit den Quantencomputern hast Du nicht mitbekommen?
https://www.nzz.ch/wissenschaft/quantencomputer-ibm-stellt-neuen-osprey-prozessor-vor-l...
Der neue Osprey von IBM hat bereits 433 QBits. Das beweist, daß Hochskalieren des IBM Ansatzes mit supraleitenden Transmon-Qbits funktioniert.
Alternative Ansätze mit Atomen und Ionen werden gerade ausgetestet. Quantencomputing wird kommen.
Der erste Transistor wurde 1947 gebaut. Schaltkreise mit 10 oder 20 Transistoren kamen in den 1950ern, speziell mit Jack Kilby 1958 mit dem ersten FLipflop aus 2 Transistoren.
https://de.wikipedia.org/wiki/Integrierter_Schaltkreis#Von_Kilby_und_Noyce_bis_heute
Die ersten ICs von TI und Fairchild hatten ein paar Dutzend Transistoren drin. Hier sieht man ein NOR Gatter mit 6 Transistoren.
https://de.wikipedia.org/wiki/Widerstands-Transistor-Logik
Damit hatte immerhin die Mondlandung geklappt!
CMOS kam 1963 und legte die Basis für alles, was wir heute haben.
Der 7400 hat pro NAND Gate 4 Transistoren, und da NAND die Basis für jeden von Neumann Computer ist, reicht es, damit alles aufzubauen. Du kannst den fortschrittlichsten INTEL oder AMD Prozessor aus den NAND Gates aufbauen und jedes NAND Gate aus 4 Transistoren:
Nicht anders ist es beim Quantencomputer, dort hast Du die Controlled NOT Operation (CNOT), die die Basis jedes Quantencomputers darstellt. Und die wird gerade hochskaliert. Der nächste Quantencomputer hat sicher schon mehr als 1000 QBits. Und dann wird das auch nach dem Moore'schen Gesetz hochlaufen. Und hier bekommt das keiner mit.
https://en.wikipedia.org/wiki/Controlled_NOT_gate
Moore's law ist ungebrochen, sowohl bei Transistoren pro Chip, bei Speichertransistoren, bei Rechenleistung, bei Datenraten und -übertragung, bei Displays und bei Kameras. Schau Dir doch mal die neuesten Smartphones an, was die für eine unfaßbare Rechenleistung haben.
https://www.reddit.com/r/singularity/comments/tlc76z/moores_law_2022_update_these_two_g...
Moore'sches Gesetz bis 2022
Belege also Deine unbelegte Fake-News Behauptung, "Moorsches Gesetz? ==> wurde doch schon seit einigen Jahren ausgehebelt"!
"Künstliche Intelligenz? ==> sehe ich seit 15 Jahren keine merklichen Fortschritte."
Dann schau Dir mal die Publikationen zum Thema "machine learning" an:
Das sind "keine Fortschritte"? Die Publikationen haben sicher alle nur triviale Anwendungen zum Thema. Noch krasser wird es bei den Veröffentlichungen zu "AI" (artificial intelligence):
Ist es in der Nordost-Zone echt so schlimm, daß man da total hinter dem Mond sitzt? Ich dachte immer, das wäre bei uns in der Palz so, aber wir haben zumindest Gigabit Glasfaseranschluß.
Und wenn Du argumentierst, daß Dein neuester Dell/Lenovo/Apple Computer mit der neuesten Software "auch nicht mehr" machen könne als vor 10 oder 20 Jahren, dann reizst Du Deine Computer nicht wirklich bis ans Limit aus. Als Leistungsbeispiel (stellvertretend für Simulationsleistung) kannst Du Dir die neuesten Spiele mit NVIDIA Grafikkarte anschauen, zB ein Autorennen auf dem Nürburgring, das ist dermaßen realistisch daß Du es kaum noch von der Wirklichkeit unterscheiden kannst, wenn Du auch das passende Display dazu hast.
Hatte neulich nicht jemand hier geschrieben, er hätte noch Windows 7 auf seinem PC laufen? DAS ist anscheinend der Stand hier im Forum, und von dieser Warte aus sieht man die Welt.
Bitte einmal einen Besuch in Santa Clara bei NVIDIA durchführen.
Das ist, was in der USA entsteht, während bei uns die alte D und das neue elende kleine X unser Land morgenthauisieren.
Schau Dir doch einmal den Börsenkurs von Cadence Design Systems an oder von ARM, die die neuesten Prozessoren (u.a. auch für Apple) entwerfen. Da ist nichts von Niedergang zu spüren. Im Gegenteil.
https://www.onvista.de/news/was-den-chip-hersteller-arm-so-besonders-macht-und-wie-soft...
Dito bei ASML & Co.
Mannomann, Deutschland ist dermaßen ahnungslos. Kein Wunder, daß für die ostdeutsche D das Internet Neuland war. Wenn man mit manchen Zonis redet, sprechen die einen noch auf den ersten Megabit Prozessor an. Dabei war das IHP in Frankfurt/Oder seiner Zeit weit voraus, leider wurde es durch die völlig jämmerliche Politik eines IM Sekretär Manfred Stolpe an den Blender Abbas Ourmazd verscherbelt. Zum Glück ist es auch heute noch bei einigen Dingen weltführend. Siehe dieser Weltrekord einer 265 GHz Photodiode aus dem Jahr 2021:
https://www.ihp-microelectronics.com/de/news/news-detailansicht/weltrekord-ultraschnell...
Hätten wir die in den Glasfaser-Receivern, wäre Deutschland nicht so hinten dran wie es nach 16 Jahren der elenden Zonen-D der Fall ist.
Ich rate Dir, ab und zu bei Scinexx vorbei zu schauen, damit Du up to date bleibst:
https://www.scinexx.de/technik/
https://www.scinexx.de/physik/
https://www.scinexx.de/energie/
Das sollte selbst in der Zone mit ISDN Anschluß noch funktionieren. In Bangkok oder in Vietnam und im hintersten ländlichen China kann man das schon über 5G beim Laufen durch die Stadt auf seinem Smartphone sehen.
Und hier labert man von "menschlichen WLAN Routern aus Graphenoxid". Unfaßbar. Deutschland hat fertig, und die Äußerungen hier im Forum selbst der gebildeten Generation 50+ sind knallharter Beleg dafür.