Zur Homepage   Willkommen Gast. Bitte Einloggen oder Registrieren
 
  ÜbersichtHilfeSuchenEinloggenRegistrieren  
 
Seitenindex umschalten Seiten: 1
Thema versenden Drucken
Computerprobleme (Gelesen: 483 mal)
Thagirion
DEFCON 4
*****
Offline



Beiträge: 1013
Geschlecht: male
Computerprobleme
18.02.17 um 19:34:18
 
Computertechnik ist die Technik, die sich derzeit am rasantesten entwickelt. Nicht alles ist super, nicht alles ist toll, aber es gibt auch Probleme höchst grundlegender Art, über die kaum geredet wird und die den meisten Menschen gar nicht bewusst sind.
Zum Beispiel die Sicherung von Daten. Daten bleiben so lange erhalten, wie sie in laufenden Systemen enthalten sind, aber es gibt praktisch keine Speichermedien, die mehr als ein paar Jahrzehnte halten.
Elektronischer Verschleiß ist ein weiteres Problem, denn elektrischer Strom ist in der Realität nicht wirklich so immateriell wie man ihn sich gern vorstellt, sondern da sind tatsächlich Teilchen in Bewegung, in immer kleineren Halbleiterstrukturen mit Frequenzen im Gigahertzbereich. Da gibt es regelrechte Abnutzung.
Ein weiteres Problem war auch mir bis vor kurzem nicht bewusst: Die Anfälligkeit solcher Technik gegenüber kosmischen Strahlungspartikeln:
https://phys.org/news/2017-02-particles-outer-space-wreaking-low-grade.html
Wenn tatsächlich eine größere Serverfarm alle 17 Stunden von einem Fehler durch solche Einflüsse betroffen ist und jemand, der mit dem Laptop im Flugzeug arbeitet, alle 5 Stunden, ist das nicht einmal ein besonders kleines Problem. Man beachte dabei, dass diese Analyse aus dem Jahre 2003 stammt, und auch damals wohl schon keine ganz aktuelle Technik betrachtete - heute hat der Laptop mehrere Gigabyte und die Serverfarm viele Terabyte Speicher, und die heutige Technik hat längst viel kleinere und damit anfälligere Strukturen.
Es könnte sein, dass man sich hier einer Machbarkeitsgrenze nähert; interessanterweise hat Intel die Verkleinerung der Fertigungsstruktur bei seinen Prozessoren vorerst ausgesetzt, sondern bleibt bei 14nm:
http://www.tecchannel.de/a/intel-verschiebt-10-nm-prozessoren,3202860
Das könnte vielleicht eine höchst vernünftige Entscheidung sein.
Zum Seitenanfang
 

 
IP gespeichert
 
kernspecht
DEFCON 4
*****
Offline


dauerhaft gesperrt

Beiträge: 2713
Re: Computerprobleme
Antwort #1 - 18.02.17 um 20:24:50
 
Hi Thagirion,

mir ist noch nicht so ganz klar, worauf Du hinaus möchtest..

Thagirion schrieb am 18.02.17 um 19:34:18:
Machbarkeitsgrenze


Diese ist wohl erstmal erreicht, kleiner geht halt nicht, was automatisierte Fertigungsstrukturen betrifft... mal abwarten, wies weitergeht...

Denke der nächste Schritt wären dann Quantencomputer, über deren Bauweise weiss ick allerdings nicht viel...


cheers
Zum Seitenanfang
 

gesperrt
 
IP gespeichert
 
IloveUbabe
DEFCON 4
*****
Offline



Beiträge: 1528
Re: Computerprobleme
Antwort #2 - 18.02.17 um 22:06:55
 
Thagirion schrieb am 18.02.17 um 19:34:18:
Es könnte sein, dass man sich hier einer Machbarkeitsgrenze nähert; interessanterweise hat Intel die Verkleinerung der Fertigungsstruktur bei seinen Prozessoren vorerst ausgesetzt, sondern bleibt bei 14nm:
http://www.tecchannel.de/a/intel-verschiebt-10-nm-prozessoren,3202860
Das könnte vielleicht eine höchst vernünftige Entscheidung sein.

Ausgesetzt ist das falsche Wort. Die Fertigungstechnologie für 10nm gibt es ja schon nur ist die erwartete Yield (Ausbeute) noch nciht auf dem Niveau als das es sich lohnt für Konsumenten Prozessoren in der Strukturbreite zu fertigen. Und es lassen sich auch an Refreshs, wie Intel mit seiner Tick-Tock-Politik geseigt hat, gut verdienen. AMD als Konkurrent ist zudem erst dieses Quartal dabei mit Ryzen den Anschluss zu machen. Es gab schlichtweg keinen Grund für Intel aufs Gaspedal zu treten.

Zudem muss man trennen zwischen was am Markt ist, was in Planung und in Entwicklung ist (Grafikkarten also genau genommen GPU- Graphic Prozessor Units haben gute 3/4 Jahre Vorlaufzeit für die Architektur bei CPUs ist es sogar noch mehr) Und dann ist der Forschung und Entwicklung noch die Phase der Fertigungsverfahren Entwicklung und Patentierung vorgeschaltet. Wenn also an Hochschulen oder in industrienahen Labors Laser belichtete Masken für Waver theoretisch beschrieben werden ist das auch gern 10 Jahre voraus, bevor die Fertigungsverfahren in Realität angewendet werden.

Wo da also gerade der Stand ist, kann man gar nicht absehen von Außen, da müsste man schon Insider sein.

Funfact. Die Strukturbreite wie 10 oder 14nm ist nicht der Wirkliche Abstand zwischen den Atomen.

Thagirion schrieb am 18.02.17 um 19:34:18:
Ein weiteres Problem war auch mir bis vor kurzem nicht bewusst: Die Anfälligkeit solcher Technik gegenüber kosmischen Strahlungspartikeln:
https://phys.org/news/2017-02-particles-outer-space-wreaking-low-grade.html

Ja die Anfälligkeit unserer Art zu Leben ist mit der Einführugn von Elektrizität gestiegen. Aber, es ist und bleibt nur eine unmittelbare Gefahr. Die Wahrscheinlichkeit, dass ein Stromnetz wie damals in Kanada ausfällt ist halt gering. Und auch die kosmische Strahlung die mal ein Elektron raus schießt und aus einer 0 ne 1 macht, ist nicht so gefährlich. Den es gibt Checksummen die beim prüfen den Fehler erkennen und dann wird nochmal berechnet. Das war vor DDR4 bei Ram z.B. ein Problem im normalen PC ohne ECC Speicherprüfung. Serverfarmen und ähnliche Einrichtungen hatten aber schon davor Ram mit Prüfungsalgorythmen.

Thagirion schrieb am 18.02.17 um 19:34:18:
Wenn tatsächlich eine größere Serverfarm alle 17 Stunden von einem Fehler durch solche Einflüsse betroffen ist und jemand, der mit dem Laptop im Flugzeug arbeitet, alle 5 Stunden, ist das nicht einmal ein besonders kleines Problem.

Alles einer Frage der Redundanz. Und bei wichtigen Daten ist die einfach in das Grundkonzept inbegriffen. Bei Serverfarmen ist also da kaum ein Problem gegeben. Das betrifft uns dann eher im Privaten, wie CDs/DVDs die altern. Festplatten die ihre magnetische Ladung über die Zeit verlieren oder jetzt seit neuestem SSDs wo eine elektrische Ladung gehalten wird und 0/1 darstellt.
Zum Seitenanfang
 

 
IP gespeichert
 
Thagirion
DEFCON 4
*****
Offline



Beiträge: 1013
Geschlecht: male
Re: Computerprobleme
Antwort #3 - 18.02.17 um 22:36:56
 
kernspecht schrieb am 18.02.17 um 20:24:50:
Diese ist wohl erstmal erreicht, kleiner geht halt nicht, was automatisierte Fertigungsstrukturen betrifft... mal abwarten, wies weitergeht...

Prinzipiell gehts auch kleiner, für 2020 sind von TMSC 5nm geplant:
https://www.golem.de/news/halbleiterfertigung-tsmc-will-den-5-nm-euv-prozess-ab-...
AMD ist auch schon an 7nm dran. Aber vielleicht sollte man sich langsam fragen, ob man da nicht mal stoppen sollte.

IloveUbabe: Funfact. Die Strukturbreite wie 10 oder 14nm ist nicht der Wirkliche Abstand zwischen den Atomen.

Natürlich, aber je dünner, desto anfälliger. Wie Du selbst schreibst, laufen schon heutige Rechner nur deshalb noch zuverlässig, weil in diversen Teilen ständig Prüfalgorithmen mitlaufen, nicht nur in den RAMs, sondern auch im Prozessor, im Grafikchip, in praktisch allem, was irgendwie etwas komplexer ist. Viele kleine Männchen sozusagen, die beständig Wasser aus dem Schiff schöpfen, damit es nicht untergeht. Und je komplexer die Schiffe werden, desto mehr Löcher bekommen sie an allen Ecken und Enden und es braucht immer mehr kleine Männchen mit immer mehr Eimern, die immer schneller schöpfen. Das war es, was ich meinte: Wie lange kann man auf die Art weitermachen?
Zum Seitenanfang
 

 
IP gespeichert
 
IloveUbabe
DEFCON 4
*****
Offline



Beiträge: 1528
Re: Computerprobleme
Antwort #4 - 19.02.17 um 17:42:17
 
Thagirion schrieb am 18.02.17 um 22:36:56:
Natürlich, aber je dünner, desto anfälliger. Wie Du selbst schreibst, laufen schon heutige Rechner nur deshalb noch zuverlässig, weil in diversen Teilen ständig Prüfalgorithmen mitlaufen, nicht nur in den RAMs, sondern auch im Prozessor, im Grafikchip, in praktisch allem, was irgendwie etwas komplexer ist. Viele kleine Männchen sozusagen, die beständig Wasser aus dem Schiff schöpfen, damit es nicht untergeht. Und je komplexer die Schiffe werden, desto mehr Löcher bekommen sie an allen Ecken und Enden und es braucht immer mehr kleine Männchen mit immer mehr Eimern, die immer schneller schöpfen. Das war es, was ich meinte: Wie lange kann man auf die Art weitermachen?

Um beim Männchenvergleich zu bleiben, der mir im übrigen gut gefällt, ist wohl weniger das Problem mehr Männchen zum Wasserschöpfen einzubeziehen, als die immer größere Gefahr Hintertüren zu übersehen, wo unerwünschte Männchen eintritt haben.

Die Architekturen entstehen ja nicht vom Reißbrett an neu, sondern Logikeinheiten werden auf die neue Strukturbreite konzipiert und mit anderen Clustern zusammengebracht. Wenn also die bis dahin bestehenden Mittel ausreichen um "Konsistenz der Daten" zu gewährleisten, wird das auch in Zukunft so sein. Wenn neue Prozessoren und ähnliches entwickelt würden die nicht so "rechnen" wie sie sollen und damit das Ergebnis an sich in Frage stellen sind sie ja wertlos.

Das was sich unmittelbar auswirkt ist sowas wie im Xerox Gate geschehen. Das kann weitaus schädlicher sein, als wenn mal nen halber Kontinent "kurzzeitig" keinen Strom hat. Und man darf nicht vergessen, das bei einer Kernexplosion immer auch ein EMP ausgelöst wird. Sprich wenn jemand Elektronik grillen wollte und uns in die Vorindustrielle Zeit zurückwerfen, so wäre es möglich auch ohne auf die Natur zu warten.

Die Technik halt ich weniger für das was bremst, als das wir in den nächsten Jahren und Jahrzehnten immer mehr Schnittstellen / Interfaces bekommen werden. Bis hin zum Chip im Kopf. Ich halte das nicht für unrealistisch. Es gibt genug die genau sich das als Zukunft erträumen. Und verlockend klingt es schon - ein "Hivemind" der alle menschlichen und unmenschlichen Problem lößt. In der Populärkultur wird es uns ja auch stetig vorgehalten zuletzt mit der KI in "Die 100".

Zum Seitenanfang
 

 
IP gespeichert
 
Seitenindex umschalten Seiten: 1
Thema versenden Drucken