Die „NIXwertzeit“ von digitalen Heiligtümern

Anzeige
 
Einsam zwischen Gerümpel
 
Old Times Memory
 
'State of the art' - und wann 'Schrott'?
 
Mahner ohne Erfolg
 
Buch zu einer Premiere
 
Zwischenspiel
Bezug:
Digitale Datenverarbeitung
Computersysteme
Software
Veralterung
PC-Technik
________________________________________

Erst „Gott“ – dann Schrott…

Wer sehr früh dabei war und sich schon mit den ersten Tandy-, Commodore-, Genie-, TI-, Sharp- oder Apple-„Rechnern“ auf DOS- oder CP/M-Ebene abgegeben (oft „abgequält“?) hat, wird sich an seine „Daten-Heiligtümer“ erinnern. Sie schlummerten in den Magnetschichten von 400-, 800- oder 1.440-K-Disketten oder Daten-Cassetten, die in anderen Geräten ebenso gut auch Musik hätten aufnehmen könnten. Dann kamen die ersten „Festplatten“ auf, die bei Apple für 20 Megabytes den Wert eines stattlichen Motorrades ausmachten.

Waren das Zeiten!

Es begab sich aber zu der Zeit, dass ein Gebot von Herstellern ausging, auf dass alle Welt digitalisiert würde. Die Macht, durch Tippen auf einer Tastatur eine Maschine dazu zu bringen, über den Bildschirm mit deren Benutzern zu „sprechen“, faszinierte Jung und Alt. Programmier-Buden schossen aus den Böden wie Pilze, erste Zeitschriften wie etwa „Interface Age“ oder „Computer Persönlich“ drängten auf den Markt und fanden gierige Augen. Über viele Seiten flossen endlose Listings von BASIC-Programmen, die am Ende nichts brachten als den Beweis, dass eine Maschine etwas präsentieren konnte, das sich ein Mensch ausgedacht hatte.

Dann – 1984 – wurde im Palmengarten zu Frankfurt der Macintosh vorgestellt. Er hatte eine „Maus“ und überraschte mit einer grafischen „Benutzeroberfläche“ namens „GUI“ (Graphic User Interface), die Apple sich bei XEROX in Palo Alto abgeguckt hatte. Apples Verdienst war, die superteure Technologie auf einen Tischrechner runterdividiert zu haben, der bezahlbar war. Ohne den genialen Programmierer Bill Atkinson wäre das jedoch kaum gelungen. Denn der erste „Mac“ war mit nur 128 Kilobytes RAM ausgestattet. Sein Betriebssystem startete von einer 400 KB-Diskette. Außer über den Bildschirm konnten sich die Arbeiten mit dem Macintosh auch über einen Drucker ausgeben lassen. Dazu gab es den Apple-Imagewriter, der freilich von dem japanischen Unternehmen C. ITOH stammte. Dieser Drucker hörte sich an wie der zerstückelte Lärm von einer Kreissäge. Mit diesem Drucker – und einigen mühsam ausgedachten Tricks – gelang es dann, das erste Buch über den Macintosh in deutscher Sprache und mit einem Verfahren zu Papier zu bringen, das später als DTP (Desktop Publishing; sinngemäß „Publikation vom Schreibtisch aus“) in den Sprachgebrauch einging. Fertig ausgedruckt ging das Buch als „Skriptum“ an den Vieweg-Verlag.

Diese Zeit – Mitte der 80er – war eine Phase enormer Umbrüche und Veränderungen. Zuvor hatte es „ex cathedra“ feststehende Regeln gegeben, die fast jeder nachbetete: „Es gibt keinen Grund dafür, dass jemand einen Computer zu Hause haben wollte.“ kam von 1977 von Ken Olson, Präsident von Digital Equipment Corp. (DEC). Nachdem Konrad Zuse den Computer ja bereits erfunden hatte, verkündete 1943 Thomas Watson, CEO von IBM: „Ich denke, dass es einen Weltmarkt für vielleicht fünf Computer gibt.“ Pablo Picasso, Maler und Bildhauer, meinte 1946: „Computer sind nutzlos. Sie können nur Antworten geben.“ 1982 fragte Jan Timmer, Philips-Vorstand, zur Compact Disc: „Wer braucht eigentlich diese Silberscheibe?“ Und 1979 stellte Ian Sharp, Sharp Associates, ostentativ fest: „Email ist ein völlig unverkäufliches Produkt.” Bill Gates toppte 1981 mit seinem Spruch: „640K sollten genug für jeden sein.“

Was in den 80er Jahren losbrach, folgte dann exakt den Regeln, die Vance Packard in seinem Buch „Die große Verschwendung“ bereits 1964 angeprangert hatte. Losgeschlagen wurde die weitere Entwicklung durch das Erscheinen des IBM-PC. IBM hatte zwar einen Desktop-Computer entwickelt, es fehlte jedoch an einem ordentlichen Betriebssystem. Der damals etwas linkische und oft unverstanden herumquäkende Bill Gates fand Zugang zu IBM und entwickelte für den Konzern ein „DOS“ (Disk Operating System), das er im Kern jemand anderem abgeluchst hatte. Nachdem er IBM glücklich gemacht hatte, entwickelte er „seine“ Systemsoftware für all jene „IBM-kompatiblen“ Personal Computer weiter, die sich weltweit vor allem in Büros einnisteten. Das war nicht gut für IBM. Doch dieses etwas arrogante Unternehmen war zu unaufmerksam gewesen und hatte sich nicht die alleinigen Rechte an der System-Software gesichert. Deshalb konnte Gates mit dem System in der ganzen Welt hausieren gehen, ohne dass für die IBM-kompatiblen Rechner ein besonderes Betriebssystem entwickelt werden musste.

Innovation als Wertvernichtung

Mit der Möglichkeit, TRS-DOS, NewDOS und andere Derivate zu nutzen, kamen immer mehr „kompatible“ Rechner auf den Markt. Doch an Benutzerfreundlichkeit wurden sie alle von Apple’s Macintosh übertroffen. Das lockere „Flower Power“-Weltbeglückergehabe bei exorbitant hohen Preisen für die Produkte vermieste es Apple, den Markt zu Apple’s Gunsten auf breiter Front aufzurollen. Die ungeheure Arroganz des Unternehmens, das sich so undurchdringlich gab wie der Vatikan, legte jedoch den Grundstein zu dem Glauben, mit dem Griff zu Apple’s Rechnern in eine besondere Käuferklasse aufzusteigen. Wer die Geräte von Apple benutzte, fühlte sich als etwas „Besseres“ weit oberhalb der Freaks, die sich mit Tandy-, Genie- oder Commodore-„Kisten“ herumschlugen.

Tatsächlich gab es Grund dazu. Die Software-Hersteller wie „ADOBE“ und in Deutschland „Systematics“ kaprizierten sich darauf, insbesondere kaufkräftige Anwenderschichten in den Medienbereichen anzusprechen und mit entsprechender Software zu bedienen. Das gelang ihnen. Noch heute, rund 30 Jahre nach der Einführung des Apple-Macinstosh, werden allerorten Kabbeleien ausgetragen, bei denen die „Apple-Gläubigen“ respektlos auf den Rest der Welt herabblicken. Nur hat sich das Anwenderfeld ein wenig verschoben und umfasst jetzt die iPAD-, iPHONE-, iPOD- und iMAC-Benutzer, die naserümpfend die Benutzer anderer Marken belächeln. Dabei ist nicht bestreitbar, dass beispielsweise bei den Smartphones solche Unternehmen wie SAMSUNG und bei den Personal Computern sogar Discounter wie ALDI oder LIDL mit ihren Aktionsangeboten durchaus vergleichbare Geräte für unvergleichlich weniger Geld anbieten.

Schneller und oft gewollter Alterungsprozess

Wer 30 Jahre die Entwicklung der Personal Computer als praktischer Anwender und nicht nur über die Medien verfolgt hat, wird die Entwicklung mit einem lachenden und einem weinenden Auge überblicken. Das lachende Auge sieht, dass die Benutzung von „richtigen“ Computern über „Desktops“ oder „Towers“ sowie Note- oder Netbooks bis hin zu den Tablet-PCs und den Smartphones immer leichter, unproblematischer und zumutbarer wurde. Im Bereich der mobilen Telefone ist es allerdings wieder einmal Apple gelungen, eine „Revolution“ auszulösen und wiederum eine „Gemeinde“ von Apple-Fans zu generieren, die ziemlich immun ist gegen eine Abwanderung zu anderen Marken und Apple enorme Gewinne garantiert. Dass Apple im asiatischen Bereich eher „spottbillig“ zu entsetzlich brutalen Arbeitsbedingungen fertigen lässt, um seine Gewinne zu maximieren, stört kaum jemanden. Denn „Geiz ist geil“ geworden und wird von jedermann praktiziert ohne zu fragen, wie viel Kinder- oder Fronarbeit in einem Produkt steckt. Dass etwa IKEA und viele Elektronik-Fachmärkte längst weitgehend zu „China“- oder „Billiglohn-Basaren“ mutiert sind, wird kaum noch wahrgenommen.

Das weinende Auge summiert in der Erinnerung die vielen Kurzlebigkeiten von Hard- und Software-Produkten auf, die beim Erwerb begeisterten sowie „Glücks“- und „Erlösungsgefühle“ aufkommen ließen. Schon kurze Zeit später waren sie aber überholt, wurden von neuen Produkten oder Hard- oder Softwareindustrie in den Schatten gestellt. Vieles war schon nach drei oder spätestens vier Jahren „nichts mehr wert“. Besonders bei den immer schneller verfallenden Preisen konnte man sogar Tränen in die Augen bekommen. Eine 500MB-Festplatte kostete bei ihrem Erscheinen deutlich mehr als heute eine Festplatte mit einem nahezu 4.000-fachen Speichervolumen. Dabei versprach sie zu ihrer Zeit geradezu paradiesische Verhältnisse. Galten 500 MB RAM einmal als „üppig“ und völlig ausreichend, sind heute Rechner mit einem 8- oder 16-fachen Kernspeicher keine Besonderheit mehr.

Vance Packard hat sich außer in seinem Buch zur „planned obsolescence“ (eingeplante Veralterung) auch zu späteren Entwicklungen und zur Verschwendung von Ressourcen geäußert und kein gutes Haar an der Elektronik-Industrie gelassen. Bezahlt wurden Leichtsinn und Verschwendung jedoch stets von den Endabnehmern, die bei den Anbietern ihr Geld gelassen haben. Durch „Innovation“ und „Fortschritt“ wurden viele Produkte zu ihren Vorgängern auch „inkompatibel“ (unverträglich). Zwischen dem seinerzeit hochgeschätzten Z80-Mikroprozessor (der auch in dem legendären „SINCLAIR“-Rechner und als U880D auch in der DDR verbaut wurde) und einem heutigen Prozessor wie dem i3, i5 oder i7 von INTEL liegen Galaxien. Takteten „schnelle“ Prozessoren einmal mit Millionen Hertz (Schwingungen je Sekunde), sind es heute mehrere Milliarden Hertz bei größerer „Wortbreite“ (Anzahl der Vertauschungen von 0- und 1-Werten im Speicher bei einem „Takt“). Eine etwas wehmütige Reminiszenz hinsichtlich eines weniger bedeutsamen Rechners findet man hier.

Entsprechend der Leistungsfähigkeiten von Prozessoren veränderten sich auch die Leistungen von anderen „Chips“ und von Komponenten, die auf der Nutzung solcher Chips basierten. Speziell bei der Grafik gab es laufend Veränderungen in Richtung Punktdichte auf den Bildschirmen und der Geschwindigkeiten beim Bildaufbau. Treibend wurde vor allem die die Szene der Computerspiel-Fans und der Video-Filmer, die ihre Aufnahmen gern mit Rechnern „nichtlinear“ schneiden wollten. Diese Anwender-Gruppen sind gegenwärtig schon wieder weitgehend aufgeschmissen durch die Einführung des FullHD-Formats, das „man natürlich unbedingt auch haben muss“.

In den letzten beiden Jahren surfte der Wettbewerb zwischen 32- und 64-bit-Betriebssystemen auf hoher Welle. Wer etwa 8 GB RAM in seinen Rechner gesteckt hatte, konnte zum Beispiel für die Bearbeitung von hoch aufgelösten Bildern diesen Speicherbereich auch nur dann nutzen, wenn er auf ein 64-bit-Betriebssystem umzusteigen bereit war. Der Umstieg bedeutete dann aber noch keineswegs, dass die genutzten Programme auch die Vorteile von 64-bit ausschöpften. Bei den meisten Programmen, die naturgemäß auf 32-bit-Systemsoftware zugeschnitten waren, konnte man froh sein, wenn sie auch unter 64-bit klaglos funktionierten, ohne von ihren Möglichkeiten etwas einzubüßen. Nicht wenige 32-bit-Programme machen aber unter 64-bit nichts als Ärger, wenn sie den Rechner nicht gleich mit in einem Absturz rissen.

Zwischen Hardware- und Software- Weiterentwicklung etablierte sich eine Eskalationsspirale. Wurde die Hardware leistungsfähiger, sogar so leistungsfähig, dass sie Reserven bot, schöpfte die Software die neuen Leistungsspielräume schnell bis zum Strapazieren auch der Reserven schnell aus. Dadurch geriet die Hardware-Entwicklung unter Druck und zog nach, indem sie die Software aus ihren neuen Engpässen erlöste. Das ermunterte die Software-Entwickler, immer neue „Features“ in ihre Produkte hinein zu packen, ob diese nun sinnvoll waren oder nicht. Wer einen Artikel schreibt wie diesen, kommt mit WORD 2000 aus der Jahrtausendwende vielleicht besser zurecht als mit der mittlerweile überfrachteten neuesten WORD-Version. Vom wirklichen und sinnvollen „Bedarf“ her sind die meisten Programme aus der Gegend gegen Ende des letzten Jahrzehnts völlig ausreichend. Viele Videoschnipsler arbeiten mit einer als besonders laufsicher bewährten und schon drei Jahre alten Video deluxe-Version lieber als mit neueren Versionen. Diese unterscheiden sich von älteren Versionen oft nur dadurch, dass individuell nicht benötigte „Features“ in das Programm gepackt wurden und den Rechner ungleich heftiger belasten.

Draufpacken bis zum Bersten

Dieses Spiel wurde mit Bravour gespielt und läuft noch immer in auch kürzeren Intervallen weiter. Rückblickend fällt eine immense Spur von Verlusten durch Veralterung auf, die in keinem zufrieden stellenden Verhältnis zum erzielten Nutzen – oder besser: Mehrwert! – steht. Mit einem Rechner aus dem Jahre 2003 (INTEL P4-HT-CPU, 3 GHz Takt, 4 GB RAM, Nvidia-Grafik, IDE-HDDs, DSL, Windows XP SP3) lassen sich die wirklich notwendigen und anfallenden Arbeiten noch ebenso gut erledigen wie mit einem vorhandenen i5-Notebook oder einem i7-Desktop. Doch die Werbung der Hersteller hat es verstanden, die Anwender von Digitaltechnik auf einen „immer noch schneller“-Trip zu locken, sie in einem „NEU! NEU! NEU!“-Hype zu ertränken und über das Internet in einen „must have“-Rausch zu versetzen. Kaum jemand geht hin und malt sich ein Lastenheft aufs Papier, um zu erkennen, was seinen Wünschen entspricht und vielleicht bei erkennbar werdenden Defiziten angeschafft werden sollte.

In dieser Hinsicht hat Apple auch wieder eine unrühmliche Rolle gespielt. Denn die Geräte von Apple waren über eine langen Zeitraum in sich geschlossene „Black Boxes“, an denen man kaum etwas verändern, an die man höchstens etwas anschließen konnte, das Apple ebenfalls teuer anbot. Die oft auch untereinander kompatiblen Windows-Rechner waren und sind auch heute noch weitgehend modular aufgebaut. Je nach Bauart konnte man auch einen etwas „langsamen“ billigen Prozessor in einen vielleicht von LIDL stammenden OEM-PC gegen einen schnelleren austauschen. Oder man warf die durchschnittlich leistungsfähige Grafikkarte raus und versenkte eine mächtige und natürlich auch viel teurere Grafikkarte in den Steckplatz. Wurden in einem fertigen Rechner nur 2 GB Speicher verbaut, konnte man in der Regel leicht weiter 2 GB Speicher hinzu packen.

Doch wie auch immer: Wer sich nicht in Geduld üben und sich nicht beherrschen konnte, wird in den letzten zwei oder drei Jahrzehnten ein kleines Vermögen geopfert haben, um „up-to-date“ zu sein oder mit „state-of-the-art“-Erzeugnissen arbeiten zu können. Rückblickend wird er sich in dieser oder jener Hinsicht als zumindest ein ganz klein wenig töricht gewesen vorkommen. Nun, es hat „Spaß gemacht“, auch wenn der Spaß oft darin bestand, bei einem Aufstieg zu einer höheren Version von irgendetwas schlimmstenfalls nächtelang geknobelt und bei mancher Neuinstallation geflucht zu haben. Denn zu notwendig werdender „Freischaltung“ oder Neu-Registrierung von Software haben manche Hersteller unzumutbare Hürden eingebaut.

Nichts von all dem, was bis hier her berichtet wurde, ist ohne Belang zu den Daten, die es zu bewahren galt und an denen oft das Herz hing. Von Windows 1.0 oder 95 bis hoch zu Windows 8 haben es die meisten Daten noch leicht, weiter genutzt zu werden, falls sie nicht in exotischen Formaten von längst dahingeschiedenen Programmen stammen sollten. Aber mit den zunehmenden Fassungsvermögen der Datenträger wurden auch die Datensicherungen, so genannte „Backups“, immer mehr empfohlen und durch entsprechende Programme auch erleichtert. Als viele Benutzer merkten, dass sie unkontrolliert zu viele Dubletten oder Tripletten oder sogar Schlimmeres aufgetürmt hatten, halfen „Duplicate Finder“ dabei, überflüssigen Kram zu erkennen und loszuwerden und Speicherplatz wieder nutzbar zu machen.

Trotz alledem: Wer freudig Daten erzeugte und sammelte, kam schließlich um die Anschaffung immer neuer und immer zahlreicher werdender Laufwerke nicht herum. Die jedoch waren häufig nicht alle gleichzeitig anschließbar, bereiteten dann auch noch wegen der aussterbenden IDE- und vordringenden SATA-Schnittstellen zusätzliche Probleme, die sich auch durch die Anwendung von USB-Adaptern nicht gerade bequem umschiffen ließen. Über viele Jahre konnte und kann sich auch heute noch allerhand an Schriftverkehr oder etwa fotografischen Erinnerungen anhäufen, was für jeden einen unterschiedlichen „Wert“ bis hin zu „einmalig“ oder „unbezahlbar“ darstellt. Bei gewerblichen Anwendern kommen noch die gesetzlichen Aufbewahrungspflichten hinzu.

Teuflisch lästig wird es, wenn man etwa von Macintosh- zu Windows-Systemen umgestiegen ist und nicht sogleich versucht hat, die Daten von dem einen System für das andere System umzuwandeln, was übrigens nicht immer überhaupt möglich war. Dann kann es unglücklicherweise auch geschehen, dass Daten auf Speichersystemen liegen blieben, die über „SCSI“ anzuschließen waren, heute aber nicht mehr zu nutzen sind, weil kein Rechner mit SCSI vorhanden ist. Das kann je nach Anwender eine Menge von Daten sein, die zu retten einen ungeheuren Aufwand bedeuten würde.

Steht man dann vor einem Schrank mit einer Menge von Disketten und speziellen Datenträgern, auf die kaum noch zugegriffen werden kann, mag die Erlösung darin zu finden sein, dass man zum einen überhaupt nicht mehr weiß, was sich auf den Datenträgern befindet, und zum anderen schon sehr viele Jahre die Daten nicht mehr gesichtet oder benutzt hat, ohne dabei etwas zu vermissen. Dann sollte man in sich selbst das Todesurteil für all das Daten-Sammelsurium fällen und es auch vollstrecken.

Die Konsequenz danach sollte auf jeden Fall sein, dass man ein für allemal und sorgfältig für sich selbst entscheidet, was wirklich wichtig und aufhebenswert sein soll, und das „für die Ewigkeit“ Bestimmte separat und mit einem sicheren Backup auf getrennten Datenträgern ablegen. Dazu bieten sich preiswerte kleine Notebook-Laufwerke an, die man auch bequem anderweitig verstauen und transportieren kann. Dass vieles Digitale allmählich vom „Gott“ zum Schrott werden kann, wird dadurch nicht ausgeschlossen.

Apropos: Wer Datenträger mit hoher Kapazität anschaffen möchte, sollte erst einmal nachsehen, was er vorübergehend auf vorhandenen Datenträgern freischaufeln kann, und sich etwas in Geduld üben, bis die neuen SSD-Laufwerke (an denen bewegungsfrei überhaupt nichts mehr „läuft“) noch preiswerter zu haben sind. Dann aber sollte er sie anschaffen und dadurch die Geräuschentwicklung und den Stromverbrauch drastisch reduzieren. Nebenbei – aber für viele Anwender die Hauptsache – erfährt er eine unglaubliche Beschleunigung bei den Zugriffszeiten. Da bewegt sich die Eskalationsspirale einmal sinnvoll.

Manfred Schuermann
- Fachjournalist IT/Media -
©2013 by BrainWARE / M. Grosner / M. Schuermann
- Speichern. Kopieren und anderweitig verwenden nicht erlaubt -
- Auszugsweise Zitate mit Namensnennung erlaubt -
(Der Beitrag wird noch weiter überarbeitet.)
________________________________________
„“-
0
12 Kommentare
Markus Tillmann aus Essen-Kettwig | 18.03.2013 | 20:11  
1.629
Manfred Schuermann aus Essen-Ruhr | 18.03.2013 | 22:40  
5.823
Stanley Vitte aus Düsseldorf | 19.03.2013 | 13:57  
122.857
Thorsten Ottofrickenstein aus Menden (Sauerland) | 19.03.2013 | 14:08  
16.074
Manfred Kramer aus Dorsten | 19.03.2013 | 17:47  
1.629
Manfred Schuermann aus Essen-Ruhr | 20.03.2013 | 02:22  
Markus Tillmann aus Essen-Kettwig | 20.03.2013 | 20:14  
122.857
Thorsten Ottofrickenstein aus Menden (Sauerland) | 20.03.2013 | 23:53  
Markus Tillmann aus Essen-Kettwig | 21.03.2013 | 20:02  
122.857
Thorsten Ottofrickenstein aus Menden (Sauerland) | 22.03.2013 | 00:55  
4.013
Joachim H. Hartung aus Monheim am Rhein | 28.03.2013 | 10:35  
1.629
Manfred Schuermann aus Essen-Ruhr | 28.03.2013 | 11:48  
Schon dabei? Hier anmelden!
Schreiben Sie einen Kommentar zum Beitrag:
Spam und Eigenwerbung sind nicht gestattet.
Mehr dazu in unserem Verhaltenskodex.