15 Jul 2013

Linux Ubuntu

Submitted by ebertus

Screenshoot: Bernd Ebert
 

Man wusste es, ahnte es natürlich schon immer. Linux ist sicher, Linux ist quelloffen, Linux ist nicht so leicht zu manipulieren. Ähnliches gilt wohl grundsätzlich für sog. OpenSource-Projekte, soweit das monetär orientierte "Wem nützt es?" nicht im Sinne partikularer Interessen beantwortet werden wollte. Somit sind die aktuellen "Enthüllungen" bezüglich der flächendeckenden Überwachung nicht wirklich neu, lediglich die Intensität dessen, was dort in quasi rechtsstaatlichem und dennoch sehr partikularem Auftrag passiert, das hat überrascht.


 

In der Historie und weitgehend beruflich determiniert, bin ich ein sog. Microsoft-Shop, sprich: das IT-Wissen und die sich entwickelnde Erfahrung kreisten seit Anfang der 1980er und ersten Erfahrungen mit dem legendären AppleII dann beinahe ausschließlich um Microsoft Produkte. Und das waren angefangen mit MS-DOS über alle nur denkbaren Windows-Inkarnationen, dann zunehmend die Anwendungsprogramme bis hin zu Server- und Netzwerkumgebungen, also beinahe alle nur denkbaren Spielarten der Microsoft-Welt. Keine Frage, die daraus resultierenden Synergieeffekte können gerade im Unternehmensumfeld beachtlich sein.

Linux in einer Version von Suse hatte ich vor Jahren mal testweise installiert, ein positives Feeling wollte sich -mit Sicherheit und nicht zuletzt wegen meiner Vorbelastung- jedoch nicht einstellen. Dazu kamen ganz handfeste Probleme, was die Grundfunktionalität überhaupt betrifft und pauschal betrachtet unter die Rubrik Hardwareansteuerung bzw. Treiberversorgung fällt. Entsprechend skeptisch gestaltete sich nun mein aktueller Versuch... und die Überraschung war groß, positiv.

Bei dem eingesetzten Testrechner handelt es sich um einen IBM ThinkCentre (8114-D1G), der extra für diese Tests mit einer älteren Sata-Platte (80GB) bestückt wurde. Für das vorab vom Image wieder eingespielte W7 waren 48GB reserviert, der Rest also von Linux (native + Swap) zu benutzen.  Es wurde sowohl die interne, auf dem Motherboard befindliche Hardware (Audio, LAN) erkannt wie auch die nachgerüstete ATI Radeon HD 2400Pro. Mehr noch, die von mir über eine PCI-Karte (ESata) angeschlossene externe Festplatte (NTFS-formatiert) wurde ebenfalls sofort erkannt. Gerade beim Lesen und mehr noch beim Schreiben von NTFS-formatierten Partionen unter Linux gab es früher erhebliche Schwierigkeiten. Und so sieht das fertige Werk dann windowsseitig unter dem von mir gern genutzten Paragon Festplattenmanager aus:

Die Linux-Installation hat sich den verbleibenden Platz auf der Festplatte erschlossen und (ganz rechts erkennbar) auch eine kleine Swap-Partition eingerichtet. Im neu erzeugten Boot-Loader kann man dann wählen, ob Windows oder Linux gestartet werden soll. Ok, der normale User würde jetzt vielleicht anfangen Ubuntu-Linux zu entdecken, würde die bereits vorhandenen Programme testen und konfigurieren, eventuell neue installieren. Mir steht -und mit Sicherheit der beruflichen Historie geschuldet- erst einmal Anderes im Sinn. Einen bestimmten, definierten Zustand nachvollziehbar zu sichern und dann wieder herzustellen, das ist ein Credo professioneller Herangehensweise.

 


Dualbootsysteme zweier verschiedener Windows Installationen sind eher kein Problem, soweit nicht mit W8/UEFI geschlagen. Aber ein heterogenes Dualboot mit W7 und Linux? Als letzter Test in dieser ersten Neuentdeckung von Linux steht daher, ebenfalls über die Paragon-Software und stand-alone von der CD gebootet ein Backup/Recovery an. Dafür wird die nun komplett installierte Festplatte gegen eine andere getauscht, wie im richtigen Leben eben, wenn so eine Platte defekt ist und "die Neue" aus den (hoffentlich) aktuell gehaltenen Backups/Images wieder aufgebaut werden muss. Also, gesagt und getan, mit Paragon FPM11 die Windows wie die Linux Installation gesichert, den Masterbootrecord (MBR) natürlich separat. Ein Hinweis beim Recovery machte dann aber stutzig:

"Sofern Linux installiert ist, reinitialisieren sie bitte den bootloader"

Und dann beim reboot...? Nichts, kein Bootloader, kein Linux, kein Windows. Das Bios drehte sich beim Starten im Kreise. Nun ist es ja in den meisten Fällen kein Problem, ein Windows, welches zusammen mit dem MBR auf der gleichen (ersten) Festplatte liegt, wieder zum Starten zu überreden. Dafür gibt es Tools und entsprechendes Know How kann man sich, soweit nicht eh' vorhanden, einfach anlesen. So auch hier und Windows startet dann mal wieder, nur ist das ja keine wirkliche Lösung für das offensichtliche Problem. Gleich die erste Recherche bringt im Auftaktposting eine zutreffende Fehlerbeschreibung und aus der dort folgenden Diskussion, ist zweierlei zu entnehmen. Zum einen ist Paragon (natürlich) eine Windows-Software für Windows Installationen und zum anderen werden auch durch das separate Sichern und Wiederherstellen des MBR offensichtlich nur die entsprechenden Windows-Anteile abgehandelt; der Linux-Bootloader geht baden. Gebraucht wird also ein Backup/Recovery-Tool für den Bootloader oder eine dafür geeignete Komplettsoftware. Zum Glück existiert die lauffähige  Version ja noch auf der anderen Festplatte, kann bei weiteren Tests darauf aufgebaut werden.

- - - - -

Interessant wäre in dem Zusammenhang genau dieses Wissen um das Backup/Restore auf einer reinen Linux-Installation, also ohne Dualboot-Gedöns. Da soll ja auch mal die Harddisk defekt, durch eine neue, gar eine SSD ersetzt werden. Letzteres wurde meinerseits erst vor einigen Wochen mit einem umfangreich installierten und konfigurierten W7 auf einem anderen PC umgesetzt. Ohne Probleme...

Immerhin, von der wieder eingebauten originalen Platte läuft alles (W7 und Linux mit vorangestelltem Bootloader/Bootmenü).  Und nun Linux gebootet, so habe ich auch herausbekommen, wie man eine Konsole öffnet um direkt native Befehle eingeben zu können. Damit könnte man -zumindest angelesen- also Bootloader und Partitionstabelle, sprich: die MBR-Daten in eine Datei schreiben. Dafür also mal hurtig in die Befehlssyntax von Linux eingearbeitet,  dann einen bootfähigen Livestick gebastelt, darauf die erstellte Datei mit den MBR-Daten abgelegt. Schließlich vom Stick booten, mit Rootrechten anmelden, die notwendigenLaufwerke mounten und die MBR-Daten zurück schreiben. Aber alles erst, nachdem die kompletten Partitionen (mit Paragon oder was...?) auf die neue Platte zurückgesichert sind, weil dabei ja der MBR gecrashed wird bzw. das Wesentliche fehlt.

Ok, der letzte Absatz ist ein Stück weit als Ironie zu verstehen - oder auch: Stay tuned...!

 

Surface RT - ohne "Pro"

das kastrierte, das nach meinem Verständnis "ausschließlich" auf MS gedongelte Surface liegt also wie Blei in den Verkaufsregalen, da wird auch die aktuelle Preissenkung nur wenig daran ändern. Und die Windows-Bedeutung sinkt, so ist einmal mehr zu lesen, mit Zahlen, Grafiken und erkennbaren Tendenzen untermauert. Ob das "Pro", welches ein zumindest theoretisch "offenes" W8 unterstützt, vielleicht gar unter W7 zum Laufen gebracht werden kann, ob dieses "Pro" sich nun besser verkauft, das darf bezweifelt werden, auch wenn die Technik an sicht nicht schlecht sein soll. Dieser Spiegel-Artikel klingt durchaus angenehm; gerade falls man eher beruflich unterwegs ist. Nur wenn da etwas von einem optionalen "Tastatur-Cover" zu lesen ist, dann scheint ein richtiges Notebook/Netbook möglicherweise doch die bessere Lösung. Schlimmer noch, da weder UMTS noch LTE bei dem "Pro" direkt an Bord sind, somit bei Bedarf über eine separate Hardware (Stick) und eine hoffentlich W8-kompatible Software nachgerüstet werden wollten. Ja und für den Spaß wäre das im gleichen Spiegel-Text ebenfalls beschriebene Sony XperiaZ meine erste Wahl; einschließlich LTE...   

Natürlich, Linux läuft dort bestenfalls unter "others", was einerseits auf den selektiven, durchaus interessengeleiteten Fokus  derartiger Betrachtungen hinweisen kann und andererseits verschweigt, dass sehr viel Linux auch bei Android enthalten ist. Nicht zuletzt, basieren die Betriebssysteme vieler Geräte (beispielsweise die der von mir geschätzten und auch im Umfeld eingesetzten AVM-Fritz!boxen) auf Linux; ebenfalls das neue Firefox-OS.

Insofern kann es nicht vollkommen falsch sein, sich zumindest rudimentär über Linux zu informieren, ist hier im Blog auf der horizontalen Menüleiste ein neuer Punkt namens "Linux&Co" hinzugekommen, der als Einstieg -und eben nicht nur für/zu Linux- fungieren soll. An der linken Seitenleiste im zweiten Abschnitt werden die Blogbeiträge ebenfalls gelistet.

So have a look...

was sollen eigentlich diese ständigen negativen Hypothesen?

der Preis ist noch nicht einmal gesenkt, und schon wird bezweifelt, ob das überhaupt....... ???

Ich bin sicher, wenn die allgemeine und apfelförmige Smartphone- und Tablet-Hysterie einem rationalen Denken gewichen ist, wird die Erkenntnis Platz greifen, dass neben !! der Touchfunktion eine Tastatur zum ordentlichen Arbeiten ganz sinnvoll ist, und Geräte wie das unterschätzte Surface von Microsoft eine gute Wahl wären.

Da können auf Googles Android basierende Tabletten und MobileFons natürlich überhaupt nicht mithalten, also auch nicht Sonys XperiaZ.

Hoffentlich gelesen,

oben in meinem Erstkommentar den "bleiernen Link", zu diesen Überbringern der Botschaft. Ansonsten hier nochmal die negativen Hypothesen:

http://notina.net/ti

man muss ja nicht jeden Blödsinn kolportieren,

dass Windows nur noch auf 30% der Rechner lief, ist schlichtweg ein Schmarrn, es sei denn, man rechnet das Spielzeug Smartphone und Tablet ernsthaft auch zu "den Rechnern".
Bei solcherlei Statistiken, die ja häufig ein völlig verzerrtes Bild abgeben, wurden in Wahrheit lediglich Äpfel mit Birnen verwechselt.

Und die Vermutung, dass durch die Preissenkung der Verkauf wahrscheinlich nicht gesteigert würde, kam ja wohl von Dir.
Auch das halte ich für eine völlig falsche Prognose.
Alles in Allem sind die Hypothesen und Prognosen doch eher diskreditierendes Wunschdenken von unseriösen "Fachleuten", die sicher bald in der Realität wiederlegt werden.

Ich gehe davon aus, dass auch die Pro-Version bald im Preis gesenkt wird, die zeitversetzte Anpassung der höherwertigen Version ist völlig normales logisches kaufmännisches Verhalten.

Meine "Vermutung"

habe ich doch konkretisiert.

Ein System "heute" ohne optionales Funknetz-Modul anzubieten, das geht überhaupt nicht. Gerade wenn dieses System primär den professionellen Bereich anspricht. Das ist kein Design- sondern ein Konstruktionsfehler, der sehr zügig behoben werden sollte - statt "nur" den Preis zu senken.

Ansonsten würde ich Dir recht geben, was das kaufmännische Verhalten von MS betrifft. Die sind natürlich ebenfalls nicht blöd und haben schlimmstenfalls einen oder mehrere Zielkonflikte zu adressieren.

Und ja, Statistiken "verzerren", jede(r) muss für sich selbst entscheiden, wie sich das "unverzerrte" Bild so anfühlt, was gern geglaubt werden wollte. Das ist schon komisch, oder...?

kein Vermutung, sondern nur noch eine Frage der Zeit

ist es, bis die LTE-Surfaces mit Qualcomm-Chips auf den Markt kommen......

http://j.mp/19f4B7W

...und wenn Du fair wärst, würdest Du konzedieren, dass die Surfaces, die nun abverkauft werden, schon vor über 2 Jahren vorgestellt wurden, und LTE (das einzig wirklich brauchbare System) steht ja nicht einmal "heute" flächendeckend zur Verfügung. Und selbst Du hast Dich als G3-Surfer noch vor wenigen Wochen über meine LTE-Affinität lustig gemacht.

Snapdragon 600 und 800 hängen S4 Pro ab: das beste für LTE http://j.mp/163BlM8

Bin gern fair

und habe ja auch nicht gefordert, dass die mit 900 Millionen von MS abgeschriebenen und eh schon kastrierten RT diesen Anforderungen hätten genügt haben müssten. Und zum "Pro" müssen wir eben noch etwas warten, würde ich mich dann gar als Teil der Zielgruppe fühlen. Wenn W8.xyz ohne "Schweinereien" und gar wahlweise in einem wirklichen W7-Modus darauf zu nutzen ist! Na vielleicht ist MS bis dahin soweit runter vom hohen Roß, dass ich -statt nur Erfahrungen nachzulesen- gar mal so ein neues "Surface Pro" für einige Wochen zum Testen bekommen könnte. Heje...

Zu LTE -und unsere Diskussion ist da eher schon Monate her- besitze ich weiterhin kein Gerät mit diesem Funkstandard, ist der 3G-Stick an einem alten IBM-T42 nach wie vor in Gebrauch. Das mag sich ändern und in dem bereits erwähnten Gespräch mit einem Sony-Berater war zu erfahren, dass meine Datentarif-SIM von 1&1/Vodafone betreiberseitig auch für das LTE des XPeriaZ (Tablet) geeignet ist, nur einzustecken sei. Sein Wort in Gottes Ohr, oder so; brauche ich die jedoch vorerst noch für das Notebook. Testen ja, aber für das Tablet würd ich zuerst mal die (eine) Multicard meines T-Mobile Tarifs (incl. 300MB Daten/monatlich)nutzen, dann ggf. einen separaten Tarif für das Tablet abschließen.

Zur Jahreswende..., vielleicht...

G4 (LTE) ist abwärts kompatibel, genau wie G3 auch,

insofern passt eine G3-Karte natürlich auch in G4-fähige Geräte aller Hersteller.
Interessant in dem Zusammenhang, dass die Anbieter von "LTE für zu Hause" dessen Gebrauch für unterwegs allesamt verhindern, indem sie die Funktionalität auf den Sendemast in der Nähe der Wohnung begrenzen.

Das ist für mich "Kastration" zum Nachteil des Verbrauchers und gleichzeitig eine Sauerei, über die ich mich jeden Tag aufregen könnte.

Überhaupt ist es doch etwas neben der Spur, von Kastration beim Surface RT zu sprechen, sind doch sämtliche Smartphones und Tablets auf Android-Basis sowie alle Apfelerzeugnisse dann doch auch Kastraten! Letztere sogar wegen echter Hardware-Kastration (fehlende Schnittstellen) gar besonders impotent.
Die Begrenzungen von RT sind ja Chip-technisch bedingt und haben mehr mit Nvidia zu tun als mit Microsoft.

Nur Mut

Dualboot ist eine sehr schlechte Idee. Ein mutiger Schritt zur Virtualisierung und dann passt es auch. Linux als Host und Windows als Guest - willkommen im OS-Paradise! Seit etwa zwei bis drei Jahren habe ich keine Treiberprobleme mehr mit Linux gehabt. Und wenn man will, ist es schlank und abartig schnell. Das nervige Lizenzprobleme mit Windows hat sich dann auch erledigt, die virtuelle Maschine kann einfach per Copy&Paste auf jede andere Kiste geschoben werden!
Für das Image-Gedöns nehme ich übrigens Clonezilla. Ist Open Source, nerdig, aber tut was es soll.

LG Marc

Virtuelle Maschine?

Hallo Marc,

habe dahingehend leider keine Erfahrung, aber so ein virtuelles W7 beispielsweise muss ja doch wenigstens einmal aus/mit einer gültigen Lizenz eingerichtet werden. Und dann? Ist es wie eingefroren? Ok, die Treiber nutzt es via dem Host, kann somit leicht auf andere Kisten geschoben werden. Aber was ist mit der Aktualität dieses virtuellen Windows? Wenn es sich Updates zieht, den Virenschutz aktualisiert oder man Programme nachinstalliert/konfiguriert. Muss dann der jeweilige Zustand wieder als "neues" virtuelles Image "eingefroren", abgelegt werden? Oder verstehe ich das alles überhaupt nicht bzw. vollkommen falsch???

Momentan und wie dort in der kleinen Diskussion beim Freitag beschrieben, treibt mich die Tatsache um, dass es mir nicht gelingt, eine eingerichtete (auch stand-alone) Linux-Installation auf eine andere Platte zu bekommen. Dass sog. "hidden sectors", "hidden bytes" bei der Installation von Linux geschrieben werden, das habe ich mittlerweile irgendwo in den Ubuntu-Helplines nachlesen können. Aber es kann und darf doch nicht sein, dass man dafür, zur Korrekur auf einen Terminalmodus zurückgreifen muss und quasi native Befehlsfolgen einhacken. Das wäre dann ja genau ein Grund, warum Linux eben nicht diese im Grunde notwendige Verbreitung und Akzeptanz erfährt. Vielleicht hilft da "Clonezilla", werd' das mal ausprobieren.

Nein, kein virtueller Freeze ;-)

Ich kann Virtualisierung jedem PC-interesierten wärmstens empfehlen. Bei Freunden mache ich zum Beispiel folgendes, wenn ich einen Computer neu aufsetzen muss:
- per Clonezilla ein Image ziehen
- Neuinstallation (+ Daten)
- Virtuelle Maschine draug
- Image reinziehen

Man hat ein völlig cleanes System, kann aber über die virtuelle Maschine seinen "alten" Rechner aufrufen. Manchmal hat man doch etwas vergessen.

Mit Boottabellen habe ich leider ebenfalls schlechte Erfahrungen gessammelt. Ganz schnell sind sie zerschossen und dann muss man per Hand ran. Und sie sind viel zu unflexibel. Bei virtuellen Maschinen kann ich parallel arbeiten und Daten zwischen Host und Guest austauschen!

Klar, für die Installation in die virtuelle Maschine braucht man eine gültige Lizenz. Updates sind kein Problem. Ich kann Sicherungspunkte erstellen, funktionieren wie die Systemwiederherstellungspunkte in Windows, nur dass die VM keinen Unterschied zwischen System und Daten macht.

LG Marc

Klingt sinnvoll Marc,

der beschriebene Ablauf in dem Kontext einer Neuinstallation mit Rückgriff auf die alte Umgebung.

Meine Intention ist aber etwas anders. Vorerst ist Linux für mich ein Testsystem; neben dem produktiven mit W7. Und da Linux ja mittlerweile NTFS lesen und schreiben kann, so wollte ich aus beiden Welten auf meine Daten (separate Festplatte) zugreifen, entsprechende Anwendungen, deren Existenz linuxseitig prüfen und vergleichen. Ob eben Linux das ersetzen kann, was mir bei Windows substantiell erscheint.

- - - - -

Immerhin...! Dank Deinem Tip zu clonezilla ist es mir heute gelungen, die im Blog beschriebene Dualbootkonfiguration als Image auf eine separate USB-Platte zu schreiben und von dort auf einer anderen, im PC ausgetauschten Platte wieder herzustellen. Danke also erst mal dafür! Sowohl das Backup wie auch das Restore haben diese standardmäßig gesetzte Option namens "Die unsichtbaren Daten zwischen MBR und erster Partition klonen"; was anderen, windowsbasierten Programmen offensichtlich fehlt. Der Sinn dieses "Spielchens" erschließt sich mir bei einem freien System wie Linux zwar nicht gleich, aber mein diesbezügliches Halbwissen ist da vielleicht noch nicht so weit fortgeschritten; oder gar hinderlich...

Egal, genau diese Funktionalität und Reproduzierbarkeit habe ich gesucht; und möglicherweise nun gefunden, wenngleich wirklich "nerdig", dieses clonezilla. Werde das nochmal neu aufsetzen, würde allerdings statt Ubuntu dann LinuxMint nehmen wollen, da mir das "look-and-feel" bei Mint-15(Olivia) irgendwie besser behagt. Und das Ganze incl. Dualboot dann in den nächsten Wochen auf eine SSD als Bootplatte portieren. Erst danach, wenn das alles erfolgreich und eben reproduzierbar war, dann ist ernsthaftes Arbeiten mit Linux angesagt.

LG und Danke nochmal, ebertus

Schuster bleib bei Deinen Leisten.....

.... der oben beschriebene Ablauf trägt eindeutig die Handschrift eines Linux-Nerds, der Windows bestenfalls als Übergangskrücke temporär zu dulden scheint, um es dann nach Abgleich von "Vergessenem" zu eliminieren.

Auch Mint, das in Optik und Handling Windows ähnlicher als Ubuntu ist, wird Dich ganz sicher nicht überzeugen, zu kompliziert sind die "inneren" Strukturen, zu deren Beherrschung oft Jahre von Nöten sind, und wer will die schon investieren, zumal ja offensichtlich gültige Microsoft-Lizenzen vorhanden sind.
Welchen Grund sollte es also geben, sich die Verschwendung von Lebenszeit anzutun? Gelegentlicher Testgebrauch dürfte genügen.....

Was für Youngster ohne Windowslizenzen eine gute Alternative darstellt, ist für "alte" Windowshasen bestenfalls zum Spielen geeignet, um ein bisschen mitreden zu können.

Von dem geplanten DualBoot-System auf SSD kann ich deshalb nur abraten, denn ein Zurück auf Windows gibt es nicht ohne Neuinstallation.
Lege also zumindest ein Backup des Windowssystems an, bevor Du es doch ausprobierst.

Verschwendung von Lebenszeit

Zwei Anmerkungen @Forenboy

1. Ein installiertes Windows unter dem Dach von Linux, dessen Bootloader/Grub etc. und gern auch mit defektem MBR, defekter Partitionstabelle via Image auf eine andere Festplatte zu ziehen und dort (auch als 2. oder 3. Partition) wieder stand-alone startbar zu machen, das sollte mir möglich sein, habe es ja auch bereits ein Stück weit geschrieben. Entsprechende Tools und ausreichend KnowHow einfach mal vorausgesetzt. Das "Problem" ist ja auch nicht das Windows selbst, bei natürlich vorhandener Lizenz innerhalb ca. einer Stunde auch neu installiert. Das Aufwändige (Lebenszeit...) eines produktiven Systems sind ja die Weiterungen, an Updates, Fixes, Programmen, Tools und Konfigurationen, gar individuellen Scripten; was meinerseits schon mal eingesetzt wird.. Für Linux dürfte Ähnliches gelten.

2. Mit dem "Youngster ohne Windowslizenzen" hast Du -isoliert betrachtet- natürlich recht. Nur wolltest Du hier die Merkel, den Friedrich geben? War die Einführung zum Blog irgendwie unklar? Warum reden wir -auch hier- über Linux (gern als Synonym zu verstehen)? Eine Company, die ihre Benutzer durch die angebliche Verschlüsselung ihres Mailprogrammes, dessen Daten in Sicherheit wiegt, aber auf Veranlassung von BigBrother (ganz pauschal) und vor der Verschlüsselung bereits einen Abgriff realisiert hat, der traue nicht nur ich wohl "alles" zu, die hat verschissen bis... Auch wenn das ja alles ganz korrekt nach den (geheimen) Prozeduren eines/ihres Staates geschieht. Das Gleiche beim Core-Betriebssystem kann jederzeit, durch ein "Update", einen sog. Bugfix etc. erfolgen. Denen ist jenseits von Verschwörungstheorie alles zuzutrauen.

Und btw. Manchmal bist Du doch für eine Überraschung gut, hast schnell erkannt, warum ich Linux-Mint dem Ubuntu vorziehen wollte. Das hat kaum etwas mit diesem gräßlichen Ubuntu-rot zu tun, was man mit Sicherheit "irgendwo" ändern kann. Und die genannten "inneren Strukturen"? Das ist wohl sehr relativ zu sehen.

 

das "grässliche" Ubuntu LILA (nicht rot) ist die Farbe

der weiblichen Emanzipation, Deine abwertende Bemerkung lässt also ganz tief blicken....... :-)

Ich empfehle dazu den Film "Die Farbe Lila" von Steven Spielberg http://j.mp/12PYa7w

ich denke Du überschätzt Linux und dessen "Sicherheit"

maßlos, aber das wirst Du auch noch erkennen, wenn Du Linux so lange "getestet" hast wie ich.

Vergiss nicht, dass der Source-Code jedem zugänglich ist, also auch den BadBoys, ein Fishing also sicher viel einfacher sein dürfte als mit den "geheimen" Programmcodes von Microsoft & Co, denen ich trotz mancher Fehlleistung immer noch mehr vertraue als der Open-Source-Welt.

Nur ein Beispiel: ein gesetztes Master- oder User-Passwort kann beim Bootvorgang im Recovery Modus mit einem simplen Befehl zurück gesetzt, und somit der Zugriff auf alle Daten (auch auf die Windows-Partitionen) ermöglicht werden.

Linux ist also im Wortsinne eine "offene Quelle" für alles und jeden. Ich halte z.B. den Datenklau durch Kollegen, "Freunde" oder Mitbewohner für deutlich nachteiliger, als durch die "Big Player" oder deren "Kunden".

Was man als Windows-Nutzer unter Sicherheit so alles versteht

@ForenBoy Wollen sie mir sagen, dass bei einer 08/15 Windows-Installation ihre Daten sicher seinen? Kleiner Test: starten sie einmal eine beliebige Live-CD und schauen sie mal auf ihre Festplatte. Alles offen wie ein Buch!

Nur eines: wenn ich meine Daten schützen will, dann bekomme ich das sowohl mit Windows als auch mit Linux hin. Es gibt dabei folgenden Unterschied: ich habe bei Windows wesentlich mehr Gefahrenquellen und Angriffspunkte und muss immer und jederzeit auf dem aktuellsten Stand sein. Bei Linux muss ich zumindest rudimentär dessen "Innereien" kennen, aber wenn es dann mal läuft, habe ich weitaus weniger Probleme und Angriffsflächen.
Im übrigen empfehle ich jedem, der sich nicht tiefer mit einem Betriebssystem auseinander setzen möchte, bei Windows zu bleiben. An Linux schätze ich persönlich die Freiheit: ich kann es jederzeit auf fast alle Kisten so oft ich will installieren. Ich habe bei jeder Komponente Wahlfreiheit. Welche Distribution, welches Dateisystem, welcher Fenstermanager? Ich kann mir das System zusammen stellen, das ich möchte und das zur Kiste passt.
Im übrigen nimmt die Bedeutung des Betriebssystem derzeit dramatisch ab. Wichtiger wird die Kontrolle der eigenen Daten zurück zu erlangen. Ich benutze dafür ownCloud.

Gerade dem letzten Ansatz

wollte ich uneingeschränkt zustimmen, nimmt die Bedeutung von Betriebssystemen ab, insbesondere die von dem im letzten Jahrzehnt dominierenden Windows. Und möglicherweise ganz ohne NSA etc., wie jüngste Meldungen zu Microsoft, den weiter einbrechenden Windowsverkäufen das einmal mehr nahelegen. W7 wird wohl das letzte "wirkliche" und auch noch erfolgreiche Betriebssystem von MS gewesen sein, im Firmenumfeld noch bis in die nächste Dekade überleben.

"Betriebssystem" bedeutet dann weitgehend nur noch eine überschaubare Hardware-Schnittstelle. Im besagten Firmenumfeld machen die lokalen Maschinen vielfach kaum mehr als booten, cachen und anzeigen, sprich: den Dialog bedienen, weil alles an Programmen, Daten und Umgebungen auf den Servern liegt, auch Drucker, Scanner, Kameras und sonstige Peripherie im Netz hängen.

Ansonsten beispielsweise Truecrypt -wie ich das seit Jahren als komplette Laufzeitumgebung mit allen relevanten Daten und dafür notwendigen Programmen als Container auf dem Stick verwende- in der Cloud und ohne das mir die BigPlayer da noch vorher eine Backdoor auf dem lokalen Client einbauen. Browserbasierter, plattformübergreifender Zugriff mit so einem quelloffenen Tool wie dem kommenden Firefox-OS.

Insofern ist der Übergang zu Linux möglicherweise auch nur eine (notwendige?) Zwischenlösung. Notwendig deshalb, weil OpenSource oft auf Linux aufbaut, dahingehend ein gewisses KnowHow nicht schaden kann.

da hast Du wohl etwas missverstanden:

der Umsatz von Microsoft ist auch in diesem Vergleichszeitraum gestiegen, allein der Gewinn ist gesunken, was an der neuen (moderateren) Preisgestaltung liegt.
Also nix mit sinkenden Verkäufen.

Auch dem durchaus kompetent argumentierenden Gast sei gesagt,warum sollte ich mich mit Betriebssystemen intensiver auseinander setzen, wenn sich deren Bedeutung doch gerade im Sinkflug befindet?
Außerdem entkräftet die Unsicherheit von Windows nicht die noch größere von Linux, wie immer kommt man mit Relativieren auch hier nicht weiter.

Ich sprach von "Windows"

@Forenboy. Und wenn der PC/Notebook/Netbook-Absatz schwächelt, nach einigen Aguren aktuell (over all) und in vergleichbaren Zeiträumen gar um zehn Prozent zurück geht, dann muss dies Auswirkungen haben, selbst wenn MS mit seiner Marktmacht wie bei Vista, ggf. nun mit UEFI-Zwangsdongelung noch etwas gegensteuern wird. Und bei W8.xyz kommen ganz andere Konkurenten ins Spiel; das wird spannend.

Aus dem Nähkästchen geplaudert ist gerüchtweise zu hören, dass die Company, für die ich Jahrzehnte tätig war bei den Tablets und dort wo es Sinn macht (Außendienst, Verkauf, Service, Wartung etc.) auf Apple setzen dürfte. Da wird zwar Sex&Crime immer mal gern zensiert, aber entscheidend sind im Unternehmensumfeld keine schönen, bunten, neuen Konsumer-Kacheln, sondern beispielsweise der Background, der stabile Connect mit SAP oder Oracle, you know...? Der nächste Punkt, sprich: die Server- und Database-Sparte, wo Microsoft unter Druck kommen wird.

Dass Microsoft andere Geschäftsfelder pusht, gerade web- und cloudbasierte Systeme, dort natürlich Umsatz generiert und gar Geld verdient, das ist unbenommen. Aber..., beispielsweise verwende ich seit Jahren eine (natürlich) für drei Maschinen lizensierte Version von "Softmaker-Office-Pro" anstelle von MS-Office. Softmaker läuft von meinem USB-Stick (via TruCrypt) und Softmaker gibt es auch für Linux, also schon mal ein Punkt, der bei meinen anstehenden Linux-Tests wohl ohne Probleme abzuhaken sein wird.

Nokia steigert Windows Phone-Verkäufe um 32%

und Windows Phone ist auch ein Windows-Betriebssystem. Ich denke mir, dass immer mehr Käufer sich nicht mehr von der aufgeblasenen Apfel-Seifenblase täuschen lassen, und auch bei den Tablet-PCs auf die nun deutlich (150€) günstiger werdenden Surface RTs mit Windows 8 umschwenken werden, sind doch selbige als kompatible und einzig wirklich brauchbare PCs einzustufen.

Ha, Surface RT....

Ist (war) das nicht diese kastrierte Windowsvariante, welche per Definition auch gleich noch ausschließlich in der MS-Welt kompatibel ist? Jedenfalls die jetzt generös im Preis gesenkte Spielart?

sieh einfach selbst

http://j.mp/1byE0Ul

Die Apfel-Erzeugnisse haben ja nicht einmal einen USB-Anschluss, damit man auch auf keinen Fall vorhandene Musik und andere Mediendaten aufspielen kann, sondern gezwungen ist, alles über iTunes zu kaufen.

Redest Du vom "Pro"?

"Beim Surface Pro bleibt es vorläufig beim Einstiegspreis von 879 Euro."

Gemäß Deinem Link!

Und häng mir nicht den faulen Apfel an. Mein Favorit, soweit mich irgendwann mal selbst und recht spontan überredet, ist aktuell das schon mal persönlich und im Gespräch mit einem kompetenten Sony-Mitarbeiter in Augenschein genommene XPeria-Z mit LTE, für zur Zeit knapp 600,- Euro.

mir ist schon klar, dass Du immer Recht behalten willst,

aber dass Dein ehemaliger Arbeitgeber ausgerechnet auf den ausbeuterischen Apfel setzt, und Du dieses auch noch goutierst, spricht weder für das Unternehmen und schon gar nicht für Dich.
Was die Bürosoftware angeht, ist Open-Office, was zu den Linux-Paketen gehört, ohne Einschränkung zu empfehlen, da es auch mit MSO erzeugte Dateien problemlos verarbeitet, und sogar in diesem Format abspeichern kann.

Was heisst "goutieren"?

Alles eine Frage der jeweiligen Prioritäten.

Und da diese Company weder US-amerikanisch noch vertrauensvoll nichtwissend merkeldeutsch aufgestellt ist, gleichzeitig in der Branche technologieführend, so gibt es aktuell wohl nur einen, natürlich in entsprechende Technik eingebetteten Fokus. Und der nennt sich: "Verhinderung von Wirtschaftsspionage". Vielleicht ist Apple dahingehend dann auch nur eine Zwischenlösung, aber aktuell auf der Tabletebene nun mal ausgereifter als MS.

- - - - -

OpenOffice war mir nach entsprechenden Tests ebenfalls etwas zu füllig, zu schwerfällig, zu vereinnahmend. Softmaker kann übrigens ebenfalls alle MS-Formate bis Office 2010 lesen und schreiben. Dennoch habe ich kürzlich für das berufsbedingte, dahingehend professionelle Familienumfeld eine MS-Lizenz von Office 2010 kaufen müssen (ist so mein Job als "Fachmann"). Softmaker kann angeblich keine Pivot-Tabellen (keine Ahnung was das ist), aber MS-Office 2010 scheint ansonsten ebenfalls einen sog. "break" zu markieren, wie vielleicht W7. Weil die Version von 2013 auf ein Abomodell umgestellt ist, so wird man abwarten müssen, ob das Akzeptanz findet.

Pivot ist die Veränderung von Querformat

in Hochformat. Dafür gibt es auch drehbare Monitore, sodass dann ein Dokument ohne Größenverlust vollflächig senkrecht dargestellt werden kann.

Finger weg vom Dual-Boot Linux/Windows

zwar funktioniert Ubuntu und W7 problemlos nebeneinander (von Ubuntu aus kann man ja auch problemlos auf die Daten der Windows-Partition zugreifen), aber ein zurück auf eine Platte ohne Ubuntu gibt es danach nicht mehr.
Lästig auch: will man hauptsächlich eher Windows und nicht Ubuntu starten, muss man den richtigen Zeitpunkt beim Booten nicht verpassen, denn Standard ist Ubuntu.
Ubuntu lässt sich auch problemlos von CD/USB-Stick starten, man braucht also nicht mal einen Festplattenspeicher, sofern man es nur testen will.

Probleme gibt es allerdings mit etlichen WLan- und WWan-Karten, die häufig weder erkannt werden, noch mit Windows-Treibern zum Laufen zu bringen sind.

Was Angreifbarkeit und Viren/Trojaner angeht, ist es nur eine Frage des Marktanteils, der in den Augen der kranken Seelen von Schadsoftware-Programmierern einfach noch viel zu klein ist.
Von "Natur aus" sicherer ist nämlich Linux keineswegs, einfach nur zu uninteressant für jene, denen es ja auf möglichst große Verbreitung ihrer "Arbeit" ankommt.

Sehe ich natürlich nicht so

und Windows war ja -wie beschrieben- nach dem Backup/Recovery zwar ebenfalls erstmal nicht sichtbar, dann jedoch relativ einfach wieder in einen startfähigen Zustand umzuwandeln. Linux ist das "Problem".

Außerdem, wie dort beim Freitag in meinem letzten Kommentar geschrieben, ist das Thema "hidden sectors" möglicherweise von Relevanz, wenngleich erst einmal davon auszugehen ist, dass mein bestenfalls Halbwissen zu Linux in diesem Falle das Problem darstellt.

dann versuche doch einfach mal,

die Linux-Partitionen zu löschen (mit der Datenträgerverwaltung oder auch mit deiner Backup-Software gar kein Problem).
Danach wird Windows nicht mehr aktivierbar sein. ("no such partition found" ist das Ergebnis)

Und richtig, das Problem kommt von Ubuntu. Bis Version 12.04 konnte man auch den Bootmanager leicht anpassen, geht nun auch nicht mehr.
Also: vieles ist sicher gut, aber manches geht gar nicht, zumindest nicht, wenn man kein Linux-Freak ist.