Windows 8 - Smalltalk
#856 _d4rkn3ss4ev3r_
geschrieben 12. Mai 2013 - 10:42
Anzeige
#857
geschrieben 12. Mai 2013 - 11:15
Der "Normal-User" unter Linux aktualisiert sich für Gewöhnlich auch sämtliches Zeugs (auch Java und Flash) über Paketmanager, weil diese so einfach zu handhaben sind - auf "Aktualisieren" klicken und etwas warten, schon ist sämtliche installierte Software (egal ob OpenOffice, Flashplayer oder der Linuxkernel) auf dem aktuellsten Stand. Ich bin nicht, wie bei Windows, auf irgendwelche Hintergrunddienste (unter Linux oft als Daemons bezeichnet) angewiesen, falls diese überhaupt mitgeliefert werden und ich mich nicht händisch um Aktualisierungen kümmern muss...
---
Ansonsten stimme ich aber d4rkn3ss4ev3r zu: Es ist alles eine Frage des Nutzers. Ich habe auch schon Ubuntu-Systeme gesehen, dessen einziger User "root" ist (inkl. dem Einloggen ins grafische System erlaubt wurde!), der Updater über 300 Tage fehlende Aktualisierung anmerkt und als Sahnehäubchen XAMPP eine CPU-Last von konstant 50% erzeugt... Das ist so ziemlich ein GAU-Zustand für jeden Admin, der so eine Kiste warten muss...
#858
geschrieben 12. Mai 2013 - 12:26
Daher von meiner Seite nur soviel:
- Ich finde Open Source als Konzept prima.
- Was ich nicht so prima finde, ist, was die Welt unter Open Source zu verstehen scheint.
Was meine ich damit?
- Zuallererstmal denkt nach wie vor jeder, daß Open Source zu Deutsch kostenlose Software bedeutet. Ich würd mich freuen, wenn's auch mal Open Source FÜR GELD geben würde, mit NDA und allem Drum und Dran. Aber nein, geht ja alles nicht... muß ja alles kostenlos sein.

- Nächtens: Beispiel Linux und GPL. Die GPL bindet Software an sich - und da Linux selbst unter selber steht, bindet sie insbesondere Software an Linux. Einmal GPL, immer GPL - das meinte ich weiter oben auch mit 'geschlossen'; man kommt aus dem System nicht mehr raus. Dazu kommt - möglicherweise daraus bedingt -- daß auch immer mehr konkret für Linux programmiert wird (und nicht mehr POSIX-kompatibel) mit dem Ergebnis, daß andere Open-Source-Plattformen außen vor bleiben. Gerade bei Dateisystemen ist das offensichtlich - btrfs zum Beispiel mußte entwickelt werden, weil ZFS nicht unter der GPL stand und steht. Und btrfs selbst wiederum kann nicht auf nicht-GPL Plattformen verwendet werden.
Es ist ja schon bezeichnend, daß es überhaupt sowas wie eine *L*GPL geben muß; es stellt sich die Frage, wie ein echter Linuxer darüber denkt.
Und natürlich die Kerneltreiber - jene Treiber, die von Herstellern verfügbar gemacht werden sollen, die aber nicht willens sind, den Quellcode zu veröffentlichen. Der Hersteller, der sein Geschäftsgeheimnis wahren will... wird sich zweimal überlegen, ob er Treiber für Linux veröffentlicht oder nicht.
Klar kann er auch fertige Objekte ausliefern. Aber die funktionieren dann nur mit D-i-E-S-E-R Kernelversion und keiner anderen.
Die übrigen? Müssen sich ebenfalls ranhalten. Wie oft mußte ich schon einen aktuelleren Kernel wegwerfen, weil sonstwelcher Treiber nicht mehr damit ging?
Okay, DKMS hilft hier. Das ist zwar auch nur ne Stopgap-Lösung, aber sei's drum. Scheinbar tut es.
Linux *hat* seine Stärken, keine Frage. Partitionen und Dateisysteme reparieren zum Beispiel ist sehr viel einfacher und erfolgversprechender als unter Windows.
Der Haken - für mich? BSD kann und tut dasselbe... und zwar ohne all diese Einschränkungen.
#859
geschrieben 12. Mai 2013 - 20:01
Zitat (expat: 12. Mai 2013 - 03:15)
Hier gibt es einen kleinen aber feinen Unterschied. Bei Windows WEIß man, dass es von Microsoft kommt. Im Falle von OS-eigener Malware, hat man den Übeltäter sofort.
Bei Linux sieht das anders aus. Da wurstelt JEDER drin rum und kann auch undokumentierte Unterroutinen einbringen. WER dann später der Verantwortliche für einen "Systemvirus" ist, bleibt unerkannt.
Zitat
Dann weißt du echt nicht viel über Windows.
Dieser Beitrag wurde von IXS bearbeitet: 12. Mai 2013 - 20:06
#860
geschrieben 12. Mai 2013 - 21:49
Zitat (IXS: 12. Mai 2013 - 20:01)
Bei Linux sieht das anders aus. Da wurstelt JEDER drin rum und kann auch undokumentierte Unterroutinen einbringen. WER dann später der Verantwortliche für einen "Systemvirus" ist, bleibt unerkannt.
Wenn beim Installieren der Software irgendein Mist passiert, lässt sich das selbstverständlich über den Paket-Maintainer bis hin zum ursprünglichen Programmierer zurückverfolgen, automatisierte Dokumentationen sei Dank.
Ich verweise nochmals darauf, dass die Softwareverwaltung unter Linux auch noch z.T. fundamental anders funktioniert als unter Windows: *Click*
Sorry, aber du weißt echt nicht viel über Linux.
...oder ich habe deinen Beitrag versehentlich falsch interpretiert. Falls das der Fall sein sollte, bitte ich dich, deinen Punkt genauer auszuführen...
#861
geschrieben 13. Mai 2013 - 08:34
Zitat (Astorek: 12. Mai 2013 - 21:49)
Jeder Entwickler einer Distribution macht das. Und das mit der "Selbstkontrolle" kannst du dir in die Haare schmieren. DASS Linux als Desktop System nicht funktioniert zeigt die -offensichtliche- Anarchie bezüglich der Desktops selber. Wo es nur geht, bäckt jeder sein eigenes Brot. Wenn Open Source wirklich mal "normal" wird, haben wir nicht "5" Standards, sondern "5000"...
Sagen wir mal so: Ich habe schon seit 30 Jahren mit den unterschiedlichsten Computern zu tun. Sogar eine Zeit lang selber programmiert. Auch in Assembler...
Wer schreibt denn heutzutage OS-Quellcode in Assembler? Tatsache ist, wenn jemand solche Subroutinen in ein OS einbaut, wird das von den "standard Entwicklern" nicht erkannt, weil sie mit den Zahlenwerten nichts anfangen können.
Wie Problematisch die Entwicklung bekannter Funktionen schon ist, und vor allem - wie träge alles vonstatten geht - obwohl Linux so viel kleiner als Windows ist. Lässt auf viele offene Fragen schließen.
Zitat
Wenn beim Installieren der Software irgendein Mist passiert, lässt sich das selbstverständlich über den Paket-Maintainer bis hin zum ursprünglichen Programmierer zurückverfolgen, automatisierte Dokumentationen sei Dank.
Und wer kontrolliert die Automatisierung? Das sind Wunschträume, was du da von dir gibst.
Zitat
Ich verweise nochmals darauf, dass die Softwareverwaltung unter Linux auch noch z.T. fundamental anders funktioniert als unter Windows: *Click*
Sorry, aber du weißt echt nicht viel über Linux.
Ich weiß, dass der "normale User" nur Windows 8(derzeit) auf dem PC braucht, um alles Wichtige dort starten und flüssig auf aktueller Hardware nutzen kann.
Wer Linux nutzt, hat auch irgendwo noch ein Windows liegen, wenn er den PC komplett nutzen will.
#862
geschrieben 13. Mai 2013 - 16:25
Zitat (IXS: 13. Mai 2013 - 08:34)
Zitat
[...]
Wie Problematisch die Entwicklung bekannter Funktionen schon ist, und vor allem - wie träge alles vonstatten geht - obwohl Linux so viel kleiner als Windows ist. Lässt auf viele offene Fragen schließen.
- Falls du mit "Linux" ausschließlich den Kernel meinst: Dass dessen Entwicklung alles andere als langsam voranschreitet, sollte beim Lesen von Mailinglisten klar sein. Offene Standards hat Linux idR. als eines der ersten Betriebssysteme integriert, dito bei OS-Hardware. Bei anderer Hardware, von denen Hersteller ihre Spezifikationen verbergen wollen, kämpft Linux mit Problemen... Einfach deshalb, weil es selbst mittels Reverse-Engineering ermittelt werden muss und das enorm aufwändig ist.
Um auch gleich ein Argument von dir zu entkräftigen, dass du sicher bringen würdest, wenn ich es nicht täte: Sind HW-Treiber erstmal im Kernel eingepflegt und außerhalb des sog. "Garbage"-Status, werden diese von den Kernel-Entwicklern himself aktualisiert, falls ein neuer Kernel entwickelt wird. - Falls du mit "Linux" sämtliche Software meinst, die benötigt wird, um einen Desktop sinnvoll bedienen und darauf arbeiten zu können: Meinst du wirklich, dass da Linux langsam voranschreitet? Die Entwicklung läuft fragmentierter ab, das mag stimmen... Aber daraus einen Schluss ziehen zu wollen, dass Linux deswegen langsamer entwickelt wird... Nah, ich weiß nicht...
Zitat
[...]
Und wer kontrolliert die Automatisierung? Das sind Wunschträume, was du da von dir gibst.
Und um es in aller Deutlichkeit zu sagen: Bei Versionsverwaltungssystemen wird jeder Mist geloggt, der UserXYZ um Uhrzeit DD an Zeile X Buchstabe Y geändert hat. Da kannst du garnicht anders, das ist ja der Sinn von Versionsverwaltungssystemen; inkl. dem Aufbewahren sämtlicher je erstellten Revisions bzw. den Änderungen daran und der Möglichkeit, mehrere Revisions zu einer neuen zusammenzufügen und dabei einzelne Patches für zukünftige Versionen wieder rauszuhauen. Mit Versionsverwaltungssystemen kannst du jederzeit vom "Hello World" bis hin zum fertigen Superschachcomputer hin- und herspringen, wenn du das willst und auch jede Änderung übers System machst. Nicht umsonst werden in manchen Firmen Git & Co. sogar als Dokumentations-System verwendet, obwohl es ursprünglich nicht dafür gemacht wurde... Aber das ist ein anderes Thema...
Was der Seitenhieb auf Assembler soll: Als würden Programmierer, und insbesondere Kernelentwickler(!), sowas nicht gegenchecken und jeden Patch genauestens begutachten und durchtesten. Oder glaubst du ernsthaft, ein Verantwortlicher Programmierer würde den Patch eines anderen, frei dahergelaufenen Entwicklers einfach übernehmen, ohne wissen zu wollen, was er da tut? Wenn mir jemand einen Patch schickt, von dem ich keine Ahnung habe was er macht, wird der dahergelaufene Programmierer gefragt, der Code nachvollzogen und dann gegengeprüft. Ist ja sein "Schätzchen", sein Programm... Hat der Verantwortliche Programmierer keine Ahnung von der Materie und ist auch sonst keiner da, der das prüfen könnte, wird der Patch eben nicht eingepflegt. Ist ja auch logisch: Wie soll der verantwortliche Programmierer die Verantwortung (höhö) übernehmen, wenn er Teile des Quellcodes nichtmal versteht? Und bevor jemand fragt: Ja, Entwickler haben tatsächlich so eine große, eventuell auch merkwürdige, Bindung zu "ihrer" Software, dass sie es nicht ruinieren möchten.
Natürlich gibts auch Bugs, so ist es ja nicht. Aber die können unabhängig bei der Art und Weise, wie Software programmiert wird, überall passieren...
Nochmal: Die Entwicklung von OS-Software ist tatsächlich nicht viel anders als unter Windows. Es ist Fluch und Segen zugleich, dass da "jeder" mitmachen kann - weil man dadurch auch Kontrollinstanzen benötigt, damit die "guten" Patches reinkommen und die "bösen" draußenbleiben. Wenn dieses Konzept nicht funktionieren würde, hätten wir auch keinen Firefox, keinen Thunderbird, kein OpenOffice... Und kein Linux...
Dieser Beitrag wurde von Astorek bearbeitet: 13. Mai 2013 - 16:28
#863
geschrieben 13. Mai 2013 - 16:34
Dasselbe für die allermeisten anderen Projekte.
Ja, es gibt Ausnahmen. Aber das sind halt Ausnahmen und nicht die Regel.

#864
geschrieben 14. Mai 2013 - 09:10
Dennoch habe ich natürlich meine Eindrücke, die sich aus dem Umgang mit den Systemen ergeben. Bei Windows habe ich den Eindruck, dass seit 95 eine Entwicklung eingesetzt hat, die den User von allen Einsichten und Einblicken fernhalten soll. Windows 8 ist für mich der Gipfel und die Perversion dieses Prinzips. Alles, was nunmehr unter der Fliesen-Oberfläche verborgen ist, müsste dann aber auch perfekt funktionieren. Das wird Windows aber nie tun. Also muss der User sich doch wieder um das Darunter kümmern und somit gegen die heeren Verschleierungsbemühungen von Microsoft ankämpfen. Zunächst bestand ja diese Verschleierung auch darin, die Systemdateien zum Beispiel "unsichtbar" zu machen. Das konnte man aber schnell umgehen in der Einstellung der Ordneransichten. Was ich nun ganz interessant finde, ist der Umstand, dass einen da seit Jahrzehnten immer das selbe Fenster anspringt, wenn man die geschützten Systemdateien angezeigt haben will. Auch das brachte mich zu der vielleicht leichtsinnigen Vermutung, dass ein neues System seit W95 gar nicht mehr geschaffen wurde. Es wurde immer nur herumgewerkelt und korrigiert. Auf dieser Grundlage wird es nach meinem Dafürhalten erst dann ein sicheres Windows geben, wenn man damit gar nicht mehr ins Internet darf.
So wie im obigen Beispiel mit der Ordneransicht konnte man mit den Jahren und ansteigender List und Tücke alle Sicherheitsmaßnahmen abschalten oder umgehen bis hin zur Unbrauchbarkeit des Systems. Der Eindruck verstärkte sich bei mir immer mehr, dass die von Microsoft die User für total bescheuert hielten und halten. Der ganze Firlefanz mit "Trusted User" und anderen ging mir zunehmend dann auf den Geist, wenn ich ein neues Windows installieren musste, aber alte Platten weiter benutzte, die dann erstmal gar nicht lesbar waren.
Dagegen UBUNTU: Ich hatte mehr als ich es habe, große Schwierigkeiten bei der Konfiguration, aber ich konnte die Sicherheitsvorkehrungen, die das System bereit hält, nie umgehen oder austricksen. Wollte ich letztlich auch gar nicht, da alles prima funktioniert.
Warum bin ich dennoch so lange bei Windows geblieben: Weil ich daran gewöhnt war, Geld dafür ausgegeben habe und Linux vor ein paar Jahren für mich zu schwierig war. Ist es aber nicht mehr. Nicht direkt weil ich besser geworden bin, sondern in meinem Fall ist UBUNTU besser geworden.
#865
geschrieben 14. Mai 2013 - 16:08
Windows - und Microsoft -- verfolgt da einen komplett anderen Ansatz, als es Linux tut.
Aber dennoch: Auch unter Linux werden Systemdateien "ausgeblendet". Da fehlt halt das R-Flag und dann ist die Datei für den jeweiligen Nutzer eben nicht da.
Auch unter Linux wird alles unter der Desktopumgebung versteckt.
Auch unter Linux wird das immer perfider - okay, vielleicht sollte ich sagen, bei GNOME und auch bei XFCE; bei den andren habe ich da nicht so drauf geachtet.
KDE dagegen hat sich zum Windows-Clone schlechthin entwickelt... und, aber da bin ich sicherlich etwas nachtragend: KDE hängt (für mich) der Hauch des... ja wie soll man's nennen... "Nicht-Ins-Konzept-Passer" an. Denn KDE setzt seit Jahr und Tag auf Qt - und Qt war ursprünglich NICHT Open Source. Das kam erst später, und bis heute gibt es noch mehr-oder-weniger die Original-Lizenzform für Geld. Nur halt nicht mehr von Trolltech AB.
Microsoft hat ein ganz anderes Problem. Kurz umrissen sieht das so aus:
- Alle Welt hat Windows. Insbesondere hat jeder DAU Windows.
- Alle Welt muß mit dem eigenen PC umgehen können - und dann natürlich wieder Windows kaufen, aber das lassen wir mal außen vor.
- *WEIL* alle Welt Windows fährt, sind es auch die Windows-Rechner, die auch und gerade im Netz DIE Angriffsfläche stellen.
Windows muß also gleichzeitig(!) den einfachen Umgang mit dem PC sicherstellen (sonst kommen die Kunden nicht wieder) ihn ordentlich abriegeln gegen Schadprogramme aller Art (sonst wird MS verantwortlich gemacht und die Leute kaufen kein Windows mehr) *UND* es muß firmentauglich sein für Unternehmen aller Größe (das ist Microsofts Kernmarkt).
In einem Wort: Das geht so nicht. Kompromisse müssen geschaffen werden.
Daß alles immer gleich aussieht, ist eine Konzession an Unternehmen. WEIL alles gleich bleibt und alles am selben Ort zu finden ist, müssen Firmen ihre Mitarbeiter nicht für jedes Betriebssystem neu schulen.
Kehrseite der Medaille: WEIL alles so EWIG gleich war und sich jeder dran gewöhnt hat, "das" genau "da" zu finden und "so-und-so" an "das-und-das" ranzukommen... deswegen beschwert sich jetzt die Welt über Windows 8. Da ziehen nämlich zum ersten(!) Mal seit 95 ein neues Bedienkonzept ein - und nicht nur "bißchen" sondern "ganz" anders.
In einem Wort: Windows -- bzw genauer: Windows NT, worauf die Windows-Linie seit 2000 basiert --- ist NICHT für Privatleute gedacht. War es nie.
Windows 2000 war dann der Versuch, Privatkunden da irgendwie in ein für Unternehmen entwickeltes System reinzupressen. Das ging natürlich nur mit viel Biegen und Brechen.
Die Konzepte, wie sie Windows verfolgt - Stichwort Netzwerk und Active Directory -- sind für Firmen prima. Für Privat wertlos. Gruppenrichtlinien sind für privat wertlos. Benutzergruppen ebenso, zumindest insoweit, wie am Privat-PC halt nur jeweils einer dran sitzt.
Letztlich ist Windows *zu groß*. Otto Normaluser ist, sorry, nicht (mehr) in der Lage, sein Betriebssystem selber zu administrieren. Dafür bräuchte er eine Einführung, Schulung, nenn es wie Du willst.
Das ging schon unter NT4 kaum. 2000 war ein Riesensprung vorwärts, und im Sinne der Komplexität war Vista gleich der nächste. 7 nicht so - aber dafür 8 jetzt wieder.
Der große Witz? Man *kann* sich sein Windows so ziemlich exakt auf seine eigenen, ganz persönlichen Bedürfnisse zuschneiden. Auch mit Windows 8 geht das. Aber wegen der zugrundeliegenden Komplexität sieht halt keiner mehr durch.
Und *daher* gibt es den Riegel davor. Es geht darum, es dem komplett unbedarften User möglichst NICHT zu ermöglichen, daß dieser "aus Versehen" schweren Mist baut - welcher dann nicht nur ihn, sondern (Teile des) Internets ebenfalls betreffen würden.
NB: auch unter 8 ist man *immer noch* standardmäßig Mitglied der Administratorengruppe. Damit räumt Microsoft dem Nutzer MEHR Zugriffe auf das System ein, als es Linux tut.
#866
geschrieben 14. Mai 2013 - 16:23
Zitat (RalphS: 14. Mai 2013 - 16:08)
Auch unter Linux wird alles unter der Desktopumgebung versteckt.
Zunächst besten Dank für diesen Überblick. Ich glaube, das sehe ich nicht anders als du. Zum Zitat möchte ich aber noch sagen, dass ich das nicht anders sehe, aber auch nicht anders bei meinem letzten Beitrag geschrieben habe. Der Unterscheid nur ist eben, dass ich den Zugang bei Linux (UBUNTU) gar nicht brauche, weil es mit Bordmitteln für mich bisher möglich war, alles ohne Eingriffe unter die Oberfläche zu erreichen. Natürlich braucht es doch eine gewisse Eingewöhnung, die ich nun aber beim Ansehen von Windows 8 schlagartig auf mich genommen habe.
#867
geschrieben 14. Mai 2013 - 16:41
Zitat (RalphS: 14. Mai 2013 - 16:08)
Windows muß also gleichzeitig(!) den einfachen Umgang mit dem PC sicherstellen (sonst kommen die Kunden nicht wieder) ihn ordentlich abriegeln gegen Schadprogramme aller Art (sonst wird MS verantwortlich gemacht und die Leute kaufen kein Windows mehr) *UND* es muß firmentauglich sein für Unternehmen aller Größe (das ist Microsofts Kernmarkt).
In einem Wort: Das geht so nicht. Kompromisse müssen geschaffen werden.
Es stand sogar schon in der c't . Windows ist effektiv(theoretisch) das sicherste Betriebssystem.
Zitat
Daß alles immer gleich aussieht, ist eine Konzession an Unternehmen. WEIL alles gleich bleibt und alles am selben Ort zu finden ist, müssen Firmen ihre Mitarbeiter nicht für jedes Betriebssystem neu schulen.
Kehrseite der Medaille: WEIL alles so EWIG gleich war und sich jeder dran gewöhnt hat, "das" genau "da" zu finden und "so-und-so" an "das-und-das" ranzukommen... deswegen beschwert sich jetzt die Welt über Windows 8. Da ziehen nämlich zum ersten(!) Mal seit 95 ein neues Bedienkonzept ein - und nicht nur "bißchen" sondern "ganz" anders.
Windows 8 ist näher an Windows 95 als seine beiden Vorgänger. Das Bedienkonzept ist auch nur marginal anders. DASS Andere dieses Konzept als "total anders" einstufen, ist schon eher seltsam.
Zitat
In einem Wort: Windows -- bzw genauer: Windows NT, worauf die Windows-Linie seit 2000 basiert --- ist NICHT für Privatleute gedacht. War es nie.
Windows 2000 war dann der Versuch, Privatkunden da irgendwie in ein für Unternehmen entwickeltes System reinzupressen. Das ging natürlich nur mit viel Biegen und Brechen.
Das hat , für meinen Geschmack, gut funktioniert. Ich habe Windows 2000 von 2000 bis 2003 genutzt und war vollends zufrieden. Klar, die Bootzeit war lang, aber alles lief (dank DirectX), was laufen sollte... stabil.
Zitat
Letztlich ist Windows *zu groß*. Otto Normaluser ist, sorry, nicht (mehr) in der Lage, sein Betriebssystem selber zu administrieren. Dafür bräuchte er eine Einführung, Schulung, nenn es wie Du willst.
Das ging schon unter NT4 kaum. 2000 war ein Riesensprung vorwärts, und im Sinne der Komplexität war Vista gleich der nächste. 7 nicht so - aber dafür 8 jetzt wieder.
Vista war der richtige Weg, nachdem XP mit seinen Sicherheitslücken eigentlich hätte obsolet sein müssen.
Die hohen Sicherheitseinstellungen konnte man als unbedarfter Nutzer durch die Benutzerkontensteuerung in einem übersichtlichen Maß kontrollieren.
Anstatt nun die "Fachleute" jedem XP Nutzer Vista mit den benötigten PC Anforderungen empfahlen, wurde Vista von "Allen" verrissen. Nun, so lernt man "Fachleute" kennen.
Zitat
Und *daher* gibt es den Riegel davor. Es geht darum, es dem komplett unbedarften User möglichst NICHT zu ermöglichen, daß dieser "aus Versehen" schweren Mist baut - welcher dann nicht nur ihn, sondern (Teile des) Internets ebenfalls betreffen würden.
NB: auch unter 8 ist man *immer noch* standardmäßig Mitglied der Administratorengruppe. Damit räumt Microsoft dem Nutzer MEHR Zugriffe auf das System ein, als es Linux tut.
Summa Summarum: Windows 8 ist das beste OS für den PC.
#868
geschrieben 15. Mai 2013 - 23:12
#869
geschrieben 15. Mai 2013 - 23:14
#870
geschrieben 16. Mai 2013 - 01:03
- ← Wartungscenter hängt sich auf?
- System & Software - Windows 8 & 8.1
- Windows 8.1 64 bit, Systembereinigung geht nicht richtig... →