Windows 8 - USB Probleme

Schade, dass MS es nicht schafft ein sinnvolles Defragmentierungstool mitzuliefern.

Schade, dass MS es noch nie geschafft hat, einen sinnvollen Dateimanager mitzuliefern - Nur noch Halli-Galli-Firlefanz, dafür aber keine Übersichtlichkeit. Dazu das ewig-elende Treibergemetzel, zugemüllte Systembibliotheken, eine im laufenden Betrieb der Größe nach schier ins Unendliche wuchernde Registry - und als Sahnehaube Tracking und Benutzerbeschnüffelung, wo man auch hinschaut. Stichwort "index.dat-Seuche"

Offensichtlich dienen M$-Betriebsysteme grundsätzlich nur als zuverlässiger Carrier für Trojaner und zur Beschaffung von User-Daten für die Werbewirtschaft - ergonomische und schlanke Steuerung der Grundfunktionen eines Rechners sind dagegen zunehmend irrelevante Nebensache.
 
was willst Du mit einem Rechner ohne Apps ? Das ist doch nur die Abkürzung für Application=Programm

Wie gesagt, ich kenn mich in dieser ''Welt'' nicht aus. Aber ich denk mal du weist schon was ich mit ''Apps'' meinte.
Die Hauptseite die zugemüllt ist mit Börsenkursen,Wetter,Nachrichten und Bilder von Städten der Welt.
 
Und die NTFS Fragmentierung tut ihr übriges zum langsam werden. Schade, dass MS es nicht schafft ein sinnvolles Defragmentierungstool mitzuliefern.
Ich möchte fast meinen, dass privat die meisten rechner aus diesem Grunde neu gekauft werden.
NaJa, also wer das nicht auf die Reihe bringt, hat es auch wirklich nicht besser verdient. So wie ein Auto, muss halt auch ein Rechner gewartet werden. Hier ist es weniger der Luftdruck öder das Öl, als vielmehr z.B. die Defragmentierung, die Deinstallation nicht mehr benötigten Krams, mal das eine oder andere Update und ggf. auch mal ein RegClean.
Frage eines Laien: welches Defragmentierungstool wäre denn zu empfehlen?
Was an Bord ist, ist vor W7 sicher nicht der Weisheit letzter Schluss. aber relativ regelmäßig genutzt in der Praxis eigentlich völlig ausreichend.
Ab W7 (?) läuft der Kram sehr ordentlich und ggf. auch automatisiert.

Mal direkt zu M$: http://support.microsoft.com/kb/980007/de

Nachtrag (wenn auch aus C-böld, so doch aber inhaltlich ggf. hilfreich): http://www.computerbild.de/artikel/cb-Tests-Software-Defragmentierungsprogramme-fuer-Windows-7-XP-Vista-2411687.html

Nachtrag2: Bei den aktuellen SSDs sehe ich da ohnehin keinen echten Vorteil mehr. Oder gibt es dazu gegensätzliche Meinungen und/oder Erfahrungen?
 
Nachtrag (wenn auch aus C-böld, so doch aber inhaltlich ggf. hilfreich): http://www.computerbild.de/artikel/cb-Tests-Software-Defragmentierungsprogramme-fuer-Windows-7-XP-Vista-2411687.html

Nachtrag2: Bei den aktuellen SSDs sehe ich da ohnehin keinen echten Vorteil mehr. Oder gibt es dazu gegensätzliche Meinungen und/oder Erfahrungen?

Hängt davon ab, in welchem Umfange virtueller Arbeitsspeicher verwendet wird - und auf welchem Medium sich dieser befindet.
Deshalb unterscheide bitte zwischen interner Fragmentierung dieser Container-Datei mit Speicherabbildungen und Auslagerungen und dem eigentlichen File-System des Mediums selbst.

Der "Hauptpreis" sind hochgradig fragmentierte virtuelle Speicher, die wiederum in einer Datei liegen, die zerklüftet auf einem bereits hochgradig fragmentierten Speichermedium erstellt wurden. Da Pagefile und Hybernate bei üblichen Defragmentierungen nur sehr bedingt bereinigt werden, liegt die Wurzel des Übels deutlich tiefer - denn hochgradig fragmentierten Auslagerungspeicher merkt man durchaus - eine fragmentierte Platte, die lediglicht Anwendungsdaten und Komponenten der Anwendungsprogramme enthält, dagegen kaum.
 
Ja, sorry, aber wer ein floatendes Swap-File hat, baut sich doch seine Bremse selbst. Wenn (!!!) man auf 'nem AP überhaupt mit solchem Kram aus prähistorischen Zeiten knappen RAMs arbeitet (oder so einen nimmersatten Exchange-Server hat), dann räumt man die Platte mit deaktiviertem Swap auf und richtet ein festes irgendwann mal benötigter max. Größe ein. Und Ruhe ist's an der Stelle.
 
Ja, sorry, aber wer ein floatendes Swap-File hat, baut sich doch seine Bremse selbst. Wenn (!!!) man auf 'nem AP überhaupt mit solchem Kram aus prähistorischen Zeiten knappen RAMs arbeitet (oder so einen nimmersatten Exchange-Server hat), dann räumt man die Platte mit deaktiviertem Swap auf und richtet ein festes irgendwann mal benötigter max. Größe ein. Und Ruhe ist's an der Stelle.

So isses.

Wenn möglich auf einem flitzeschnellen physischen Datenträger, der ausschließlich für diese Aufgabe reserviert ist.
 
Wenn möglich auf einem flitzeschnellen physischen Datenträger, der ausschließlich für diese Aufgabe reserviert ist.
Jein ...
Wenn möglich GAR NICHT! Wozu denn bitte auch noch?! Selbst eine SSD ist immer noch weit langsamer als dyn. RAM. Was soll der Kram also?

Wo liegt der aktuelle RAM-Preis je G bei den gängigen Bauformen?
Wenn ich das hier gerade richtig sehe, dürfte ein 2G soDIMM DDR2 von Kingston (also quasi 'Ende Fahnenstange') im VK so bei rd. 15,- liegen.
Bei 'zwei 512er raus und zwei Zweier rein' sind das dann 30 gut investerierte EU-Dollar.
NunGut, sofern das Board das kann! Sollte bei halbwegs nicht gar soo0 alter Hardware klappen. Mein Ende '12 an Frauchen vererbter Vorgänger-Läpi ist aus '07 und hat seit längerem auch 2*2 auf dem Brett. (der aktuelle hat 2*4 und kann 4*8 - also Luft für die nächsten 5 Jahre!)
 
Jein ...
Wenn möglich GAR NICHT! Wozu denn bitte auch noch?! Selbst eine SSD ist immer noch weit langsamer als dyn. RAM. Was soll der Kram also?

Wo liegt der aktuelle RAM-Preis je G bei den gängigen Bauformen?
Wenn ich das hier gerade richtig sehe, dürfte ein 2G soDIMM DDR2 von Kingston (also quasi 'Ende Fahnenstange') im VK so bei rd. 15,- liegen.
Bei 'zwei 512er raus und zwei Zweier rein' sind das dann 30 gut investerierte EU-Dollar.
NunGut, sofern das Board das kann! Sollte bei halbwegs nicht gar soo0 alter Hardware klappen. Mein Ende '12 an Frauchen vererbter Vorgänger-Läpi ist aus '07 und hat seit längerem auch 2*2 auf dem Brett. (der aktuelle hat 2*4 und kann 4*8 - also Luft für die nächsten 5 Jahre!)

Wenn Du wüsstest, was bei mir noch an Geräten im Einsatz ist... - weil sie noch tun und deshalb nicht ausgemustert werden.

Erwarte also bitte nicht, daß jedereiner beim Geschwindigkeits- und RAM-Overkill freiwillig mitzieht, nur um durch Neuanschaffung eines kompletten Rechners und den hierdurch erzielten Speicherzuwachs auf die Auslagerung verzichten zu können. Mal abgesehen davon - Selbst allerneueste Maschinen haben recht häufig noch eine SWAP im Hintergrund, um unerwartete Spitzenlast zu puffern, die selbst den dicksten Satz Speicherriegel in die Knie zwingen würde.

Zudem - Laut der Prognose von BillyBoy Gates wird doch eh kein Mensch oder Rechner jemals mehr als 640 Kilobyte RAM brauchen.
(Oder ist das ein Hoax - und der Kerl oder seine Nachfolger meinen das mit dem Müll namens "Win8" tatsächlich ernst...?!?)
 
Wenn Du wüsstest, was bei mir noch an Geräten im Einsatz ist... - weil sie noch tun und deshalb nicht ausgemustert werden.
Mag sein. Wenn so ein Noti bei mir 5 Jahre alt ist, ist es irgendwie mind. so um die 2 Jahre ununterbrochen gelaufen. Wahrscheinlich mehr. Da hat es aus meiner Sicht seine 500.000 km auf der Uhr und damit seinen Job gemacht.

Erwarte also bitte nicht, daß jedereiner beim Geschwindigkeits- und RAM-Overkill freiwillig mitzieht, nur um durch Neuanschaffung eines kompletten Rechners und den hierdurch erzielten Speicherzuwachs auf die Auslagerung verzichten zu können.
Dann (wenn M$) ganz klar bei XP bleiben. Mit SP3 ist der Kram wirklich stabil und selbst eine Kiste mit nur 512 an Board ist da schon ordentlich ausgestattet. Man sollte dann allerdings auch konsequent sein, und max. bis Office 2003 und ähnlichem gehen. Wer aktuellere Anwendungen, egal ob Office oder gar einen FluSi, muss natürlich zu passender HW greifen.
Mal abgesehen davon - Selbst allerneueste Maschinen haben recht häufig noch eine SWAP im Hintergrund, um unerwartete Spitzenlast zu puffern, die selbst den dicksten Satz Speicherriegel in die Knie zwingen würde.
Was soll da meinethalben 1G swap, wenn die Hütte 4 auf den Brett hat. Da hilft das eine G dann auch nicht mehr, und man müsste sich mind nochmal 4G als swap einrichten. Ich muss Dir aber sagen, dass ich selbst die 4G auf meiner alten Kiste nur mit VMs verbraucht habe und ansonsten, trotz 64er W7, wahrscheinlich sogar mit 2G größtenteils ausgekommen wäre. Und beim 32er OS ist das alles noch viel weniger ein Thema.

Und ja, wer beim Rechner ausgerechnet am RAM spart, hat treffsicher genau die exakt Stelle erwischt.
 
Was ist an Qualcomm exotisch ?

Selbst M$chrott (er)kennt diesen nicht. Da freut sich dann der überraschte Anwender, wenn zufällig noch
eine passende Netzwerkkarte von Intel oder 3com rumliegt....... womit dann wenigstens der bei M$chrott
übliche aktivierungs- und registrierungsquatsch wenigstens funktioniert. Weil dir sonst dein freiwillig gekauf-
t
er, unfertiger Pfusch gleich nach 3 Tagen wieder die Tür zumacht. Unglaublich!

Suse kennt ihn auch nicht. RedHat kennt ihn. Mandriva erkennt ihn, bringt ihn aber nicht zum laufen (loop-
backschlaufe). Mit Ubuntu hab ich nicht getestet. Also unbrauchbar.

Üblicherweise klappt das aber, denn "rumliegen" macht den Li-Ionen Akkus nicht sehr viel aus, am liebsten übrigens halb voll.
Ganz Leer hingegen mögen Li-Ionen Akkus nicht so sehr.

70% ladung hat bei mir am längsten gehalten. Aber die Industrie hält uns ja bewusst dumm, neue akkus
verkaufen gibt halt neues Geld.

Und die NTFS Fragmentierung tut ihr übriges zum langsam werden. Schade, dass MS es nicht schafft ein sinnvolles Defragmentierungstool mitzuliefern.

Ich möchte fast meinen, dass privat die meisten rechner aus diesem Grunde neu gekauft werden.

Für M$ gibt's da was von O&O, Diskeeper (welcher als abgespeckte Version schon im windows läuft) oder Ontrack.
Linuxianer brauchen so was halt nicht, weil es mit seiner blockbauweise sich selber erst gar nicht selber zumüllt. Swap und temp löscht das ja von selber bei jedem herunterfahren.
Bei mir ist die swap-patition gerade 10% vom verbauten Hauptspeicher - was völlig ausreicht,
bei 8GB ram. Mein board könnte mehr, aber mit mehr als wie 8GB nimmt der overhead wieder zu.
Da frag ich mich, wie das bei aktuellen Servern mit Speichergrössen bis 192GB ram funktioniert :redface:
Linux ist schon speicherlastig.

- - - Aktualisiert - - -

Zudem - Laut der Prognose von BillyBoy Gates wird doch eh kein Mensch oder Rechner jemals mehr als 640 Kilobyte RAM brauchen.
(Oder ist das ein Hoax - und der Kerl oder seine Nachfolger meinen das mit dem Müll namens "Win8" tatsächlich ernst...?!?)

Vermutlich ist billyboy blind, und er hat gar keinen computer. :biggrin:
 
... aber mit mehr als wie 8GB nimmt der overhead wieder zu.
Also da wäre ich ja mal gespannt, warum.
Der direkt adressierbare Bereich ist ja in 64er Systemen (oder redest Du von altem 32er Kram?) doch 'etwas' grösser.
 
Frage zur Defragmentierung : Was spricht gegen das bei XP integrierte Defragmentierungsprogramm ?
 
Es defragmentiert nicht besonders effektiv. Aber es ist auf jeden Fall weit besser als nichts.
 
Also ich war mit dem XP Programm immer äußerst zufrieden muss ich sagen...
 
Also da wäre ich ja mal gespannt, warum.
Der direkt adressierbare Bereich ist ja in 64er Systemen (oder redest Du von altem 32er Kram?) doch 'etwas' grösser.

THG hat das mal getestet mit verschiedenen linux-distributionen mit 64bit. Über 8GB nahm der speicheroverhead wieder zu.
 
Unter den "freien" finde ich mydefrag (hatte vorher mal einen anderen Namen) ganz gut...

u.a. bietet es die Möglichkeit unterschiedlich "stark" zu defragmentieren, also unterschiedliche Strategien.
z.B. täglich einen "kleinen" Lauf und einemal im Monat mal so einen "richtigen"

oder alle Systemdateien auf einen Klumpen zu packen, so dass das booten schneller geht.

Gerade was Geschwindigkeit angeht, so hatte ich damit schon einige Erfolge (speziell bei Rechnern, bei denen das Windows-Defrag eigentlich so gut wie nix gebracht hat)

http://www.mydefrag.com
 
Zurück
Oben