polarisation: apple "pech"

kann endlich jemand von den schlauen füchsen hier ERKLÄREN wie es sein kann dass man hdds offensichtlioch besonders "druckvoll" ausradieren muss? so ne doofe analogie mit dem blatt papier bei dem zwar der belistift weg ist aber der druck noch vorhanden ist kann ja wohl nicht euer ernst sein !!!
wie gesagt: WOHER soll man wissen ob ne null voreher ne eins war ??? und warum soll das bei einer 0 0 0 0 0 schwieriger sein als bei einer einfachen 0 ???
ich finde die annahme dass eine nur einmal gelöschte null so ein fähnchen a la "ich war wahrscheinlich mal ne 1" trägt doof

interessantes thema übrigens - aber irgendwie nervig wenn man das gefühl hat dass hier nur halbwissen wiedergekäut wird - ich masse mir da keine aussagen an - sondern stelle fragen und formuliere dzu etwige hypothesen..

also - fakten bitte ...

ps: übrigens neige ich natürlich bis jetzt an ehersten dem kollegen marv42dp zu glauben da er zumindest etwas zitiert was mir glaubwürdig erscheint
 
BACK ON TOPICH:

was ist "auch" behämmert bei apple?

dass offensichtlich die tollen seagate momentus xt platten nicht verwendbar sind weil das liebe osx damit nicht zurechtkommt - obwohl die natürlich (bis auf ihre hybridität) eine ganz normale festplatte ist

pfui!

ich deneke mal dass man es jetz bei apple auch in der entwicklung geschnallt hat dass viele leute gerne "selber" hardware upgraden und man beginnt dem diverse steine in den weg zu legen nur damit mann irgendwelche sachen dann um das doppelete verkaufen kann weil von apple "zertifiziert" ...auf wienerisch würd man sagen "ja ..eh oasch"
 
tomflair schrieb:
also - fakten bitte ...

a) Fakt ist...eine HDD muß formatiert werden, d.h. sie wird in Sektoren und Spuren eingeteilt. Dies geschieht auf Low Level Ebene, d.h. das Betriebssystem, egal welches, braucht diese Sektoren und Spuren um Datenbits erstens ablegen zu können und zwotens sich merken zu können, wo die Datenbits liegen.


b) Fakt ist...ein Filesystem ist noch einmal etwas anderes als die Low Level Formatierung einer Platte (im Unix Bereich spricht man auch von einem "Volume"). Ein Filesystem legt über das Sektoren und Spuren System noch einmal ein weiteres System wie Datenbits logisch angeordnet werden können im Spuren und Sektoren System.

c) Fakt ist...Die Sektoren und Spuren einer Platte sind somit ein System zur physikalischen sprich magnetischen Speicherung auf dem Datenträger HDD.
Ein Filesystem ist nur ein logisch-abstraktes Model zur Speicherung von Datenbits innerhalb des physikalischen Systems.

Wird ein Filesystem formatiert...bleiben die Inhalte der Low Level Spuren und Sektoren erhalten, da der Festplatte nur eine neue logische Struktur verpasst wird. Die Anordnung der Datenbits bleiben erhalten als Datenbitreste, können aber vom Filesystem nicht mehr gesehen werden und nur mit forensischen Werkzeugen ausgelesen werden, sprich die Hardware Spuren/Sektoren müßen direkt ausgelesen werden.

Schreibt man allerdings auf der Low Level Ebene, also direkt in die Hardware Spuren und Sektoren hinein, mit neuen Datenbits (egal ob 0 oder 1), so werden die alten Datenbitreste überschrieben und sind nicht rekonstruierbar.

So mal ganz vereinfacht ausgedrückt.

Kartenspeicher sind dann nochmal ganz andere Tiere...
 
pulsn schrieb:
tomflair schrieb:
also - fakten bitte ...

a) Fakt ist...eine HDD muß formatiert werden, d.h. sie wird in Sektoren und Spuren eingeteilt. Dies geschieht auf Low Level Ebene, d.h. das Betriebssystem, egal welches, braucht diese Sektoren und Spuren um Datenbits erstens ablegen zu können und zwotens sich merken zu können, wo die Datenbits liegen.


b) Fakt ist...ein Filesystem ist noch einmal etwas anderes als die Low Level Formatierung einer Platte (im Unix Bereich spricht man auch von einem "Volume"). Ein Filesystem legt über das Sektoren und Spuren System noch einmal ein weiteres System wie Datenbits logisch angeordnet werden können im Spuren und Sektoren System.

c) Fakt ist...Die Sektoren und Spuren einer Platte sind somit ein System zur physikalischen sprich magnetischen Speicherung auf dem Datenträger HDD.
Ein Filesystem ist nur ein logisch-abstraktes Model zur Speicherung von Datenbits innerhalb des physikalischen Systems.

Wird ein Filesystem formatiert...bleiben die Inhalte der Low Level Spuren und Sektoren erhalten, da der Festplatte nur eine neue logische Struktur verpasst wird. Die Anordnung der Datenbits bleiben erhalten als Datenbitreste, können aber vom Filesystem nicht mehr gesehen werden und nur mit forensischen Werkzeugen ausgelesen werden, sprich die Hardware Spuren/Sektoren müßen direkt ausgelesen werden.

Schreibt man allerdings auf der Low Level Ebene, also direkt in die Hardware Spuren und Sektoren hinein, mit neuen Datenbits (egal ob 0 oder 1), so werden die alten Datenbitreste überschrieben und sind nicht rekonstruierbar.

So mal ganz vereinfacht ausgedrückt.

Kartenspeicher sind dann nochmal ganz andere Tiere...


bist du mir böse wenn ich sage dass ich das so schon wusste ? ;-)
aber was ist nun zu den theorien des "mehrfach-löschens - den sinn davon hätte ich von den befürwortern gern gehört ...

ps: dass ein filesystem nur "logisch abstrakt" sein kann ich aber auch nicht unterschreiben -oder vielleicht stosse ich mich nur an dem begriff "abstrakt" - denn natürlich sind im filesystem die daten ganz physikalisch vorhanden ...ausserdem würde ich halt als laie davon ausgehen dass ein löschalgorithmus das alles berücksichtigt und natürlich physikalisch übertschreibt - dass "formatieren" das nicht tut ist mir klar - da werden aber nur die header bzw. bereiche freigegeben etc...

interessant ist wieviel overhead hat eigentlich die lowlevel ebene zu der der betriebsysteme ?

und gabs nicht bei dos auch diesen lowlevel format befehl ? was machte der denn ?

cheers
 
Low Level Format != aus"nullen" von Sektoren und Spuren. Hier wird der HDD auch nur eine neue Struktur aufgeprägt. Alten Datenbits bleiben vorhanden und werden ggf. bei Schreibvorgängen auf das System dann ausgelöscht mit den neuen Datenbits.

Der Asbachuralte (>30 Jahre...)DOS Low-Level Format machte auch nichts anderes als heutige Systeme. Einer Festplatte eine Sektoren/Spuren Struktur aufprägen.

Natürlich sind die Daten physisch vorhanden, aber die Idee eines Filesystems mit File Allocation Table etc.pp. ist abstrakt. Ebenso abstrakt ist das TCP/IP Protokoll...wobei am Ende der Netzwerkkarte auch wieder nur elektrische Ströme im an/aus Muster fließen.

Und eine Löschroutine kann nur auf der Ebene wirken, für die sie programmiert wurde. Ein Löschalgorithmus auf Hardwareebene ist deswegen wirksamer, als ein Löschalgorithmus der "nur" Einträge aus einer File Allocation Table für das OS unkenntlich macht und "frei" gibt zum überschreiben. Der Teufel steckt, wie immer, im Detail.
 
pulsn schrieb:
Natürlich sind die Daten physisch vorhanden, aber die Idee eines Filesystems mit File Allocation Table etc.pp. ist abstrakt. Ebenso abstrakt ist das TCP/IP Protokoll...wobei am Ende der Netzwerkkarte auch wieder nur elektrische Ströme im an/aus Muster fließen..


hmmm..will mich ja nicht blöd stellen - aber wie kann man da bitte "abstrakt" einordnen ? was sollte denn sonst fliessen als 1/0 in form von strom - eine "sprache" odefr code ist doch eigentlich etwas recht konkretes ...bitte um aufklärung ;-)
 
TCP/IP ist ein logisch abstraktes Modell, nach dem die Datenbits in bestimmter Reihenfolge fließen müßen um vom Empfänger wieder in TCP/IP umgewandelt werden zu können. Um die im TCP/IP enthaltenen Informationen dann zu übersetzen, wird wieder ein abstraktes Modell verwendet.

Ähnliches passiert bei einer Festplatte. Es werden Datenzwiebeln auf die Platte geschrieben, die aus Schichten von logischen Modellen bestehen.

Und ja...am Ende kommt überall nur Strom an/aus raus.

Damit der Strom dann aber am Ende, dieses Posting hier für dich am Bildschirm formt, sind eine Menge abstrakter Modell genauer gesagt Protokolle notwendig um die Datenbits auch für uns Menschen lesbar umzuwandeln.

Deswegen ist ein Filesystem (ext2, ext3, Reiser FS, FAT16, FAT32 etc.pp) nur ein logischer Rahmen, der natürlich am Ende dazu führt das Strom an/aus raus kommt.
 
pulsn schrieb:
Low Level Format != aus"nullen" von Sektoren und Spuren.

Äh, doch, bei Platten < ca. 15 Jahre ist das für den Endanwender verfügbare Low Level Format nichts anderes, als jeden Sektor einmal zu überschreiben.

Der Asbachuralte (>30 Jahre...)DOS Low-Level Format machte auch nichts anderes als heutige Systeme. Einer Festplatte eine Sektoren/Spuren Struktur aufprägen.

Nein, diese Form des LL-Formatierens können nur die Festplattenhersteller.
 
tomflair schrieb:
aber was ist nun zu den theorien des "mehrfach-löschens - den sinn davon hätte ich von den befürwortern gern gehört ...
Das Mem stammt aus der Frühzeit der magnetischen Datenträger.
Damals hatte man eine mechanisch eingeprägte absolute Kopfposition. (Die älteren kennen diesen Jeeeeek-Sound vielleicht noch, wenn der Schrittmotor der Floppy einmal quer über die 80 Tracks hoppelt, damalige Festplatten funktionierten vom Prinzip genau so ....)
Und der gemeinsame Schreib- und Lesekopf war ein Kompromiss, der relativ breite Abstände zwischen den Spuren erforderlich machte. Und auch einiges an Platz verschwendet hat, weil Schreib und Lesebreite nicht gleich sind.
Wenn man die Daten hier nun einmalig überschrieb, bestanden gute Chancen, dass an den Rändern noch Reste der alten Daten stehen blieben. Die konnte man dann mit einer zur Verfügung stehenden, deutlich besseren Lesetechnologie (theoretisch) noch auslesen. Reale Stories dazu sind mir allerdings nicht bekannt, der Aufwand/Nutzen dürfte damals schon auf "eher nur bei Diskette" und "eher nur für Geheimdienste" gewesen sein.

Heute ist die Lesetechnik weit ausgefeilter, die Datendichte ist auch "etwas" angestiegen. Anschaulich: Wenn man ein Bit von damals auf DIN-A4 Format vergrössert (ein Bitt pro Blatt, d.h. entweder schwarze oder weiße Seite), dann hat man heute 25 Bit in der Fläche von einem Rechenkästchen.
Die Leseköpfe sind heute so ziemlich das beste, was man gerade bauen kann, und das ist verdammt dich an den physikalischen Grenzen dran. (Für das, was seit rund 10 Jahren den Lesekopf ausmacht (GMR), gab es 2006 den Physiknobelpreis... ). Für Restbits vergangener Tage ist da weder Platz, noch gäbe es eine Lesetechnik dafür.
Die einzige Methode eine aktuelle Platte mit vertretbarem Aufwand auszulesen, ist ihre eigene Leseelektronik. Das da Forscher bei einzelnen Bits mit 70% Wahrscheinlichkeit noch sagen können, das da vorher mal eine "0" gestanden haben könnte, gibt selbst eine theoretische Rekonstruierbarkeit der Daten nicht mehr her.

Heute dient die Vorstellung mehrfachen Überschreibens nur noch dazu, die Leute davon abzuhalten, ihre Daten richtig zu löschen. (Und sei es nur als faule Ausrede. )
Der *reale* Unterschied ist aber eben "einfach überschreiben, dann Daten richtig weg", was extrem schnell und relativ einfach geht/ginge, vs. "jeder Depp kann das restaurieren".


(Besserwisser-Disclaimer: Es gibt schon noch einen kleinen Teil der Daten (zufällige Auswahl), den der Hersteller der Platte auch nach überschreiben noch auslesen könnte: das was in umgemappten defekten Sektoren zurückgeblieben ist. Wer das für wichtig halten möchte, möge diesen Teil vor weiterer Diskussion bitte quantifizieren. Für die anderen sei es nur als Warnung gedacht, dass die Fallstricke nicht da sind, wo man sie sucht. )
 
nordcore schrieb:
tomflair schrieb:
aber was ist nun zu den theorien des "mehrfach-löschens - den sinn davon hätte ich von den befürwortern gern gehört ...
Das Mem stammt aus der Frühzeit der magnetischen Datenträger.
Damals hatte man eine mechanisch eingeprägte absolute Kopfposition. (Die älteren kennen diesen Jeeeeek-Sound vielleicht noch, wenn der Schrittmotor der Floppy einmal quer über die 80 Tracks hoppelt, damalige Festplatten funktionierten vom Prinzip genau so ....)
Und der gemeinsame Schreib- und Lesekopf war ein Kompromiss, der relativ breite Abstände zwischen den Spuren erforderlich machte. Und auch einiges an Platz verschwendet hat, weil Schreib und Lesebreite nicht gleich sind.
Wenn man die Daten hier nun einmalig überschrieb, bestanden gute Chancen, dass an den Rändern noch Reste der alten Daten stehen blieben. Die konnte man dann mit einer zur Verfügung stehenden, deutlich besseren Lesetechnologie (theoretisch) noch auslesen. Reale Stories dazu sind mir allerdings nicht bekannt, der Aufwand/Nutzen dürfte damals schon auf "eher nur bei Diskette" und "eher nur für Geheimdienste" gewesen sein.

Heute ist die Lesetechnik weit ausgefeilter, die Datendichte ist auch "etwas" angestiegen. Anschaulich: Wenn man ein Bit von damals auf DIN-A4 Format vergrössert (ein Bitt pro Blatt, d.h. entweder schwarze oder weiße Seite), dann hat man heute 25 Bit in der Fläche von einem Rechenkästchen.
Die Leseköpfe sind heute so ziemlich das beste, was man gerade bauen kann, und das ist verdammt dich an den physikalischen Grenzen dran. (Für das, was seit rund 10 Jahren den Lesekopf ausmacht (GMR), gab es 2006 den Physiknobelpreis... ). Für Restbits vergangener Tage ist da weder Platz, noch gäbe es eine Lesetechnik dafür.
Die einzige Methode eine aktuelle Platte mit vertretbarem Aufwand auszulesen, ist ihre eigene Leseelektronik. Das da Forscher bei einzelnen Bits mit 70% Wahrscheinlichkeit noch sagen können, das da vorher mal eine "0" gestanden haben könnte, gibt selbst eine theoretische Rekonstruierbarkeit der Daten nicht mehr her.

Heute dient die Vorstellung mehrfachen Überschreibens nur noch dazu, die Leute davon abzuhalten, ihre Daten richtig zu löschen. (Und sei es nur als faule Ausrede. )
Der *reale* Unterschied ist aber eben "einfach überschreiben, dann Daten richtig weg", was extrem schnell und relativ einfach geht/ginge, vs. "jeder Depp kann das restaurieren".


(Besserwisser-Disclaimer: Es gibt schon noch einen kleinen Teil der Daten (zufällige Auswahl), den der Hersteller der Platte auch nach überschreiben noch auslesen könnte: das was in umgemappten defekten Sektoren zurückgeblieben ist. Wer das für wichtig halten möchte, möge diesen Teil vor weiterer Diskussion bitte quantifizieren. Für die anderen sei es nur als Warnung gedacht, dass die Fallstricke nicht da sind, wo man sie sucht. )


ich danke für das interessante posting :supi:
 
ebsnso "genial" : offensichtlich ist es dem osx ja nicht möglich bei den ordnerinfos anzuzeigen wieviel dateien bzw. speicher dieser belegt - wäre ja auch absurd dies wissen zu wollen - beosnders nach eine kopiervorgang oder so - wer bitte will schon wissen ob man alles kopiert hat oder nicht...oder wer will shcon mal ordner mit gleichen namen auf zwei hdds vergleichen

klick auf ordner und dann apfel+i. wenn du mehrere ordner in einen informationfenster ansehen möchtest markierst du die und dann alt+apfel+i

kauf dir einen pc
 
sushiluv schrieb:
ebsnso "genial" : offensichtlich ist es dem osx ja nicht möglich bei den ordnerinfos anzuzeigen wieviel dateien bzw. speicher dieser belegt - wäre ja auch absurd dies wissen zu wollen - beosnders nach eine kopiervorgang oder so - wer bitte will schon wissen ob man alles kopiert hat oder nicht...oder wer will shcon mal ordner mit gleichen namen auf zwei hdds vergleichen

klick auf ordner und dann apfel+i. wenn du mehrere ordner in einen informationfenster ansehen möchtest markierst du die und dann alt+apfel+i

kauf dir einen pc


pcs habe ich hier 5 stück stehen - danke

das mit apfel-i wusste ich schon danke - ich habe das wohl falsch ausgedrückt - ich finde es sehr unpraktisch und besonders die notwenidgkeit von dreifach tastenkürzel - ach wie user friendly - beim pc fahre ich über die ornder und unten in der konext leiste steht was ich wissen will, oder ich fahre mit der maus über die objekte uns es springt die info auf - ganz ohne tastenkombi und ganz ohne dass der rechner auch noch "Berechnen muss" wieviel daten usw. das sind...lauter so kleinigkeietn wo ich mich echt frage woher die apple fans den irrwitz nehmen zu behaupten osx sei intuitiv oder sonderlich flüssig
 
future_former schrieb:
du solltest dir wieder einen PC kaufen.


future_former


LOL - habe ich doch: im studio nen standrechenr, 3 laptops und ne ganz alte kiste
das mbp dient zum surfen und email lesen im wohnzimmer - das kann es ganz gut :lollo:
 
eine kleine/grosse geschichte:

auf der suche nach dem kern in mir

ich kauf mir jetzt sofort wieder nen pc und krämpel alles noch mindestens 10x um, nur damit ich auf augenhöhe mit dem weltmarktführer aller techniken bin und ich mit gutem gewissen weiterschlafen kann , hinterm perfekten punkt und komma zeigt er mir jetzt endlich mal ohne zucken der synapsen an, wieviel files/mb usw. meine platte dann nach gut 10 jahren schlafen und nix tun noch hat, es ist eine riesige mege an platz! .... jawoll freunde und kollegen, dass mache ich dann im jahr auch gleich 5 mal, damit ich immer etwas zu tun habe, was mich gut vom mukke machen schützt. aber dann merke ich das ich trotz bester technik einfach nix mehr gebacken bekomme, warum hat es mich einfach vor 10 jahren aus reiner bosheit rausgehauen? vielleicht mag mich die ganze technik einfach nicht mehr, oder ich sie nicht? oder hat mich gott nicht mehr lieb? tja und das, obwohl ich eigentlich schon ganz geile stücke aufm markt hatte ... naja, sicher is eben sicher! manche dinge muss man eben 10 mal tun damit es eben so rüber kommt, wie eine einzige lüge und als hätte man es noch nie gemacht, wobei die welt weiter nach neuen tracks lechzt ...

fine!

okay da liegt das problem wohl doch an allem anderen. ich mag einfach nicht mehr! bitte verbrennt mich, denn ich glaube an nix mehr, danke! :phat:

p.s. vielleicht findet sich auch der ein oder andere in dieser kleinen/grossen geschichte wieder :kaffee:
 
WaveMachine schrieb:
eine kleine/grosse geschichte:

:heul: wobei die welt weiter nach neuen tracks lechtzt ...

fine!

okay da liegt das problem wohl doch an allem anderen. ich mag einfach nicht mehr! bitte verbrennt mich, denn ich glaube an nix mehr, danke! :phat:

p.s. vielleicht findet sich auch der ein oder andere in dieser kleinen/grossen geschichte wieder :kaffee:


die ist jetzt aber kurz geworden - das original war ja nicht ganz untreffend...

ja klar ist die technik auch ne art hemmschwelle oder ausrede für trägheit oder unispiration...aber nicht ganz zu unrecht:

ich habe in den letzten tagen wieder sehr intesiv an ergonomie und praktikabiloität im studio gearbeitet und es grenzt teilweise schon an verarschung "was" immer wieder alles schief gehen kann...geräte spinnen, programme spinnen. performen plötzlich aus der norm - ein neuer workflow entpuppt sich schnell als noch unpraktischer ..etc..etc...
mit der komplexität steigert sich natürlich die fehlerquote exponential und nicht linear - ich hätte es mir bis vor kurzem gar nicht vorstellen kölnnen, aber: es erschöpft mich das sammeln von vintage gear immer mehr - was da geld reingeht....und immer wieder gibts was zu richten - man kommt NIE auf einen status wo man sagt: jetz ist alles fit - jetzt wird "nur" produziert...
und wenn, dann fehlt genau ein kabel oder wegen nem neuen gerät werden plötzlich 3 neue peripherie-sachen notwendig (converter, adapter, connector usw.. usf...)

mein fazit aktuell: am besten wäre es man hat maximalst 10 hochwertigste komponenten (3-5 synths, 2 drummies, 1 preamp, 1 compressor, 1 eq, spitzen boxen) FERTIG ....witzigerweise könnte ich mir das auch durch den verkauf meiner zig "gehobener mittelklasse" teile finanzieren - ABER - da kommt eben der sammler ins spiel...jedes gerät hat ne geschichte etc...
wobei es bei mir immer so ist dass WENN ich mal was verkaufe eigentlich nur die "erwaratungsangst" unangenehem ist - meistens ist wenn der synth raus ist nach 30 minuten der stress weg und ich weine keinem teil nach...
wäre man jetzt ein kühler rationalist dann würde man diese erkenntnis radikal umsetzten - aber DAS können eben nur wenige menschen - ich werd jedenfalls darauf hin arbeiten

mfg
 
die ist jetzt aber kurz geworden - das original war ja nicht ganz untreffend...
morgen,

ich wollte einfach keinem zu nahe treten, deshalb die selbst-zensur, is jetzt aber in einer neuen version (nennen wir sie mal V 0.2) wieder da :nihao:

:kaffee:

laufen lernen und der sprint ins ziel

ich habe aus diesem grund meine hardware eingemottet (verkaufen werde ich sie trotzdem nicht, stichwort: herzblut. aber jedenfalls aus den augen damit, damit die gedanken nicht kreisen und platz für neues ist!) und bin seitdem komplett in den rechner gewandert. clean sein hat eben auch was elegantes. das hat mich nach anfänglichen kleineren schwierigkeiten sehr gut nach vorne gebracht, vor allem wenns darum geht eine idee möglichst schnell zu skizzieren (und davon gibt es jetzt sehr viele!). auch das thema recall kam mir sehr entgegen, da ich somit endlich schnell und parallel an meinen tracks arbeiten kann. dieser umstieg trägt mittlerweile auch sehr köstliche früchte. jeder umstieg und jede neue umgebung hat mich unterm strich in kleinen schritten in die heutige und moderne art & weise des produzierens gebracht, gedacht hätte ich das vor jahren aber niemals nicht. heute liebe und lebe ich mein digitales ego mit voller überzeugung aus, ein weg zurück in die analoge welt gibt es jetzt für mich nicht mehr, denn ich bin clean. meine geräte können jetzt endlich gehen und anderen im wege stehen. der ewige kopfkampf analog vs digital ist der reinen produktivität gewichen, man hat sich quasi selbst besiegt :floet:

:doof: auf zu den sternen :supi:

ein passendes zitat an dieser stelle stammt von Morpheus: "Es macht einen Unterschied ob man den Weg nur kennt, oder ob man ihn auch selbst bestreitet."
 


Zurück
Oben