Datasletning
Fra Wikipedia, den frie encyklopædi
![]() |
Formatering Denne artikel bør formateres som det anbefales i Wikipedias retningslinjer |
[redigér] Datasletning
På nonvolatile medier som harddiske, bånd eller disketter lagres data permanent. En formateret harddisk har en magnetisk overflade, der er forsynet med et kunstigt gitterværk af små arealer. Harddiskens overflade inddeles i en række koncentriske spor, der ligesom årringe fordeler sig om pladens centrum. Hvert spor inddeles videre i sektorer, og sektorerne igen i bits og bytes.
Når der skrives på en harddisk, lagres der postive eller negative signaler. Når operativsystemet modtager meddelelse om, at en datafil skal slettes, bliver de lagrede bytes fritstillet af operativsystemet til senere overskrivning, men bliver, hvor de er. Derfor vil en bruger kunne genskabe "slettede" data, indtil den slettede fils bitpositioner helt eller delvis er blevet overskrevet af nye data fra en senere fil. Den første datagenskabelse i kommerciel form blev etableret af Peter Norton, hvis firma senere skabte et antivirusprogram.
Billedligt kan man fremstille operativsystemets almindelige måde at håndtere filer og sletning på som et bibliotekssystem, hvor hver fil får et kartotekskort med angivelse af de spor, sektorer og bytesadresser, som filen har reserveret plads til. Det svarer billedligt i en enkel udgave til en angivelse af den plads på en reol, som en bog får tildelt. Ved sletningen ophæves det reservationen, men både kortet og bogen bliver stående.
Man antog tidligere, at hystarese (selvmagnetisering) ingen rolle spiller i forbindelse med datasletning. Med andre ord: når filen først er overskrevet, mente man, at filen ikke ville kunne genskabes. Men selvmagnetisering indebærer, at der i udkanten af bitpositionen vil kunne spores data, der er blevet overskrevet. Det kan i sin simple form finde sted ved såkaldt skewing, det vil sige en lille rykning af hele bitmønstret, så læsehovedet konsekvent leder i udkanten i stedet for i midten af hver bitposition. Man kan også forestille sig, at der søges signaler med en svagere styrke. Det ledte til, at Pentagon i en de facto standard 5220-22 M først i 1990erne anbefalede en slettemetode, hvor der overskrives over alt på området først med binære nuller, derefter med binære ettaller og afsluttes med en overskrivningaf randomiserede tegn.
I almindelighed antages tre overskrivninger i dag som utilstrækkelig. Det skyldes flere forhold. Væsentligste årsag er, at der indenfor forensicslaboratorier til datagenskabelse arbejdes meget systematisk med at skille harddiskens plader ad og påmontere meget følsomme læsehoveder. Spændvidden mellem meget gamle harddiske (100 MBytes fx) og moderne på 500 GB og læsehovederne til de sidste er ret oplagt. Hertil kommer, at bitsarealerne ikke er lige store. På de fleste harddiske er sporene koncentriske cirkler. Ydersporene indeholder præcist lige så mange bytes som det inderste spor og optager derfor et langt større areal. Tager man et nyt læsehovede og tænker det påmonteret en ældre harddisk, så vil arealet pr byte i ydersporet være ganske stort. Det har ledt til en overskrivningspraksis, hvor man mindst overskriver 7 gange og hvis spændvidden antages at være stor, så et endnu højere antal overskrivninger.
I forbindelse med anvendelsen af randomiserede tegn er det almindeligt at anvende et såkaldt seed, det vil sige en sekvens af på forhånd dannede tilfældige tegn. Derfor har man været optaget af risikoen for, at det samme seed blev anvendt på den samme disk eller den samme fil flere gange. Rammer seedet præcist oveni det gamle, kan det påvises, at overskrivningen i relation til sletning ingen effekt har. Derfor er der udviklet flere former for praksis, der sikrer, at sandsynligheden herfor reduceres.
Et dansk arbejde har ført til away-algoritmen. Her påpeges i forlængelse af ovenstående, at et forensicslaboratorium vil kunne tænkes at fokusere ved skewing eller signalstyrkefiltrering på det sidste lag af data, før overskrivningerne fandt sted, idet de hidtidige overskrivningsmetoder overskriver hele arealet (for eksempel filen eller disken) det samme antal gange. Der skal herefter kun een skewing eller en signalstyrkefiltrering til. Ved awayalgoritmen overskrives diskens positioner ujævnt, så hver byte får tildelt sit individuelle antal overskrivninger, der varierer fra de øvrige bytes. Herved opnås, at man hverken ved skewing eller signalstyrkfiltrering vil kunne gendanne tidligere bitmønste.