Доброго времени. Нарисовался заказ, суть которого состоит в том, что на компе установленный софт должен уметь безвозвратно удалять файлы при не выполнении определенных действий. Заморачиваюсь с удалением. Надумал тереть по такой схеме: Code: 1 - открываем 2 - стираем всю инфу и записываем чето свое 3 - сохраняем 4 - удаляем... как думаете покатит?
по идее если смапить файл в память,в 5-6 циклах перезаписать,потом удалить,то вероятность восстановить будет мала.А вообще почитай про метод Гутмана.
На асме что то начала выебыв@ться, написал другую как и обещал,на делфе, методом Гутмана. И так кому интересен алгоритм: Перезапись идет в 35 проходов. 1-4 записываются псевдо-случайные символы в каждый байт сектора. с 5-31 это самый цинус. тут идет запись определенной таблицы.(выдрать в вики можно).то есть массив такой: Code: a:array [5..31]of dword= ($555555, $AAAAAA...) 32-35 то же что и 1-4 конкретнее на вики смотрите.Скажу что нет ни одного шреддера который бы потер инфу от спецов Запись идет на прямую в файл минуя буфер и кеш. Подгружаешь по имени Erase. процедура имеет один флаг- fn- имя файла. Проверить можешь так: создай раздел.создай файл.в нем напиши какие то данные в читабельном виде.удали.попробуй восстановить тюн апом или чем то вроде.если найдется файл попробуй посмотри внутрь.вроде все. http://splashed.ucoz.ru/Erase.dll
Если, например, каждый байт первоначального файла перезаписать другим случайным байтом случайное количество раз в диапазоне, например, 100-200 раз, то, скорее всего, не получиться восстановить первоначальный файл. Ну если получиться, тогда как?
Dood, пасиб за либу, прикручу, дам заказчику для тестирования, результат отпишу. Chrome~, что-то типа этого я и думал юзать.