1 новость = 1 файл. 1 файл = комменты для 1 новости. В каком-то main.dat записывать инфу о файлах с нвостями. А лучше: один подраздел на сайте - отдельная папка с файлами и отдельным файлом main.dat. Всё можна разбить аккуратно и не переживать за функционал. А поиск поставить от гугля по сайту.
vorona 2-10к записей в main.dat том же самом, удалить подстроку и сдвинуть остаток файла, и так три раза. Модерация 500 записей у популярной новости превратится в нечто несусветное. Постраничный вывод, опять таки. И это только на поверхности. Например для NTFS дисков размер кластера 2-4кб, то есть та же база 20к записей займет 40-80 метров. Фрагментация и прочие прелести? Конечно, можно сказать, что можно иметь индексный файл, чтобы удобнее использовать fseek и т.д. Но вопрос - зачем?
не понимаю о чем вообще разговор для сайта - конечно СУБД для скриптов (реггер, спамер, етк), настроек - конечно файлы у всего есть своё предназначение, СУБД и файлы это вообще не конкуренты.
в PosgreSQL можно хранить бинарные файлы заливает туда за считанные секунды держит приличные нагрузки и вы еще думаете о файлах и MySQL ? xDDD в идеале юзать не блокированные таблицы InnoDB
В MySQL нельзя хранить бинарные файлы? Помню ходил на говнобыдлокурсы по веб разработке, так нам там наставляли изображения хранить в БД. =\
пули, буферы в mysql отличаются по настройке они не имеют по дефалту хоть средне высокие параметры бинарник делать можно везде но только в posgre за секунды на 2гб фильм в БД залить
файловый архив посредствам БД и кэширование той же базой а может обработка файлов низкоуровневые операции чтения/записи
Я написал движок для сайта, используя лишь файлы. Это очень даже не ламерско и функционально. Тем-более,на мой взгляд, файлы в качестве бд легче защитить,чем всякие там СУБД,поддающиеся взломам. В файл с базой просто всунем: PHP: <? php die(); ?>
Твоя наивность не знает границ. А если зальют шелл, что намного проще, чем получить пароль от мускуля, то что ты тогда будешь делать?
Это не то слово функционально, ведь в нем наверное аж 2-3 новости для теста, у меня к примеру на сайте почти 20 000 новостей, за счет СУБД я нахожу дубли новостей и новости с определенными категориями (кол-во коментариев, кол-во новостей в рубрике и тд..) за считаные секунды, файлы ты парсить будеш часами.
N2kroot В каком месте это защита? Если вы думаете, что существуют только SQL инъекции - вы ошибаетесь. В говно самописных движках "на файлах" код изобилует локальными/удаленными инклудами, ведь файлы же надо читать, а в зависимости от хитровы**думанной структуры - читать приходится выборочный файл, что собственно и открывает лазейки. Плюс к тому - необдуманное использование регулярок при работе с файлами (а без них почти никуда) приводит почти к тем же возможностям восстановления хешей паролей. vorona в общем случае - мускуль будет кушать меньше. Но все, естественно, зависит от способа использования и того и другого. Если, например, использовать file file_get_contents и не удалять вовремя полученные данные - будет нехорошо для ФС. PandoraBox эх, вы прям так красиво говорите, про бинарные файлы в бд, низкоуровневую запись, всякие штучки. Что меня прям гложет удивление, почему в микрософтах и прочих линуксах сидят такие дураки, и все еще используют файловую систему для работы с файлами, а не записывают эти самые файлы в postgreSQL
Дак я не вижу существенной разницы. Нету разницы в том, что нада выбрать все поля из таблицы в 1 000 полей и ф-ей file все строки из файла в 1 000 строк.
Как сделать так: Создать таблицу только из 10-ти записей. При добавлении новой записи, последняя удаляется, а новая заносится на верх?
1. Создаешь таблицу. 2. Записываешь туда 10 строк. 3. Проверяешь если кол-во строк == 10, удаляешь ту, которая имеет последний id. Все просто, делается парочкой запросов А на файлах... Сколько это мороки будет...