Вообщем есть такая задача требующая глубокомысленного знания и по большей части опыта, интересует к примеру есть ресурс у него соответственно php скрипты и прочие сопутствующие языки, так вот РЕСУРС имеет большую посещаемость 150 тышь людей, я конечно понимаю что всё по большей части зависит отпровайдера, ширины канала, серверов даже скорости обмена данных винчестеров, КАКИЕ есть ещё нарикания помимо вышеописанного. Я конечно понимаю что каждый файл должен быть как можно меньше по весу в кб, но думаю есть ещё тонкости.
Вопрос состоит в том, "Как распределить нагрузку на серверы в случае крупного файлообменного сервиса?", так?
серверов будет 2 и один отдельный для БД НЕТ вопрос скорее про структуру файлов и написание кода почитал про кеширование, но вот вопрос кеширование - явление автоматическое? т.е. тупо кешируешь html и файл подкачивает САМ что только изменяется?
- nginx или CDN для выдачи статичных файлов - кеширование в оперативной памяти с помощью memcache - конечно же оптимизация диалоговых скриптов, SQL запросов и архитектуре БД, количества HTTP запросов, соответствующая конфигурация серверов