Фонд разработки программного обеспечения Apache Software Foundation, специализирующийся на создании ПО с открытым кодом, сегодня предложил пользователям сразу шесть новых топовых северных продуктов, ориентированных на высоконагруженные веб-сайты. Впервые фонд представил разработку Apache Traffic Server для интеллектуального кэширования северных данных, а также законченную версию продукта Apache Mahout, представляющего собой интеллектуальную серверную среду для развертывания поверх платформы распределенных вычислений Apache Hadoop. В Apache говорят, что впервые анонсируют шесть продуктов класса Top-Level, то есть критически важных продуктов, рекомендованных для внедрения в организациях различного масштаба. Проект Traffic Server представляет собой дальнейшее развитие ранее существовавшего коммерческого севера Yahoo. Эта разработка предназначена для обслуживания высоконагруженных сайтов, а также облачных отказоустойчивых систем. Предназначен Traffic Server в первую очередь для выдачи статического контента. Испытания показали, что эта разработка на современном оборудовании может обслуживать до 75 000 запросов ежесекундно. Решение Mahout является развитием ранее существовавшего в Apache субпроекта для работы с распределенными данными. Здесь есть масса готовых алгоритмов для фильтрации, кластеризации и обработки данных. Помимо прочего, Apache Software Foundation представил и другие продукты. В частности, речь идет о встраиваемом инструментарии для анализа и распространения контента Tika, модульном поисковом сервере Nutch, системе классификации разнородных данных Avro и распределенной базе данных HBase. Дата: 04.05.2010 http://www.xakep.ru/post/51982/
Ну там написано что на современном оборудовании. А что понимается под современным оборудованием - хз. Intel Atom то же современный процессор ) А вообще 75k в секунду - это не так уж и много если учесть что контент статический. Если сайт весь статический или в большинстве случаев статический, то можно просто загнать всё в оперативу (по мере возможности) и отдавать сразу от туда. Тем более что никаких заморочек не нужно делать. А парсить HTTP запрос на наличие домена и страницы. Темболее что на обычных домашних процах на одном ядре можно парсить такие запросы со скоростью больше ляма в секунду. Там главное канал.
2 nspire ты вообще понимаешь о чем пишешь? 1) Денвер - он не для серверов, а для вебразработчиков. 2) Денвер построен на Apache 2.2
Развитие всегда хорошо, но вот кому оно нужно кроме википедии, хз. - 75 000 запросов ежесекундно. Разве что против ддоса, статикой когда отбиваешь) Дык, каналы то какие у наших псевдо анлим хостеров.