Собрать sitemap из результатов seo фильтра?

Discussion in 'PHP' started by PbIBA, 16 May 2018.

  1. PbIBA

    PbIBA New Member

    Joined:
    20 Apr 2018
    Messages:
    5
    Likes Received:
    1
    Reputations:
    0
    Всем привет, была задача. Есть сайт, на сайте есть умный фильтр, этот фильтр при фильтрации выдает результаты. Необходимо в sitemap.xml добавить ссылки всех возможных вариантов фильтра. Важно что бы те ссылки у которых нету товаров (а такие страницы выдают 404 ошибку) не попадали в sitemap. Как реализовать проверку ссылок? Мне на ум пришло get_header , получать статус , если 404 то выкидывать. Но комбинаций фильтра около 170 000 вариантов, все их проверить сложно, делать выгрузку по шагам не в кайф, времени много будет занимать. Как сделать так, что бы в sitemap попадали только те страницы, где есть товар, и не попадали те, где ошибка 404.
     
  2. FriLL

    FriLL Member

    Joined:
    14 Sep 2008
    Messages:
    90
    Likes Received:
    24
    Reputations:
    8
    Может вы сайт покажете? думаю так всем попроще будет
     
  3. Jerri

    Jerri Elder - Старейшина

    Joined:
    12 Jul 2009
    Messages:
    136
    Likes Received:
    377
    Reputations:
    22
    Я бы работал напрямую с бд.
    Так же, возможно, эти 170к вариаций можно сократить. Допустим, если нет товаров в подкатегории Х, то нет смысл проверять, если ли в этой подкатегории товары по цвету/размеру/модели/etc (какие там фильтры не знаю, просто предложил).
    Возможно есть смысл работать с бэкапом бд на локалхосте(смотря как часто надо обновлять карту сайта), просто чтобы не грузить сервер лишними запросами.
     
  4. PbIBA

    PbIBA New Member

    Joined:
    20 Apr 2018
    Messages:
    5
    Likes Received:
    1
    Reputations:
    0
    Спасибо огромное что уделили время и ответили.
     
  5. Dedushka Mazaj

    Dedushka Mazaj New Member

    Joined:
    30 Mar 2018
    Messages:
    9
    Likes Received:
    1
    Reputations:
    0
    Я когда-то делал в своем интернет магазине такую фичу, но залетел под фильтр из-за спама, дублей и т.д.
    Нужно крайне аккуратно это проворачивать.
     
  6. PbIBA

    PbIBA New Member

    Joined:
    20 Apr 2018
    Messages:
    5
    Likes Received:
    1
    Reputations:
    0
    Да, я тоже переживаю по этому поводу. Вас вывели из под фильтра ? А вы можете рассказать что там еще было кроме дублей ? Ведь по сути дубли сам поисковик должен исключать. на что еще ругался поисковик? и кстати, какой именно поисковик ?
     
  7. Dedushka Mazaj

    Dedushka Mazaj New Member

    Joined:
    30 Mar 2018
    Messages:
    9
    Likes Received:
    1
    Reputations:
    0
    Нам не удалось сделать так, что бы значения фильтра подтягивались к тайтлу самого товара, то есть:
    Ноутбук Lenovo ideapad 510 - такой тайтл был изначальный.
    Хотели добиться, что бы к тайтлу подставлялись значения с фильра: Бренд, цвет, расширения экрана, процессор, что бы в итоге получился такой тайтл:
    Ноутбук Lenovo ideapad 510 - Lenovo, серый, черный, белый, 15.6, 17.0, intel core i5, intelcore i7 купить в интернет-магазине бла бла

    В итоге у нас получилось, что каждое значения фильтра это отдельный тайтл, что привело к масовым дублям, к примеру в одном товаре 20 атрибутов фильтра в итоге так и получилось что 19 дублей и гугл это все пустил под спам и наложил фильтр.


    С под фильтра удалось вытащить, но спустя месяц или два, трафик просел категорически, продажи упали на нет, только контекст.

    Изначально хотели сделать так, как на розетке))
     
  8. Dedushka Mazaj

    Dedushka Mazaj New Member

    Joined:
    30 Mar 2018
    Messages:
    9
    Likes Received:
    1
    Reputations:
    0
    Это идея хорошая, но нужно толково сеошнику составить ТЗ и проработать с роботсом.txt
     
  9. PbIBA

    PbIBA New Member

    Joined:
    20 Apr 2018
    Messages:
    5
    Likes Received:
    1
    Reputations:
    0
    Ну благо у меня такой проблемы сейчас нет! Да идея крутая, главное реализовать, я сам в сео хорошо понимаю, ТЗ хорошее поставил. Сейчас вроде удалось собрать sitemap. Правда до этого программисты по ошибке добавили кучу мусора туда, и яндекс уже это съел (((( и проиндексировал, но сейчас из уже исключает. Но тем не менее, надеюсь вырулить ситуацию.