Я думаю, ни хрена себе подвалило....надо повнимательней посмотреть на эту чачу!
Но я ведь не могу каталог по частям выдавать?
У меня идет структура Город-недвижимость-коммерческая-магазин и т.д., т.е. я не могу закрывать уровни от индексации....могу только города закрывать отдельные....
так и поступать чтоли? позакрывать от индекса города второстепенные...а потом скармливать....
Я страницы называю страницами, а урлы урлами. :)
В общем-то страницы могут меняться, а урлы остаются и это нормально. И кстати наоборот, урлы меняются, а страницы остаются. Это хуже, но редирект помогает.
Просто он вышел на следующий уровень, а мы остались на прежнем.
В общем-то можно было ответить так: старые урлы с одного старого тематического ресурса. :)
тематика сайта не меняется - производится расширение.
старые урлы, речь не о ссылках, а о части существующих урлов, которым не потребуется переиндексация.---------- Добавлено 02.08.2016 в 17:24 ----------
Я смотрю Вас тоже озарило!😂
ну он не новый, он обновленный на старом домене, с 3000 старыми урлами, но да 47000 новых.
Частями лучше потому что ПС не будут понимать, что их ждет дальше?
Стратегически надо развивать свой магазин. Тактически, если это удобно и выгодно можно пользоваться агрегаторами.
Но это как наркотик. На каком-то этапе на наркотики не хватит денег, и ты станешь мусором.
И никто не пошевелит пальцем, чтобы тебе помочь!
Было бы интересно, что скажут опытные бойцы, по поводу того, как входят в индекс такие страницы, в Яше и Гоше, как сидят в индексе, и дают ли трафик?
А если я сайт сделал на 50 к страниц, мне его что, в индекс частями выдавать?
Был сайт на 7К страниц (посещаемость порядка 700 пользователей), немного расшил дерево категорий с перекройкой урлов, сделал структуру сайта аналогичной фильтру. На каждое положение фильтра своя страница. На странице отфильтрованные товары.
Ну и судя по ответу все эти пукты - великая тайна!---------- Добавлено 02.08.2016 в 10:26 ----------вот пример простенького технического аудита:
Проверить индексацию сайта в Яндексе и Google. Если количество документов в индексах различается в 2 и более раза, то выяснить причины (где-то есть ошибки).
Настроить файл robots.txt, проверить его валидность через: http://webmaster.yandex.ru/robots.xml
Для Яндекса основной хост прописать в robots.txt
Серверные логи, страницы для печати, дубли страниц, админ. панель и поддомены с тестовой версией сайта закрыты от индексации
Найти все битые ссылки и удалить (исправить) их
Проверить и настроить все коды ответа сервера
Выбрать основное зеркало (с www или без)
Проверить, что несуществующие страницы выдают 404 ошибку
Настроить нормальное отображение 404 страницы для пользователя (не белый экран смерти)
Проверить, что движок сайта не генерирует сессионных переменных в адресе страниц
Найти все дубликаты страниц и удалить их (или закрыть от индексации)
Проверить, что главная страница не доступна по адресу /index.php или /index.html
Старые адреса редиректят посетителей на новые страницы
Используется rel=canonical
На страницах прописана соответствующая кодировка
Настроить ЧПУ для URL сайта
Проверить, что отсутствуют фреймы
Используемый флеш не содержит важный для индексации контент
Отрисовать и разместить в корне сайта файл favicon.ico
Убедиться, что скорость загрузки страницы не превышает 3-5 секунд
Проверить, чтобы использовался надежный хостинг!
Проверить, чтобы размер html-кода не превышал 100-200 килобайт
Проверить, чтобы пользователи и роботы видели одинаковый контент
Зарегистрировать сайт в панели для вебмастеров Яндекс и Google
Корректно настроен Last-Modified
Сервер отдает 304 если страница не изменялась (If-Modified-Since)