- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Что имею:
1. Два сайта
2. Уникальный шаблон
3. Уникальные тексты
4. Ссылки вида: сайт.ру/категория/подгатегория/пост.хтмл
На страницах категорий и подкаткгорий текста нет
Проблема в том, что гугл практически не индексирует страницы!
На сайте всего 800 страниц для индексации. Из них 200 - рубрики и подрубрики
Так вот, в индексе гугла примерно 280 страниц, причём большая часть из них рубрики без текста
И это на двух сайтах! Схожей тематики но абсолютно разными текстами (в том числе объём разный) и шаблонами. Тайтлы страниц тоже разные.
Что за ерунда творится? Раньше помню такой треш в индекс за пару часов влетал..
Уже давно такое, тут вот в чем может быть причина. Гугл не сканирует (повторно), страницы сайта, если получает ответ от вашего сервака что ничего не поменялось на вашихстраницах. Типа, если ничего не поменялось, то и нефиг её сканировать.
Смотрите логи сервера и какие коды отдает он отдает гуглу. У меня было именно так.
Имеется ввиду не переиндексация новых страниц
Он вообще не индексирует
Гугл ввел краулинговый бюджет /ru/news/39839
Имеется ввиду не переиндексация новых страниц
Он вообще не индексирует
Могу спалить целых 2 варианта, которые пока хоть как-то ускоряют индексацию. Все-равно никто не поверит 😂
============
1. В Google Webmasters в настройках сайта выставляете вручную "Ограничить максимальную скорость сканирования Google" на максимум. Когда кликните, вы увидите, на каком уровне он сейчас для гугла автоматически стоит. Через какое-то время (10-30 мин) добавляете какую-то страницу вручную на индексацию. После этого Google начинает индексировать, и что самое главное, добавлять в индекс по 400-500 страниц в сутки (если сайт более-менее нормальный). Ну, это хоть что-то. Также, если сайт на тысячи страниц, то не добавляйте сразу sitemap.xml. Он видит, что страниц тысячи, и вяло индексирует.
Тут я уже рассказывал /ru/forum/comment/14939181
============
2. Напишите XML-RPC пингатор и пингуйте страницы, которые надо проиндексировать на адрес http://blogsearch.google.com/ping/RPC2. На каждый ping-запрос на сайт приходит googlebot.
Но, тут есть нюанс, он штук 500 страниц добавит в индекс, а потом прекратит. Бот будет заходить, а в индекс не добавлять. Тогда, можно по 100 страниц в день пинговать с разных ip. Но, если уже остановилось добавление в индекс, то все - он не будет больше реагировать.
В таком случае, находите какой-то авторитетный сайт, на котором не закрыты и индексируются редиректы на внешние сайты. Тоесть, по команде site:чужой-домен.com/redirect.php?url=www. видно, что эти редиректы гугл индексирует на том сайте.
Берете, дописываете к редиректу свою страницу и пингуете полный адрес редиректа. Если сайт авторитетный, то ваши страницы сразу залетают в индекс. Но, ограниченное число раз с пингующего ip.
Чередуете такие домены с редиректами и свои ip. Пингуете примерно по 50-100 ссылок с одного ip.
Ну, и наблюдаете результат. Где-то будет, где-то нет. У меня на дорвеях результат есть.
2.1 Как разновидность этого пинга - еще можно пинговать страницы чужих сайтов, которые имеют вот такое http://www.garten-eigenzell.de/link.php?link=vash-domain.com/1/page.html
Также, к обоим методам желательно, чтобы ваш сайт отдавал заголовок Last-Modified: с сегодняшней датой.
Всем удачи. Дерзайте. Потом скажете, помогло или нет :)
Проверял первый вариант на своем сайте. Был кратковременный всплеск, отмеченный на приатаченном файле, но потом все свались в прежним значениям, хотя каждый день добавлялся новый контент и новые страницы в индекс
https://1drv.ms/i/s!AvbIpWvz8iBzifBrLfuc7QOeFWEptw
Проверял первый вариант на своем сайте. Был кратковременный всплеск, отмеченный на приатаченном файле, но потом все свались в прежним значениям, хотя каждый день добавлялся новый контент и новые страницы в индекс
https://1drv.ms/i/s!AvbIpWvz8iBzifBrLfuc7QOeFWEptw
Разве это всплеск? Всплеск это от 0 до 1000. Эта проблема актуальна для новых сайтов, которые вообще не индексируются - за месяц 300 страниц, если ничего не делать. А если на сайте 10 летней давности что-то всплескнулось, то это не чудо, так и должно быть :)
Если это тот сайт, что я видел, то ему без разницы - без дэоптимизации трафика не будет. Он по-ходу, под фильтром серьезным с 2013 года, судя по semrush. Googlebot ходит даже на забаненные сайты, если что )) Если тупо сменить домен, и залить на него тот сайт - будет больше толк :)
По-моему, краулер здесь не при чем. Сколько времени прошло с момента публикации страниц?