1 рубль за страницу вроде не сильно дорого. Давеча так в гугл отправили 2000 страниц сайта подшипниковой продукции.
ну когда 2000 страниц, то можно и за 1 рубль. а когда сотни тысяч...
Сгенерированный через контент машин
Кому тогда доверять?
Консоль показывает, что урл в индексе. Вбиваю урл site.com/category/page/ в строку поиска Гугла - нет в индексе, добавляю site:site.com/category/page/ нет в индексе. Но коллега открывает с другого компа и другого гео - есть в индексе :) У другого коллеги - нет в индексе.
А страницы продолжают вылетать)*По сайтмапу - всем спасибо!
Получили ручные меры в консоли ?
Нее, просто решили поотклонять что-то плохое, давно этим не занимался, всё забыл.
Справку читал. Указывают без этих всех http, https и www, но может просто забыли упомянуть про это)
первое было, а теперь страницы нет
второе вообще не было таких страниц
Полезно ещё сохраненку в кэшах ПС глянуть - что есть, а что нет, в разных режимах (html, только текст, исходный код). Бывает, что меню вываливаются, или какие-то блоки с шинглами.К слову, если парсить в режиме рендеринга JS - там внизу вкладочка есть, где можно сравнить в двух окошках рядом html до рендеринга и после. разница выводится цветом.Помимо именно контента полезно глянуть, не обновляются ли средствами JS метаданные и canonical. Тоже бывает, и тоже влияет на скачки по текстовым метрикам.
ох, и за это спасибо!пойду разбираться, как смотреть сохраненку в кэшах гугла)
Mode - List, и в Upload задать нужный URL хоть через Paste. Спарсит заданный URL с необходимыми ресурсами (css, js, картинки и т.п.), не более.Чтобы не рендерило JS достаточно в настройках Spider выбрать Rendering - Text Only.
Спасибо, добрый человек! посмотрел. не знал на что особо смотреть, но кол-во контента, заголовки - все на месте с JS и без.
Уже давно всё протестировано и опробовано - иногда даже слежу за своими сайтами на Java написанные лет 7-8 назад в виде эксперимента.
Негативно влияет на ранжирование - вот и весь ответ. Иногда бывают всплески по трафику только из-за того что алгоритмы подкручивают что Яши что Гугл - какое-то время начинают учитывать контент и общую структуру блоков - но затем делается откат и трафф опять проваливается.
В общем не рабочая схема это для СЕО - для красотуличек может быть - но это было раньше когда народ ещё туповатый был и жал куда интересно - сейчас схема такая уже не работает.
Ты уверен, что это именно текст в JS влияет негативно?