Смысл-то ссылками сейчас в индекс загонять? Через API или по обходу счётчика, а то и просто по старинке через "переобход".Пузиции наше всё
пойду разбираться, как смотреть сохраненку в кэшах гугла)
Там всё просто. В Яндексе примерно та же балалайка.
Спасибо, добрый человек! посмотрел. не знал на что особо смотреть, но кол-во контента, заголовки - все на месте с JS и без.
Полезно ещё сохраненку в кэшах ПС глянуть - что есть, а что нет, в разных режимах (html, только текст, исходный код). Бывает, что меню вываливаются, или какие-то блоки с шинглами.К слову, если парсить в режиме рендеринга JS - там внизу вкладочка есть, где можно сравнить в двух окошках рядом html до рендеринга и после. разница выводится цветом.Помимо именно контента полезно глянуть, не обновляются ли средствами JS метаданные и canonical. Тоже бывает, и тоже влияет на скачки по текстовым метрикам.
Так работают арендные как и работали в ГУГЛе.
Ничего не менялось.
Я про Яндых. Там вообще с ссылочным неладно последний год, я уж и подзабил.Выходит, надо опять тестировать.
Своя сетка - сильная вещь, но если говорить о бюджетах - хм. Ссылочное разок просчитали - сайтик подрос. Достаточно. Любые ссылки протухают через период - и пёс с ними, процесс выстраивания профиля бесконечен. А сетку поддерживать надо, и не факт, что ссылки с неё сохраняют свой вес и значение.Тут народ поговаривает, что арендные опять в деле в короткой перспективе. Я не пробовал, но верю тем, кто это озвучивал.
Это как? Непонятно, о чём речь.Вот у нас текст в HTML. Вот он же, но частично или полностью выводимый средствами JS. Откуда негативное влияние-то?ПС не может в полной мере оценить контент без рендеринга JS. Ясн-понятн, что если JS выводит мусор и всякое зло - после рендеринга будет только хуже.Но таки не надо зло всякое выводить ни средствами HTML, ни через JS.
Спасибо за ответ! Я снова с глупыми вопросами:1. Как закинуть в лягушку только 1 страницу, чтобы не парсило весь сайт?2. И собственно, как отключить JS? В configuration/spider/crawl...убрать чекбоксы crawl и store?!
Mode - List, и в Upload задать нужный URL хоть через Paste. Спарсит заданный URL с необходимыми ресурсами (css, js, картинки и т.п.), не более.Чтобы не рендерило JS достаточно в настройках Spider выбрать Rendering - Text Only.
Ребят, совсем новичок. Подскажите, если текст подгружается Яваскриптом:1. Как определить видит ли его гуглбот?
2. Оказывает ли этот текст влияние на текстовое ранжирование?
Берешь Screaming Frog SEO Spider, и парсишь страничку с рендерингом JS. Смотришь на разницу - в сыром HTML и в рендеренном. И прикидываешь, что выпадает из текста.Факт, что при повторном сканировании и рендеринге текст может быть прочтён и учтён - и страничка резко поменяет позиции (вверх или вниз). Но не факт, что робот не закинет её в мусор после первого прохода - и наглушняк. да и второй визит с рендерингом может случиться эдак через полгодика, например.
А как тогда поисковые системы говорят - стремитесь получать естественные ссылки и они буду благотворно влиять?
Мне сложно представить, как пользователи буду ставить ссылки с полезными для сайта анкорами.
Нуу, естественные ссылки могут быть анкорными - если юзверь достаточно грамотно их ставит. Хотя ждать такого бессмысленно. Анкоры используются не только как часть ссылочного графа, но и как текстовая метрика - просто ключики эти на внешних источниках. Для семантических связей важен и окружающий ссылку текст, и сама ссылающаяся страница. Для примера: если страница про Менделеева ссылается на страницу про водку - там всё понятно. Но с продажных сайтов увязать по смыслу несвязуемое - уже проблема. И вот тут начинаются фокусы с ключами.
Спасибо, понятно. А можно как-то поменять эту настройку?
Это не настройка. Просто нужно периодически обновлять семантическое ядро с актуальной кластеризацией (и логику включать). Ну например запрос "купить письменный стол недорого" у вас жёстко был частью общего кластера "письменные столы" - и вот благодаря изменениям спроса или бурной деятельности конкурентов он выпадает из кластера и образует новый, свой, куда входят "дешевые письменные столы", "недорогие", "до 3 тысяч" и т.п. То есть нужно делать новую посадочную страницу под эти ключи с соответствующим ассортиментом.Семантику хорошо бы проверять и обновлять хотя бы раз в полгода. Ну, или если начинаются биения по позициям некоторых ключей.Если тематика вообще низкочастотная - тем более, там всё сложнее. Просто потому, что у нейросети мало данных, и результатами в какой-то мере можно управлять искусственно.