Виктор Петров

Виктор Петров
Рейтинг
240
Регистрация
05.01.2020
Ребята, не стоит вскрывать эту тему
Vladimir #:
Ссылки вначале влияют на индексирование новых страниц,  и на быстрое добавление в поиск ( 5 - 7 минут)
Или Яндекс быстрее начал работать?))))

Смысл-то ссылками сейчас в индекс загонять? Через API или по обходу счётчика, а то и просто по старинке через "переобход".
Пузиции наше всё

vip-grinders #:

пойду разбираться, как смотреть сохраненку в кэшах гугла)

Там всё просто. В Яндексе примерно та же балалайка.



vip-grinders #:

Спасибо, добрый человек! 

посмотрел. не знал на что особо смотреть, но кол-во контента, заголовки - все на месте с JS и без. 

Полезно ещё сохраненку в кэшах ПС глянуть - что есть, а что нет, в разных режимах (html, только текст, исходный код). Бывает, что меню вываливаются, или какие-то блоки с шинглами.
К слову, если парсить в режиме рендеринга JS - там внизу вкладочка есть, где можно сравнить в двух окошках рядом html до рендеринга и после. разница выводится цветом.
Помимо именно контента полезно глянуть, не обновляются ли средствами JS метаданные и canonical. Тоже бывает, и тоже влияет на скачки по текстовым метрикам.

SeoTurkmen #:

Так работают арендные как и работали в ГУГЛе.

Ничего не менялось.

Я про Яндых. Там вообще с ссылочным неладно последний год, я уж и подзабил.
Выходит, надо опять тестировать.

Cuys #:
Свою сетку надо подготавливать формата 12.0 - тогда и отпадет тема в закупках всех этих не нужных вечных ссылок со сливом бюджета. 

Своя сетка - сильная вещь, но если говорить о бюджетах - хм. Ссылочное разок просчитали - сайтик подрос. Достаточно. Любые ссылки протухают через период - и пёс с ними, процесс выстраивания профиля бесконечен. А сетку поддерживать надо, и не факт, что ссылки с неё сохраняют свой вес и значение.
Тут народ поговаривает, что арендные опять в деле в короткой перспективе. Я не пробовал, но верю тем, кто это озвучивал.

Cuys #:
Негативно влияет на ранжирование - вот и весь ответ. Иногда бывают всплески по трафику только из-за того что алгоритмы подкручивают что Яши что Гугл - какое-то время начинают учитывать контент и общую структуру блоков - но затем делается откат и трафф опять проваливается.

Это как? Непонятно, о чём речь.
Вот у нас текст в HTML. Вот он же, но частично или полностью выводимый средствами JS. Откуда негативное влияние-то?
ПС не может в полной мере оценить контент без рендеринга JS. Ясн-понятн, что если JS выводит мусор и всякое зло - после рендеринга будет только хуже.
Но таки не надо зло всякое выводить ни средствами HTML, ни через JS.

vip-grinders #:


Спасибо за ответ! 

Я снова с глупыми вопросами:

1. Как закинуть в лягушку только 1 страницу, чтобы не парсило весь сайт?
2. И собственно, как отключить JS? В configuration/spider/crawl...убрать чекбоксы crawl и store?!

Mode - List, и в Upload задать нужный URL хоть через Paste. Спарсит заданный URL с необходимыми ресурсами (css, js, картинки и т.п.), не более.
Чтобы не рендерило JS достаточно в настройках Spider выбрать Rendering - Text Only.

vip-grinders :

Ребят, совсем новичок. Подскажите, если текст подгружается Яваскриптом:
1. Как определить видит ли его гуглбот?

2. Оказывает ли этот текст влияние на текстовое ранжирование?

Берешь Screaming Frog SEO Spider, и парсишь страничку с рендерингом JS. Смотришь на разницу - в сыром HTML и в рендеренном. И прикидываешь, что выпадает из текста.
Факт, что при повторном сканировании и рендеринге текст может быть прочтён и учтён - и страничка резко поменяет позиции (вверх или вниз). Но не факт, что робот не закинет её в мусор после первого прохода - и наглушняк. да и второй визит с рендерингом может случиться эдак через полгодика, например.

races83 #:

А как тогда поисковые системы говорят - стремитесь получать естественные ссылки и они буду благотворно влиять?

Мне сложно представить, как пользователи буду ставить ссылки с полезными для сайта анкорами.

Нуу, естественные ссылки могут быть анкорными - если юзверь достаточно грамотно их ставит. Хотя ждать такого бессмысленно. Анкоры используются не только как часть ссылочного графа, но и как текстовая метрика - просто ключики эти на внешних источниках. 
Для семантических связей важен и окружающий ссылку текст, и сама ссылающаяся страница. Для примера: если страница про Менделеева ссылается на страницу про водку - там всё понятно. Но с продажных сайтов увязать по смыслу несвязуемое - уже проблема. И вот тут начинаются фокусы с ключами.

races83 #:

Спасибо, понятно. А можно как-то поменять эту настройку? 

Это не настройка. Просто нужно периодически обновлять семантическое ядро с актуальной кластеризацией (и логику включать). Ну например запрос "купить письменный стол недорого" у вас жёстко был частью общего кластера "письменные столы" - и вот благодаря изменениям спроса или бурной деятельности конкурентов он выпадает из кластера и образует новый, свой, куда входят "дешевые письменные столы", "недорогие", "до 3 тысяч" и т.п. То есть нужно делать новую посадочную страницу под эти ключи с соответствующим ассортиментом.
Семантику хорошо бы проверять и обновлять хотя бы раз в полгода. Ну, или если начинаются биения по позициям некоторых ключей.
Если тематика вообще низкочастотная - тем более, там всё сложнее. Просто потому, что у нейросети мало данных, и результатами в какой-то мере можно управлять искусственно.

Всего: 4434