Виктор Петров

Виктор Петров
Рейтинг
240
Регистрация
05.01.2020
Ребята, не стоит вскрывать эту тему
BooblikBBW #:
И я не заметил ухудшения или занижения позиции (ВЧ) в выдаче Яши и Гоши, по нужным ключам в ТОП 1-3

И немудрено. Тут скорее вопрос валидности html, чем какая-то суперважность h1 как текстовой зоны для ранжирования. А на валидность ПС всегда плевали.
Те же гуглоиды отмечали, что гуглобот за заголовок принимает тот заголовок, который написан самым большим шрифтом, без ориентации на конкретный тег. Правда или очередной бред из лысой головы Мюллера - не знаю, не тестировал. Но логика тут есть.

Иван34 #:
Ну представьте, что уже сто раз скопировано-перекопировано с зарубежных источников, так что  придется потрудится, чтобы найти уник  перевод для своего сайта. 

Не надо искать уник, надо брать структуру и факты. Тут уже вопрос профессиональных навыков райтера/переводчика. Он должен понять тему и изложить её в соответствии с заданной структурой.
Для самых простых задач достаточно просто толкового перевода, не следующего оригиналу слово в слово - скажем, для размещения "вечных" ссылок на биржевых сайтах такого достаточно. Для серьёзных задач - ну, возьмите 2-3 текста, скомпилируйте и отредактируйте по уму. Это намного дешевле, чем обращаться к хорошему райтеру с прайсом 2-10 тысяч, и куда как лучше, чем работа писарей с "адвеги" за 30 рублей тыща знаков.

avangard #:
Вопрос в другом, что SEO гуру по яндексу в аудите/консультациях вообще ничего не сказал про ПФ, как новый фактор.

А там политика такая со времен Першиной как минимум. "Делайте сайт лучше, я сама хз, что это значит". 
И они ведь реально не знают. Говорящие головы ссылаются на матрикснет (он такой таинственный), другие - просто школота, которая пришла на пару кварталов для портфолио. Ну, и люди, которые рулят ручной формулой, а это могут быть яндексоиды из обеих этих категорий.

Тупо для примера. Два сайта, одна тематика. Красненьким помечена зона, когда всё продвижение свели к накруткам. первый скрин - показы.

Второй - скрин - запросы в топ. Несмотря на рост видимости, в позициях - стагнация. Оранжевый умудряется что-то продавать на лояльных клиентах и униках в ассортименте, конверсии синенького - околонулевые.

Вот и всё, что нужно знать о среднестатистических накрутках ПФ, их влиянии на продвижение и главенстве в Яндексе.

avangard #:
Я пардон скажу больше. Когда уже вовсю основным фактором стал ПФ, некоторые СЕО гуру, на которых тут ссылаются в своих аудитах/консультациях про это молчали. сколько денег то заказчиками было выброшено в пустую. Вы это тоже учитывайте.

ПФ как главный фактор ранжирования - тоже миф. Да, почти любой ресурс можно размотать до топов из ниоткуда за недели, дни и даже часы. Вопрос объёмов трафика и технологии. Но куда потом девается такой сайт? Они не живут долго, если топы получены только накрутками. Пара месяцев, квартал - и досвидос.
При этом даже в периоды, когда не крутил только безрукий, можно было обойтись и без манипуляций с ПФ, и поставить сайт в топы только за счёт текстовых и ссылочного.

Legioner-24 #:
Вы не поняли. Дело не в цене домена. Домен стоит 600 рублей. А дело вот в чем. Если домен под фильтром и я его куплю. То начну его развивать. Потрачу денег на копирайтеров, куплю ссылки на Гогетлинкс. Пройдет полгода, а результата нет, домен глубоко в поиске, а все потому, что он от прошлых хозяев под фильтром.

До вливания денег можно просто поднять контент из вебархива и посмотреть, как дёрнется.
Разговоры про "карму" домена - это обычно уже из области мистики. Ссылочные фильтры я бы сразу отбросил, ПФ - ну, год-то прошёл? Все остальные фильтры - редкость и архаика.

Если стоимость домена невысока - можно и рискнуть. Восстановите на нём контент, посмотрите, как пойдёт в выдаче. Дальше - решать.
По факту хороших дропов с нормальной кармой в рунете много, бизнесок разорился - или просто сайт слили, что часто бывает. Ссылочного там может и вовсе не быть - просто имя красивое, что уже немало.
Denechka #:
Сейчас Вы утверждаете, что лимит сканирования - это несколько устаревший термин с безрамерной величиной, хотя ещё в 9:30 утверждали (цитирую) - "Среднее количество просканированных страниц - это и есть условный лимит сканирования. ".

Времена меняются. То, что бот зашёл на сайт - ещё не значит, что он будет парсить контент. Или весь контент, а не один какой-то важный (для него) абзац или другой фрагмент. Мы этого не знаем, и всё, что у нас есть - это а) данные консоли; б) логи. То есть количество урлов, страницы в индексе в сопоставлении с тем, что там должно быть, плюс какая-то динамика по сканированию конкретных папок.

В консоли фиксируются только странички, там не понять, что бот старательно перебирал js и прочие служебные файлы. А это - тоже часть лимита.
Стало быть, говорить исключительно о лимите сканирования - не совсем корректно. Но других терминов пока нет.

Badmaestro #:
Тут не стоит забывать, что общий спектр работ бывает, что выстреливает спустя очень большой период времени. И многие ошибочно присваивают эффект какому-то действию, которое было сделано неделю назад, забыв про действия, сделанные год назад. А ведь именно засчет них рост и происходит)

Так. Но соцсети, реклама и т.п. - вполне себе способ обратить внимание ПС на сайт. Что толку от работ, если гуглобот скажем, заходит раз в месяц, смотрит что-то своё и сваливает, а изменений не видит?
Я тут по паре проектов столкнулся с проблемой просто обновить через консоль robots.txt. Сутки у него на это уходят - тупо спарсить один текстовый файлик. По стандартной схеме, вручную.

Хорошо, давайте уточним и обобщим.
Лимит сканирования (он же - краулинговый бюджет) - это несколько устаревший термин, обозначающий сейчас скорее объём вычислительных ресурсов, выделяемых нейросетью гугла для сканирования сайта в прямой связи с его техническим состоянием, ценностью для пользователей с точки зрения нейросети, цитируемостью и т.д. и т.п.
Точных цифр тут быть не может, вы можете лишь опираться на некие усредненные показатели, а в качестве необходимого инструмента прибегать к инсайтам. Всё, что у вас есть - это данные Google Search Console, Google Analytics и данные логов по визитам гуглоботов.
Из этого жиденького набора вы можете извлечь какие-то выводы и построить какие-то гипотезы, способные помочь улучшить сканирование сайта и перераспределить цели этих визитов. Вот у вас данные по визитам из панели вебмастера, вот данные из логов по целевым URL, среди которых могут доминировать папки шаблона, давно несуществующие URL (например, после переноса сайта пару лет назад), либо нецелевые URL, получающие статус важных в глазах гуглобота на основе пользовательских сигналов.
Всё остальное - вилами по воде. Для примера: по утверждениям Мюллера, гуглобот может ждать отклика сервера 2 минуты (при рекомендуемой норме - 0,2-0,5с). Будет ли он ждать столько в реале? - Другой вопрос. То же самое с редиректами. насколько я помню, 10 считается допустимой нормой. Однако на практике гуглобот вполне себе прекращает переходы где-нибудь на пятом переходе.
Вся градация реально укладывается в "хорошо обходит - плохо обходит". Разброс 3-10 позволяет работать с этой градацией чуть тоньше, не более того.
Знаете подход получше - поделитесь, с удовольствием почитаю.
Всего: 4434