Виктор Петров

Виктор Петров
Рейтинг
240
Регистрация
05.01.2020
Ребята, не стоит вскрывать эту тему
Дидос блокировками не остановить. С парсерами справитесь, не более. 
webinfo1 #:

В секунду, в час, в сутки? Сколько страниц на сайте? К каким адресам запросы? Без всего этого разговор беспредметен. 

Клево если речь о запросах шаблона. Их нечасто бывает меньше сотни 

Качать бренд намного выгоднее, чем хвататься за какие-то ключи и их хвосты в названии. Ну да, на первых порах по каким-то запросам по доменному имени можно что-то поднять - но чаще всего ненадолго. А вот компания без имени для ПС значит намного меньше той, у которой имя есть.
Если сам не чувствуешь, что "надо" - то не надо. Много раз пожалеешь.
И потом - что значит ссылочный бюджет отдавать на прокорм семьи? На сотню баксов никого не накормишь, так что ссылочные деньги можно не трогать.
Mik Foxi #:
в соц сетях нету и никогда небыло ссылок на большинство сайтов на которые идет бототраф.

Естессна. Но речь о том, что у ПС достаточно источников данных, чтобы понять, откель ноги растут в каждом конкретном случае.
Способны ли они обработать эту информацию и сделать какие-то внятные выводы - другое дело.
Выглядит так, будто не способны. Или не заинтересованы.

Xubart #:
Но "кладёт" он сайт, почему то очень быстро. Раньше такого не было. Мини ДДОС атака :)

О. Это повод пообщаться с хостером для начала. Если фрога достаточно чтобы его положить - то он и от поисковых ботов приляжет и отдаст пачку пятисотых в самый неподходящий момент.
Ну, и можно же парсер настроить, чтобы помягче данные тянул.
Сейчас 15-я версия актуальна, они туда воткнули, например, сравнение версий сайта - что было, что стало.

Solunsun #:
Это подтвержденный факт?
Сомневаюсь, что Яндекс не знает откуда и кто перешел (без метрики).

Учитывая, что поисковые боты постоянно пасутся в соцсетях и этот факт прекрасно используется для ускорения индексации нового контента и наверняка имеют доступ к внутренней стате соцсетей так или иначе - тут и вопросов нету. Кроме того, слышал я, что Яндекс ещё и выкупает данные сторонних сервисов, но эта информация фактами не подтверждена.

Xubart #:
А где там это делается? 

Configuration - Spider, вкладка Extraction, отметить галочкой Store HTML (внизу).
Потом Configuration - Content - Duplicates. Там отметить галочкой Enable Near Duplicates и задать степень похожести (по умолчанию стоит 90%). Я обычно выставляю 80%, но тут дело хозяйское.
Парсим.
После этого - Crawl Analysis. Ну, а дальше смотреть, что на что похоже и в какой степени. А, ну и я бы посоветовал в качестве User-Agent выбрать что-то осмысленное, типа Googlebot Smartphone. Иногда полезно разными UA посмотреть - бывают нюансы, особенно если речь об адаптивной вёрстке.

Кроме того, можно использовать сторонние сервисы - типа siteliner.com, но там бесплатно - только 200 страниц, остальное - за бабки. 

Screaming Frog Seo Spider.
Процент совпадения можно задать вручную. 
Vladimir SEO #:
зачем??? шли их подальше - на себя выгодней

Дык я уже оттуда и свалил. В студии было недурно, хорошая школа - примерно как врачом "Скорой" на крушении поезда. Но экономически невыгодно, и тащить будешь всех, кого взяли на продвижуху - даже если там без шансов и от проекта просто тошнит.

Всего: 4434