bulatbulat48

Рейтинг
94
Регистрация
27.04.2012
subs:
Бред, однозначно не минусинск ☝, как раз таки минусинск режет все и сразу и поддомены.

был уже срез -19

motoman:
McArt, а чем снимаете позиции?

---------- Добавлено 06.07.2015 в 17:01 ----------


Какое-то слишком сильное падение, не похоже на минусинск из прошлых примеров. Минус 10-20 запросов должно было быть при минусинске, а тут действительно похоже на фильтр аффилиатов. Второй сайт в выдачу попал?

нет аффилиатов, это минусинск часть 2. Мск и МО не тронуло, только часть городов.

McArt:
Последовательность событий: Минусинск. Частичное снятие ссылок.

В принципе есть еще одна возможность за которую могли получить пессимизацию (появилась копия сайта в другой страновой зоне, СНГ, быстробот немного скушал, индекса вроде нет, но не уверен что вообще есть влияние, может кто что подскажет? спасибо), но пока картинка такая.

это от минусинска - аналогично..

alaev:
Увы, многие потом улетели еще ниже: -100 позиций.

подтверждаю, сайт со второй волны в регионах улетел еще за минус 100.

SSBobrovnikov:
Во первых - у мну совесть не позволяет тратить на развлекуху деньги с основного дохода, во вторых я в Казахстане живу. У нас другие цены. Помните 16 декабря прошлого года - когда на наш гос праздник во всех российских магазинах сделали скидки 50% на все так любимые казахами Камри и Крузаки? То то.. Особенно, если учесть наши бешеные цены на машины, и копеечные ваши...

Нет у Яшки никаких алгоритмов, кроме понтов, иначе, давно уже и мои, и кентов проекты давно под их понты попали, так как двигаются против всяких Яшкиных правил... И вообще - Яндекс=понты. Не вижу смысла вообще на него молиться... Сайты должны свою аудиторию собирать, а не на поиск молится...
УГУ Бигпикча мать её.... Сколько там трафа с Яшки? Угу - хрен да маленько... Как Бигпикча к Яшке относится? Угу - никак - полностью противоречит - и ссылки и копипаст... Угу, да, Яшка не рулит при обстоятельствах...

В Казахстане бОльшую часть трафика генерирует Google, как и во многих странах СНГ, в России - Яндекс. У Яндекса имеются очень хорошие сервисы, заточенные под Россию. Да и в целом многим он очень нравится - не нравится политика некоторых необдуманных действий, которые решаются общением с вебмастерами.

Navsikaya:
Почему эта директива разрешает сканировать другие разделы?

User-Agent: Googlebot (Правило для Google)

Allow: /upload/iblock (открыть данный раздел)

других правил для Google нет, значит сканирует все что хочет.

---------- Добавлено 03.07.2015 в 21:57 ----------

MadHatter77:
Доброго времени суток.

Сайт на WP. На сайте есть рубрики. Часть рубрик многостраничная.
Первая страница рубрики имеет адрес такого вида:
http://имя-сайта.ru/category/имя-рубрики
последующие страницы имеют вид
http://имя-сайта.ru/category/имя-рубрики/page/1
http://имя-сайта.ru/category/имя-рубрики/page/2 и.т.д.

Хочу закрыть через роботс от индексации все последующие страницы всех рубрик кроме первой страницы. Подскажите пожалуйста, как это правильно сделать? Не очень понимаю, надо ли использовать модификатор $ в данном случае

Disallow: category/*/page*
или
Disallow: category/*$/page*

Заранее благодарю

не корректные директивы:

Disallow: category/*/page*

Disallow: category/*$/page*

1) на $ можно только заканчивать)

2) директива начинается на * или /

3) если правильно понял, нужно такое:

Disallow: /category/rubrika/

allow: /category/rubrika/$

/category/rubrika/page/1 - запрещен

/category/rubrika/ - разрешен

да в целом яндекс наступил на грабли, с брендовыми то решить не может уже месяц.. а как с ссылочным и дорвеями будет решать? если сейчас все качественные сайты снимают ссылки, а некачественные будут наращивать.. посмотрим что будет..

Navsikaya:
Добрый день,

robots.txt выглядит так:

User-Agent: *
Disallow: /bitrix/
Disallow: /cgi-bin/
Disallow: /inc/
Disallow: /include/
Disallow: /personal/
Disallow: /registration/
Disallow: /search/
Disallow: /upload/
Disallow: /verstka/
Disallow: /*?action=
Disallow: /*?FILTER_TYPE=
Disallow: /*?SECTION_CODE=
Disallow: /articles/
Sitemap: http://site.ru/sitemap.xml
Host: www.site.ru

User-Agent: Googlebot
Allow: /upload/iblock

User-Agent: Googlebot-Image
Allow: /upload/iblock

Яндекс (проверка через Вебмастер) правильно отображает, что страница /articles/, например, или любая другая, запрещена. Гугл же (проверка также через Вебмастер Гугла) утверждает, что страница доступна:
chrome-extension://jhcdlkgjiehgpnpolkbnmpffjodigbkb/editor.html
И также со всеми остальными страницами, например /search/, /include/ и так далее.

Подскажите, пожалуйста, где ошибка в файле robots, почему Гугл отвечает, что страницы доступны?
Заранее спасибо.

Вы же ему говорите сканировать:

User-Agent: Googlebot

Allow: /upload/iblock

Mr James:
Какого результата можно ожидать от этого?

указанный домен влияет на регион, поставьте на 1 субдомене и проверите.

Вообще Вам бы из беты вебмастера нового глянуть сайт, там с регионами гораздо все понятнее.

можно попробовать прописать 2 сайта(поддомен и домен) на 1 представительство, через справочник.

Всего: 780