Dombrov

Dombrov
Рейтинг
53
Регистрация
04.03.2010
jit:
А если меры ЕСТЬ?

Вот я заполнил Disavow-файл, мне можно сразу подаваться на пересмотр или надо дождаться пока гуглбот пройдется по ссылкам?

Подавай сразу. Ответ обычно приходит через 2-3 недели. главное чтобы только Disavow-файл правильно был заполнен, а то часто ошибки там допускаются из за чего эффекта нету ожидаемого.

Tarasoff:
У Яндекса в Я.Вебмастере есть такая фишка - "Оригинальные тексты". Я перед публикацией нового материала на сайте всегда добавляю его сначала туда, столбя за собой авторство таким образом.

А у Гугла что-то такое подобное есть?

У Гугла есть "Сведения об авторе в результатах поиска" через профиль в G+

https://support.google.com/webmasters/answer/1408986?hl=ru

Сегодня тоже такое увидел первый раз.

Попробуйте так:

RewriteCond %{QUERY_STRING} ^lang=ru

RewriteRule (.*) http://сайт.com.ua/$1? [R=301,L]

antony123:

  • Только ссылки с точными анкорами являются плохими для гугла.
  • Тоже так думал, но 4 или 5 письмом получил примеры с ссылками типа "тут", "смотри здесь".

    Уже почти месяц как санкции сняли, но по позициям ничего не изменилось, как прежде не стало. Вообщем то почему то изменения заметил, когда отправлял в дисавов первые самые некачественные площадки, некоторые запросы резко подскочили еще до того как сняли санкции. А вот дальше совсем позиции не менялись.

    Вообщем то не удивительно так как ссылок снял много, интересует только нет ли какого нибудь остаточного эффекта так сказать минуса за прошлые огрехи в памяти гугла. Можно ли снова аккуратно закупать ссылки.

    FreddyCruger:
    смена текстов + смена страницы = новые позиции на уровне прежних.

    Смена текстов не проблема, но смена страницы? Для интернет магазина, где прокачиваемая страница это карточка товара, создавать новую что ли? Реально ли помогали такие изменения?

    По вопросам robots.txt отдельный топик, поэтому продолжение из данной закрытой темы /ru/forum/827897

    Сообщение от Dombrov Посмотреть сообщение

    Может вот так?

    Disallow: /*2*/

    allow: /*2*-*/

    Первый запрещает все с цифрой два. А второй разрешает из них если стоит -. Если исходить из вашей структуры то /число/ старые страницы, а новые могут быть /число-/, а такие как раз разрешаем.

    avtomastersu: Спасибо, очень интересное предложение. А не существует правила, одного для всех цифр, что бы не вставлять 2, 5, 78 и т. д., много их там таких.

    Или так нельзя?

    Для всех не знаю, но достаточно до 9.

    Disallow: /*1*/

    allow: /*1*-*/

    Disallow: /*2*/

    allow: /*2*-*/

    Disallow: /*3*/

    allow: /*3*-*/

    и так далее до 9 и все. Указывать двухзначные числа или трехзначные не надо. Он ищет символ, например 2, и находит его как в 250 так и 320.

    ahrefs.com

    ахрефс достаточно информативен. Полная видимость только на платном тарифе, но и бесплатного хватает чтобы посмотреть общую картину

    Раньше проверял так , не знаю работает ли сейчас.

    запрос

    если оба сайта в выдаче все ок

    если только один

    запрос ~~ site:site.ru(домен который есть в выдаче)

    И если его место или где то рядом занимает второй домен тогда аффилиат.

    А так меняйте адреса, телефоны или хотя бы делайте их картинками. Из под этого фильтра выходили, может не быстро, но выходили.

    Может вот так?

    Disallow: /*2*/

    allow: /*2*-*/

    Первый запрещает все с цифрой два. А второй разрешает из них если стоит -. Если исходить из вашей структуры то /число/ старые страницы, а новые могут быть /число-/, а такие как раз разрешаем.

    От самого гугла:

    "Файл robots.txt не является обязательным к исполнению"

    https://support.google.com/webmasters/answer/156449?hl=ru

    И там же ниже он говорит о том. что для исключения страницы используйте метататег noindex. При этом в роботсе запрет на эту страницу не должен стоять.

    Всего: 115