bulatbulat48

Рейтинг
94
Регистрация
27.04.2012
MisterCh:
да. именно так. в not provided немало брендовых тоже. Можно пытаться еще по странице входа остекать- если это каталожная страница, карточка товара - то скорее всего не брендовый. А если морда, контакты и т.д.- то можно считать брендовым. Но так нормальные запросы, ведущие на морду , та кже потеряешь.

товар тоже брендовые есть.. например: купить колбасу в Ашане (Ашан - брендовый). Мне нужно отсечь именно брендовые.

---------- Добавлено 25.06.2014 в 18:26 ----------

вот что значит пропустить семинары Гугла по аналитике :(

Analytics премиум, решает такие проблемы?

aalexeev:
наблюдаю за 80 сайтами. упало 20 000 - 30 000 сайтов по моим оценкам всего в рунете с разной степенью силы, некоторые очень сильно

заметил неско моментов:
-на большинстве вылетевших сайтов стояла Метрика.
-упали в основном ВЧ, СЧ однословники т.е. похоже что били по списку запросов из wordstat например, низкочастотку не брали
-фильтр накладывается покластерно(даже не на домен а на кластер)
-снятие ссылок не помогает
-Платон вообще замолчал и ничего не отвечает путного, писать бесполезно
-по типу и характеру падения фильтр похож на наказание за поведенческое которое было в 2011-2012 годах. мне кажется это именно наказание за поведенческое. если так то амнистия была через 1-2 месяца в тот раз
-амнистия фильтра происходила позапросно выборочно т.е. фильтр запросзависимый


пока удалось вытащить 2 сайта просто ничего не делая сами вернулсь что делать с остальными не совсем ясно

пожалуйста отпишитесь (можно в ЛС) кто тоже думает что наказали за поведенческое кто что делал из запрещенного, может кто то баловался усилением ссылок например или кликами по серпу, или может был какой то трафик который яшка посчитал роботным с вконтакта как вариант или с партнерки. Роботизированный трафик мне кажется виной этого фильтра

Не думаю, свалился сайт с естественной посещаемостью выборочно -100, -300. Накруток ПФ не было.

vkapas:
Сегодня выяснилось, что я лузер в настройке robots.txt, потому что не знал, что
Disallow: /index.php

оказывается, запрещает индексацию всех страниц, URL которых начинается на index.php (по крайней мере, для Яндекса это так).

Раньше я как дурак думал, что для этого нужно использовать
Disallow: /index.php*



В связи с чем вопрос: в чём тогда разница между двумя этими правилами?

Разницы нет, по умолчанию к концу каждого правила приписывается '*'

Olisher:
По ходу на этот раз отключили ссылочное
бессылочные подсадные одностраничники лезут в топ, хотя их место всегда было для директа
разные браузеры, разные компьютеры, в разных районах Москвы показывают похожие, но все более, чем раньше, разнящиеся результаты выдачи. ПФ+ Геотаргетинг+еще 750 факторов делают свое дело. Иначе для чего убрали циферки позиций

цифры не убрали, у рандомно выбранных пользователей показываются в новой выдаче.

png 234213.png

если будете так делать, ставьте на ресурсах - источник:ваш_сайт

new_maria:
Зачем закрывать доступ к сайту через https?

возможно имеете ввиду закрыть доступ в админку путем шифрования через https ?

как правило это делается для большей безопасности, например для панелей управления, хостинга.. все идет через шифрование канала. Возможно я не эксперт в этой области - если не прав поправьте..

Sokol1979:
Здравствуйте, у меня вот такой вопрос.
Есть сайт на джумле.
Решили поставить его на другой домен.
В файле robots прописали директиву host с главным зеркалом
Теперь самое главное, можно ли при прописанной директиве host на старом домене поставить 301 редирект на новый домен?
Как мне тут утверждает руководитель, такого сделать невозможно. Но чет я сомневаюсь сильно.
Если возможно, то как это лучше сделать? сервер апач.
если что, то пациент вот - cheaptriptur.ru - старый домен
hotspo.ru - новый домен.
(по поводу сайта не плеваться, он не для поисковиков и не для рекламы, пока болтается просто так, не решили что с ним делать, решим, переделаем под людей)

Возможно я не понял вопрос, но попробую ответить:

директиву host: имеет смысл использовать для склейки зеркал(одинаковых сайтов) только для ПС Яндекс. В Google есть возможность изменить основной домен через GWT (google webmasters tools)

Konsttanttin:
Подскажите пожалуйста, как закрыть дубли такого типа?
/news/
/news

если правильно понял, Вам нужно поставить 301 редирект (.htaccess)

---------- Добавлено 23.06.2014 в 20:13 ----------

chornobryvtsi:
Добрый день, подскажите как правильно закрыть архивы, информацию об авторе и страницы "Part 2". Спасибо.

приведите пожалуйста url-ы, постараюсь помочь

---------- Добавлено 23.06.2014 в 20:21 ----------

raddavil:
Добрый день! Как правильно закрыть страницы типа:
/kvartira/?type=92&sortby=&cpage=18
/kvartira/?type=92&sortby=&cpage=
/kvartira/?type=92&sortby=price
но оставить страницу /kvartira/?type=92 или

для Яндекста можно межсекционную директиву клин-парам использовать:

User-agent: Yandex

Clean-param: sortby=&cpage=

для остальных ПС:

User-agent: *

Disallow: *sortby=&cpage=

Итоговый файл:

User-agent: Yandex
Clean-param: sortby=&cpage=

User-agent: *
Disallow: *sortby=&cpage=


---------- Добавлено 23.06.2014 в 20:23 ----------

maximka77:
Подскажите, пожалуйста, возможно кто-нибудь сталкивался с движком LiveStreet CMS. Собрал для своего сайта robots.txt, но возможно что-то упустил. Подскажите если что-то забыл закрыть или добавил лишнего. Буду очень благодарен.

User-agent: *
Disallow: /comments/
Disallow: /index/
Disallow: /tag/
Disallow: /feed/
Disallow: /rss/
Disallow: /talk/
Disallow: /my/
Disallow: /search/
Disallow: /subscribe/
Disallow: /settings/
Disallow: /people/
Disallow: /photoset/
Disallow: /profile/
Disallow: /error/
Disallow: /people/index/
Disallow: /people/country/
Disallow: /blog/newall/
Disallow: /blog/discussed/
Disallow: /blog/top/
Disallow: /personal_blog/newall/
Disallow: /personal_blog/discussed/
Disallow: /personal_blog/top/

Host: мойсайт.ру

не сталкивался, но мне кажется нужно использовать в host - пуникод, https://www.reg.ru/whois/punycode

---------- Добавлено 23.06.2014 в 20:25 ----------

VERBAL:
Доброго дня профессионалы.
Очень прошу посмотреть robots.txt
Яндекс не индексирует сайт

User-agent: Yandex
Disallow: /index.html
Disallow: /ru/index.html
Disallow: /ru-*
Disallow: /*?
Disallow: /*?print
Disallow: /*search.html
Disallow: /*_openstat
Disallow: /*from=adwords
Disallow: /*show=info
Disallow: /*show=ref
Disallow: /*p_id=*
Disallow: /*welcomfunc*
Disallow: /*noback*
Sitemap: http://fsc-group.ru/ru/sitemap.xml
Host: fsc-group.ru

User-agent: *
Disallow: /index.html
Disallow: /ru/index.html
Disallow: /*search.html
Disallow: /ru-*
Disallow: /*?
Disallow: /*?print
Disallow: /*_openstat
Disallow: /*from=adwords
Disallow: /*show=info
Disallow: /*show=ref
Disallow: /*p_id=*
Disallow: /*welcomfunc*
Disallow: /*noback*
Sitemap: http://fsc-group.ru/ru/sitemap.xml
Host: fsc-group.ru

проблем с роботсом не вижу, есть проблема в том, что у Вас был вирус на сайте, пишите в поддержку. В выдаче страница вируса:

Gluten free diet plan vbulletin

fsc-group.ru›form/kdqgc.php…

Weight Loss Go » Gluten Free Diet Plan #58 Of course, we are bringing you a total of one hundred different tips for achieving your greatest wish, which is to lose weight. This post continues in the current...

---------- Добавлено 23.06.2014 в 20:29 ----------

Thunderstorm:
Поскажите, нужно ли прописывть парметры Clean-param: и Sitemap по два раза?
Имеется ввиду, часто можно встретить такую запись:



А можно такую:



Есть ли разница? Ведь в вебмастере Яндекса тогда будет по две строчки отображаться с Clean-param: и Sitemap.

не нужно, это межсекционные директивы. Клин-парам работает только в Яндексе.

---------- Добавлено 23.06.2014 в 20:55 ----------

Estelle:
Сегодня обнаружилось, что та самая проиндексированная быстророботом страница вообще выпала из индекса, хотя до этого по практически целевому запросу побывала в среднем аж на 6 позиции. В итоге в Яндексе осталась только "морда" моего сайта. Вижу, что бот Яндекса теперь заходит на мой сайт примерно через день, но ничего не добавляет в индекс.
Вчера опубликовала новую статью, Гугл ее сразу скушал. При добавлении этого нового урла в аддурилку Яндекса он сообщил: "Адрес успешно добавлен. По мере обхода робота он будет проиндексирован и станет доступным для поиска". Т.е. вроде все нормально, бана нет?
Неужели и в самом деле Яндекс так не любит молодые сайты?

http://help.yandex.ru/webmaster/files/recommendations.pdf

---------- Добавлено 23.06.2014 в 20:55 ----------

bonifico:
Не, не так. Директ будет 1,2,3,4 а органика - 5,6,7...
Сегодня мне весь день показывают 4 спецразмещения. Тестируют пока. Но не надо быть провидцем, чтобы понять к чему приведёт это тестирование.

ну и вылет позиций связан похоже с этим, смотрят как будут кликать на директ, когда нет полезных сайтов в выдаче, a/b тестирование устроили)

Всего: 780