богоносец

богоносец
Рейтинг
775
Регистрация
30.01.2007
Adrian2012:
Есть ли рекомендации от ПС какие страницы (со слешем или без) стоит оставлять? Я выбрал оставить со слешем, потому-что на эти страницы больше внешних ссылок.

ПС ... ну получат 301, викинут из индекса наверное, им и без вас есть чего ранжировать. Вам это тоже не важно? И сколько времени что-то занимает у ПС? А то тут бывает стандартный плач: поставил 301 (на другое зеркало), сайт вылетел...

Смотрите, каких страниц больше в индексе и на какие вы ссылаетесь внутри сцайта.

Там подпись в уголку есть.

Вот более похоже на кликандер:

при росте числа посетителей, количество просмотров упало.

87793:
Я вот свои сайты с Народа не переносил никуда... и всё ещё не собираюсь этого делать :p.

Kurt их выжмет как канарейку:

Это надо в продолжение темы /ru/forum/771061 перенести.

Долго ещё народ будет считаться сервисом Яндекса.

Наверное Курту доходы уполовинило за жирных баб, вот он и решил на это всё забить... срубив последний кусок бабла.

Из трёх вспомненных на одном оказалась пометка типа такой (пример не мой, но почему-то попался). И почему-то таких как-то много.

Solmyr:
Яндекс велик и Волож пророк его.

Это и есть пророссийские настроения?

Про «авторитетных» это Google уже не первый раз повторяется /ru/news/225

blog.lexa.ru/2007/12/14/beshenie_seoroboti.html

такие как вы могут создать в стате ещё 100500 пустышек и быть довольными хоршими позициями.

MudryiKaa:
Основная работа - это создание и продвижение сайтов белыми методами.

Извините за оффтоп... а можно полный список белых методов?

ps я просто не знаю таких (когда-то пользовался и явно чОрными для продвижения чего-то белого).

Estelle:
То есть получается что заблокирован доступ ко ВСЕМУ сайту?!

Нет, тоолько к соотв.сайтмапам (если это сайтмапы, но найти все страницы сайта можно и по ссылкам). Типа боту к перечисленным урлам обращаться запрещено (какими-то правилами в роботсе).

ps можно писать Disallow: /robots.txt # можно выкинуть из индекса robots.txt

но типа нельзя Disallow: /префикс-вашего-сайтмапа # не получается выкинуть из индекса Гугля сайтмап

Remember:
Я думаю все таки Яндекс определяет уникальность, это не так уж и сложно, например есть очень интересная публикация2009 года

Ну вот, как-то раз, великий Яндекс обнаружил в своих закромах 100500 дублей. Кого карать?

Тема о первоисточниках, а не о дублях (хотя первоисточники могут хериться Яндексом и при фильтрации дублей).

Если кому интересно, то СКР что-то там пытается делать в массе, оптом, ±валенок /ru/forum/792124

а конкретные случаи Воложу не интересны. Наёмные и добровольные, как XTR, пиарщики... как-нибудь справятся.

Если и есть какой-то там фактор про первоисточник, то вес его может быть 0.0000* или даже слегка отрицательный. Главное — релевантность, pFound, и капитализация.

Всего: 13652