* На блоге каком-нибудь заметку оставили например, а там включены "последние комментаторы"
* Или взяли сквознячок на сайте из 10 страниц, а на нем не закрыты от индексирования результаты поика, каждый запрос формирует уникальную страницу "типа этого не найдено", а сцылочка-то стоит
Что-то не понимаю с функцией сравнения. Так получилось, что все мои сайты достаточно небольшие (до пары сотен), поэтому сравнивать сам с собой не могу.
Аналитикс в "Сайты категории "Интернет" подобного размера" мне пытается доказать, что у всех по 5-6 уников в день и 2-3 просмотрами во всех нишах. Не верю.
Ерунду Вы придумали.
Пользы от этих ключевиков если и будет, то чуть, а (потенциальным) посетителям на этот домен в серпе смотреть будет странно. Очень уж напоминает опусы типа exterme-pussy-fuck-porno.com или mega-cool-warez-portal.com На подсознательном уровне отфильтровывается.
Займитесь лучше брендингом
Знаете, у Гугля кнопочка такая есть "мне повезет" называется. Ее имеет смысл нажимать когда Вы точно уверены, что самый первый сайт в серпе ответит на Ваш запрос. Пример http://www.google.com/search?q=sites+with+pr10
Я к тому, что учитесь искать ответы сами, это намного продуктивнее.
HwoR, ТС невнятно суть вопроса изложил, а я в час ночи его неправильно понял. Мне показалось, что он спрашивает "не влияет ли внутренняя перелинковка на PR морды?", а оказалось - "не утекает ли этот самый PR на внутренние?".
Натурально, не утекает и не переливается.
да
HwoR, а я Вас уважал (и продолжаю) :)
Это значит, что ссылка стоит не с обсуждаемого сайта, а с другого - "внешнего"
Хорошая, "жирная" (PR, пресловутый "траст ранг") ссылка очень помогает в индексации
Да я вначале написал, а потом понял что жёстковато :)
Если у Вас не тонны трафа с Гугля то можно сделать так
1 Закрыть нах сайт в robots.txt
2 sitemap.xml тоже нафиг с пляжа
3 идете в инструменты -> удалить сайтег -> весь
4 когда выпадет, добавляете sitemap.xml и ждете еще недельку
5 да, и не забудьте вновь разрешить доступ к сайту :)
Если пох*рены былы не все страницы сайта, а только "некоторые разделы" то немного менее радикально
1 закрываете в robots.txt удаленные страницы
2 убеждаетесь, что сервер отдает 404
3 идете в инструменты -> удалить разделы -> добавляете несуществующие урл
Если проблема не в том, что "мешаются несуществующие страницы", а в том, что не загоняются в индекс новые, - натурально, alexburzak, дело говорит. Есть, правда и другие способы помочь в этом, но пара-тройка хороших ссылок на фоне хорошей внутренней перелинковки и нормальных УРЛах - самое оно.
ar164, закладывайтесь на 3-4 недели минимум
Ничего естественного в этом нет. Если на сайте страниц не так уж много было можете эти недели ожидания скрасить созданием редиректов со старых