SmileP

SmileP
Рейтинг
386
Регистрация
18.02.2010
kickstarter:
100% копирайт, без каких либо источников.

Но информация (смысл) в ней уникален?

Или копирайтер писал про то, как подбирать ся с помощью словоеба.. то (скорее всего) в индексе достаточно статей на эту тему.

Deco90:
1. Запретить ее в robots.txt, например если все мусорные страницы начинаются на один и тот же адрес:

при этом в гугле страницу можно будет найти (если она попала в индекс до запрета в роботсе).

narvell3, попробуйте просканить сайт каким нибудь прогой, например Xenu, Netpeak Spider. После выгрузите данные по найденным страничкам и посмотрите совпадения тега Title (в экселе).

Но это будет данные по тем страницам, на которые есть ссылки.

Остальное- только медитировать на выдачу с расширенным поиском

http://www.google.ru/advanced_search

ну или с помощью операторов:

http://help.yandex.ru/search/query-language/crib-sheet.xml

saykel:
Вот еще один пример моего воздействия на ПФ
saykel:
место почти без ссылок

А вот тепер ссылка с серча есть.. Но Гугл врод ругался на ссылки с серча :)

saykel:
Тем самым подтверждается факт воздействия на ПФ.

Не, для подтверждения давайте статистику по 100+ запросам минимум.

Эксель если только

Ли сливает всю стату Яндексу
elitpack:
учет статистики переходов по ссылкам

Сливает и сливает. У него есть данные по переходам с сайта. Т.е. можно посмотреть куда уходили посетители, после посещения своего сайта.

На такие сайты может и не быть ссылок.

Кроме того ли вроде не получает данные, что происходит на странице- куда нажимают и т.п. В этом случае говорить о получении сведений о нажатии на ссылку не корректно. А если не знаем- нажималась ссылка или нет, то и переход может быть не по ней.

Метрика знает, браузеры знают - событие onclick. Но тогда нужно хранить данные о элементах страницы, а не просто- посетили одну страницу, потом посетили другую, на первой есть ссылка.

Тогда уж учет переходов (без учета есть ли ссылка или нет). А уже потом- учитывать это или не учитывать при ссылочном ранжировании.

Плюс такого подхода- снижения объема хранимой инфы.

Кроме того может быть несколько ссылок, может быть ссылка и банер, подгружаемой аяксом\флешем\ява скриптом и т.п.

Chikago:
В рамках поведенческих учитываются.

Откуда инфа?

Ladycharm:
Потом "быстророботная" страница вылетит из индекса до момента индексации её основным роботом-индексатором

Это может быть проблема контента страницы.

tpe3egol:
возможно подобное что-то есть? Может в буржунете?

Есть алгоритм TrustRank, тот-же PageRank, но учитываются ссылки только с "трастовых" сайтов, помеченных вручную. Но он довольно старый, плюс от схожесть с тем понятием, который используется сеониками тут разве только слово траст.

Рекомендую говорить не о трасте сайта, а о хостовых факторах. Имхо так более понятно о чем речь, без более субъективного термина "доверия".

И как было указанно выше, с вычислением траста- это тоже самое что и ответ на вопрос- как и какие ссылки размешать на сайт. Каждый решает сам.

Пуся, /ru/forum/comment/12713169

За что были наложены санкции?

kickstarter,

Часто индексирование страниц намеренно запрещается вебмастером – это не является ошибкой и исправления не требует.

Вам решать ошибка или нет.

kickstarter:
Сайт - коллективный блог, на который пишут 5 пользователей

Если профилей 5-ть, а страниц 100500, то безраницы.

рецидивист:
Интересует сервис или софт, который бы следил за уникальностью контента на сайте.

Не понимаю смысл такого постоянного мониторинга. Как вариант сделать проект в руках.ру, он вроде автоматом проверяет по нескольким пассажам и если находит много неуника (сколько и каков алгоритм разбиения на пассажи- незнаю), то подсвечивает такой урл. Периодичность проверки неизвестна.

Ну и смотрите на релевантные страницы, которые он определил.

Ну и вроде экспорта нет для таких сведений.

Всего: 6035