Sapega

Sapega
Рейтинг
68
Регистрация
09.02.2009

А кто вообще сказал, что это поисковая система?

Если они сами позиционируют себя, как сайт развлечений.

Если прикрутить Яндекс.XML к какому-нибудь сайту, то этот сайт не станет автоматически называться поисковой системой.

Извиняюсь, действительно пишут, что они = поисковая система :)

Antoniusus:
и ещо если я эту страницу закрою, то все страницы на которые идут ссылки с закрытой страницы посещать ПС сможет если они есть в сайтмапе?

А кто Вам мешает сделать так:

<meta name="robots" content="noindex,follow">

Сделайте бэкап БД, локально почистите ручками, почищенный бэкап залейте на сервер.

ТС прогнал сайт. Прогоном доволен. ТС весьма адекватный в общении человек. Рекомендую и сам буду обращаться.

Из пожеланий: отчет можно бы слегка модифицировать, чтобы были не только строки, но и отдельные столбцы, но, возможно, это пока недоработки Sapient.

Заказал у ТС прогон. Работой доволен. Были небольшие вопросы, но, т.к. ТС человек адекватный, эти вопросы довольно быстро решили.

богоносец:
... узенький эксперимент получился...

Поддерживаю, в том, что довольно узенький.

А стоило ли его вообще проводить? Если месяц назад все это было довольно безумной идеей, за которую можно было легко схлопотать минус в репу, то сейчас все это уже не вызывает таких бурных дискуссий. Гуру высказали свое мнение, прошла обрывочная информация от яндексоидов, в общем, сейчас это даже не эксперимент, а попросту подтверждение истины.

Продолжение эксперимента вижу в направлении «Утопить конкурента». Т.е. поиск на Яндексе, переход на «плохой» сайт, пребывание на нем порядка 10 секунд, переход с Яндекса на «хороший» сайт, закрыть окно Яндекса.

Но опять же, ИМХО, утопить не удастся, потому что если по НЧ всего 2 сайта в выдаче, то Яндексу нет резона удалять один из сайтов. Скорее всего, будет влияние только на место в выдаче. Да и в реальных условиях, а не в условиях эксперимента, более сильное влияние на ранжирование будет оказывать ссылочное, чем поведенческое.

Второе направление продолжение эксперимента – поставить ссылку с какого-нибудь слабенького, только что проиндексированного сайта на один из подопытных, убедиться, что подопытный сайт со ссылкой стал выше в выдаче, чем сайт без ссылки, а потом с помощью поведенческого попытаться поменять места в выдаче. Здесь меня несколько опередил Borya, но у него более жесткие условия, потому как ссылка с анкором.

В общем, направлений для экспериментов куча, но ИМХО, все это фундаментальные, а не прикладные исследования.

Пробовал сайт www.crewing.biz.ua так, как и было сказано с www и без.

Сайт двуязычный rus/eng поэтому также пробовал

www.crewing.biz.ua/index-rus.html и

www.crewing.biz.ua/index-eng.html

Все аналогично с www и без.

Ни в одном случае тематика не определена.

iron felix:
...И не факт, что это делают украинцы...

Действительно совсем не факт. Даже моих убогих знаний украинского языка достаточно, чтобы увидеть на ive.com.ua несовпадение падежей, слова, отсутсвующие в украинском языке и т.д. Т.е. пользовались каким-то убогим переводчиком даже без всяких попыток проверить.

Думаю, что все-таки чудес не бывает, расскажу про собственную ситуацию.

Приткнул на сайт маленькую фичу для добавления сайта в соц.закладки. Сделано через jquery, довольно красиво.

В тексте каждой страницы примерно такой код:

<script type="text/javascript">jqsocial(encodeURIComponent('http://сайт/Article1256'), encodeURIComponent('Титл страницы'))

</script>

Реальный URL страницы, на которой отображается этот код

http://сайт/Article1256.html

Почему-то сдуру сделал без .html, зачем думаю 5 лишних символов на каждой странице, если все можно реализовать в обрабатывающем скрипте. Может поздно ночью это учудил, может с бодуна. Вот и дождался того, что в Инструментах для Вэбмастеров у меня уже 1.5К ненайденных страниц, начало медленно, но уверенно падать общее число проиндексированных страниц, начал потихоньку падать траф.

Быстро все привел в порядок – пошла индексация, стал увеличиваться траф, число ненайденный страниц за неделю упало до 500.

ИМХО, бот приходит на сайт, по идее должен проиндексировать 700 страниц, но при индексации натыкается на 50 ненормальностей и сайт покидает. Конечно, цифры с потолка.

В общем, мое мнение – внимательно проанализируйте то, что Вы делали. Глядишь и найдется что-нибудь.

Poljot:
У меня сайт построен таким образом, что к одному и тому же продукту можно прийти сортируя производителей и категории. Получается два адреса одной и той же страницы, но с разными тайтлами и дескрипшн.

Например:
http://site.com/product_info.php?cPath=42_43&products_id=513
и
http://site.com/product_info.php?manufacturers_id=14&products_id=513

Подчеркну: страница одна, а тайтлы и дескрипшн разные.

Оставлять в Sitemap такие адреса ?

SiteMap - это инструмент, который указывает ПС, какие страницы индексировать в первую очередь. Т.е. вместо того, чтобы запретить дублирование через robots.txt Вы сами указываете Гуглу на то, что у Вас дублированный контент. Не сомневайтесь, что Гугл и так найдет такие страницы по ссылкам, но то, что Вы делаете - это вообще круто.

Всего: 169