Kost

Рейтинг
737
Регистрация
31.01.2001

Den

1) странно, что в логах есть реферреры с поисковиков, а "в индексах сайта нет". Что будет, если в броузере набрать адрес реферрера, в тот же день?

2) Ведь сайт в домене .com. Тут уже многократно обсуждалось, что Яндекс просто после сабмита такие сайты в индекс не добавляет. Надо писать на addurl@yandex.ru (вроде так). Сайт, надеюсь, на русском языке?

Romano, а не быстрее у Яндекса спросить? Обе первые ссылки объясняют, кто они такие.

Уважаемая Nata !

В тулбаре Яндекса горит не ИЦ, а ВИЦ. Про это много писалось и в статьях на этом сайте (аналог Page Rank) и в самом форуме.

Лишнее www к домену третьего уровня я бы не приставлял, слишком длинно получается. Насчет домена второго уровня - не знаю, чаще вроде с приставкой www попадается. Главное чтобы внешние ссылки были единообразные, чтобы нечаянно не распылять ИЦ и ВИЦ на два адреса.

Спасибо, wolf теперь понял. Это конечно легче устроить.

Для англоязычных запросов имя домена или даже документа может играть большую роль через ссылочное ранжирование, ведь часто в ссылках текст ссылки совпадает с URL. Насчет русскоязычных запросов - вряд ли URL имеет какое-нибудь значение. Вероятно придается больший вес корневому документу домена и все.

Значит получается что если я сам куплю несколько доменов 2-го уровня, сделаю на них сайты одинаковой тематики с основным сайтом и установлю на них соответствующий софт, создающий такие страницы со статистикой, предварительно немного подняв Pagerank доменов и изменив софт таким образом, чтобы в статистике всегда присутствовал мой основной адрес, то я существенно смогу поднять Pagerank своего основного ресурса и следовательно поднять его на любое место по нужным мне запросам, предварительно оптимизировав по ним свой сайт?

ИМХО это пустая трата времени и денег на домены. Это как барон Мюнхгаузен сам себя за волосы поднимал. Только зачем тут еще статистику городить, и откуда возьмется PR у этих дополнительных доменов? В первом сообщении была интересная мысль, но запись в обратном DNS IP-адреса посетителя должна совпадать с именем сайта, на который желательно поиметь ссылки. Например если контора ходит в интернет через свой прокси-сервер (или NAT) и на этом же сервере крутится еще и веб-сервер. Только в этом случае какой-то смысл есть. Но вряд-ли у страниц со статистикой большой PR, так что результат будет невелик.

Я смотрел по логам новых сайтов - робот второй раз приходил не раньше, чем через месяц. Насчет сотни статей - не знаю, фиксируются еще даты Last-Modified, вероятно они учитываются для каждой страницы. На ежедневно обновляемый небольшой сайт (20 страниц) у меня робот ходит почти регулярно раз в 14-20 дней, но не чаще. Для обычного ресурса, по-моему неплохо. Выдает ли сервер на вашем сайте заголовок Last-Modified?

Потом через пару дней убираю robots.txt

Почему через пару дней? Подожди, когда робот возьмет твой запрещающий robots.txt (по логам посмотри), потом подожди, когда сайт удалят из индекса - это ведь можно проверять #url="ваш.сайт.ру*". И тогда можно опять делать addurl.

Только на сайте у меня очень мало текстов (это оффлайн магазин), на фирме некому их писать.

Только как же можно ожидать трафика, если очень мало текстов? Какой вообще смысл еще пустой сайт сабмиттить в Яднекс?

Если грубо, то трафик пропорционален количеству текстов. Что нужно клиенту, трафик или позиции по каким-то ключевым словам?

А частота посещения робота по-моему зависит от частоты обновления контента. Если ничего полгода не менялось, так и робот нескоро снова придет. И еще. На "новый сайт" робот тоже не будет ходить часто. Второй раз зайдет примерно через месяц.

Ну, не в этом, так не в этом. Но пример интересный.

Сейчас сказал, что

"Ваш URL ... внесен в нашу базу данных."

Всего: 14616