lemes

lemes
Рейтинг
22
Регистрация
02.06.2005
Должность
SEO
Интересы
музыка, комп и инет
Родился -> учусь + работаю
K. Ermakov:
И ещё надо, чтобы по этому запросу другие сайты не имели никакого движения - не получали новых ссылок, не меняли содержание страниц... Где найти такого коня в вакууме?

Тут просто идея была следущая - на сайте этого текста совсем нет... не где ...

если он по этому запросу появляется пусть даже не в серпе - значит ссылка подействовала... засекаешь время от прихода робота до появления в выдаче - Вуаля :)

А запрос можно специальный придумать, например с кучей ошибок в слове ... или еще что нить такое ...

Эо можно проверить поставить ссылку с уникальным контентом на любую страницу дождаться прихода робота на страницу где стоит ссылка, а потом смотреть выдачу страницы, на которую эта самая ссылка ведет по этому же уникальному запросу... (только главное что бы этого запроса не было на той странице, куда ведет ссылка для чистоты эксперимента).

Потом проверяешь выдачу, например каждый день, когда по этому запросу выйдет страница, на которую ссылались - ты и получишь время, сколько проходит времени со дня ПРИХОДА РОБОТА на страницу со ссылкой.

Хотя тут кроме времени ссылки важны также и другие показатели, время жизни ссылающегося сайта, показатели этого сайта … и прочее.

В принципе не как не повляет.. Поисковая система определяет главным зеркалом или с Www или без ... и соответсвенно под этими доменами и индесирует сайт.

Если есть желание помочь определить один из доменов :

можно:

1. Поставить Host:glavnoezerkalo.ru В robots.txt.

2.Можно ставить жирные внешние и внутренние ссылки только на главное зеркало

3.Можно через редирект - но не рекомедуется если уже определенно зеркало и вы с него делаете редирект на тот домен который вы бы хотели сделать главным.

Это самое простое...

Мне кажется что лучше все же делать главным с www потому что иногда встречал при регистрации в некотрых каталогах автоматически простовляют ссылку с www.

lika:
Не совсем так. Домен и все его поддомены Яндексом воспринимаются как один сайт. Соответсвенно в выдаче будет одна (самая релевантная) страница - она может быть с домена второго или третьего уровня.

У меня, например 1 поддомена четвертого уровня лежит в Яке, при этом все остальные поддомены (и главный домен их в яке нет) спокойно выдает по тем запросам, которые для них являются наиболее релевантными. При этом показатели ТИЦ, PR у них отличные друг от друга и от домена 3 уровня тоже.

to lika!

com.ua совсем не бесплатный домен.... очень даже платный!

Статистика рамблера лучше !!

а как быстро Ваш скрипт работает ???

raine:
В конце мая регион определялся по каталогу (не забывайте про наличие скрытого каталога). Были планы добавить такой фактор, как телефонный код города на странице контактов. Был ли внедрен - неизвестно.
P.S. информация со слов представителей компании Яндекс.

Скрытый каталог ??? это что ???

Olya:
lemes, Вы оказались абсолютно правы! Сейчас проверила - нет этих сайтов в выдаче по региону.
Но раньше были ведь... или я сильно ошибаюсь?

Возможно и были но врядли, скорее всего они были и в Яке просто это было не отмеченно, как сейчас !!

Olya:
По регистрации в каталоге яндекса или по размещению на сайтах, например, spb.ru, msk.ru и т.д.

помойму только по регистрации в каталоге хотел сходу найти информацию об этом не нашел !!

но у меня есть сайт в домен kiev.ua и его нет в Яке - так когда ставишь галочку искать по Киеву - сайта нет ....

GEREM:
В общем: на тур.сайте есть для каждого города страны несколько страниц по отелям (фотка и перечень услуг), не несущих никакой пользы в плане сео. Решил я закрыть их от индексации, но вот в каком виде адрес таких страниц:

По-моему это как раз очень даже важные страницы в плане Сео - там есть низкочастотники на которых можно поднимать трафик(могут искать например услугу) или же продвижение фоток кстати здесь была ветка как это делать !!

к таму же насколько мне известно роботы и так с трудом ходят на такие многоуровневые урлы...

но, а если таки решил закрыть без использования .htaccess то это можно сделать

Если вынести все эти страницы в одну папку - то можно закрыть черев robot.txt

Можно использовать атрибут <a href=".ru/tour/italy/roma/info/31.html" rel="nofollow">

Фото Рима

</a> единственное это работает скорее всего только для гугла и я не уверен что эта страница не будет проиндексирована.

прочитать про это можно тут например: http://blogs.byte-force.com/xor/archive/2005/01/21/457.aspx

на конец можно использовать тег <noindex>ccылка</noindex> правда не уверен вовсе есть ли такой тег и работает ли он

и для каких роботов - но может и есть!!!

Всего: 65