dws77

dws77
Рейтинг
128
Регистрация
31.10.2008
FaSTeRr:
Здравствуйте!
У меня на сайте http://www.pc63.ru/ есть несколько исходящих ссылок (счетчик, копирайты шаблона, плагинов и тд). Стоит ли их убрать, или они не на что не влияют. И вопрос на будущее... можно ли как то в коде запретить индексацию ссылок гуглом ? (просто где то читал что тег noindex работает только с яндексом)
Заранее спасибо за ответ.

закройте в robots.txt

Гонять по каталогам практически бесполезно. Обменятся ссылками можно здесь:

forum.searchengines.ru

www.mastertalk.ru

www.blogun.ru

Оценку бюжета проекта можно делать по яззл. Смотрите бюджеты конкурентов на нужную глубину. Вводите поправку на ошибку яззл, считаете сколько будет у вас стоить проведение подобного комплекса работ (сапа, статьи, прогон по каталогам и т.д.) в зависимости от того чем пользуетесь, ваша маржа и страховка если что-то не учли. И всё - бюджет готов.

mexboy:
dws77, ну SeoPult вроде как, тольк не по дате снимает, а если ссылка не индексируется некоторый промежуток времени

Спасибо за участие, но сеопульт не имеет нужного мне функционала (ответ саппорта программы на мой вопрос).

У нас занимается специалист-оптимизатор с хорошими знаниями и опытом. Менеджер сначала предлагает стандартную цену его задача заинтересовать клиента и удержать. Оценка по опыту предыдущих клиентов не пойдет можно круто попасть.

По некоторым проектам нет движения, по некоторым есть небольшие движения +-1, часть запросов вернулась на свои места. Кстати сервисы фиксирующие апдейты плохо их показывают и работают в разнобой. Не иначе Яша ставит эксперименты.

alekseycop:
Я так понимаю что кто писал через тринедели ссылки снимает если не проиндексированы, а как же тогда Иванов в своей книге пишет что временные фильтры на ссылки доходят до нескольких месяцев? Кто нибудь пробовал держать ссылки несколько месяцев например 6, и есть ли в этом смысл, если есть насколько это эффективно?)

Малоэффективно (деньги тратятся). Количество непроиндексированных ссылок со времененм уменьшается, максимально держали 8мес. На некоторые страницы робот приходит редко, нет смысла ждать. Не знаю как на других биржах, на сапе сняли ссылку, на освободившиеся деньги купили новых ссылок.

P.S. Если кто-то знает сервис к сапе, проверяющий и снимающий непроиндексированные ссылки с фильтром по дате, подскажите плиз.

Метатеги и тайтл имеют небольшое значение, но оно все-таки есть. В некоторых случаях при закончившемся бюджете вытягивали проект оптимизацией внутренних факторов по собственной методике. Подъем на 2-3 позиции гарантирован. По внутреннему ощущению исследователя думаю смог бы выжать больше, но времени на доводку не дали. Как уже отмечали не исключается синергический эффект, т.е. взаимовлияние факторов друг на друга.

TSerj:
Если сайт имеет rss канал то однозначно да. Если робот зашел проверить одну страницу на продажность/редиректы/клоакинг (причем с разных IP) - то не факт. По крайней мере в моих логах так.

Речь шла о том как поступает официальный робот яндекса. Он всегда заново проверяет robots.txt, о технологиях проверки на продажность/редирект/клоакинг речь не шла.

Залейте хотя бы старый вариант, можно на бесплатном хостинге , посмотрите за реакцией. Я бы такой сервис с удовольствием бы посмотрел.

Всего: 635