name-k

name-k
Рейтинг
57
Регистрация
05.02.2010
Должность
Huykupation!
Интересы
Porn
День белое, день чёрное.

zmei91, задаете не те вопросы. Лучше подумайте над тем почему статьи именно на вашем сайте не вылазят по некоммерческим НЧ НК...

Да и сайт не помешало бы увидеть.

SEOUKR:
http://technopipe.com.ua/
Как посоветуете раскручивать http://technopipe.com.ua/ ?
Основной удар Google.com google.com.ua (украина).
Бюджет 200$

Имея всего 200$ и без опыта :) лучше и пробовать не стоит ИМХО. Если бюджет месячный, пишите в ЛС.

Ссылка на создателя/оптимизатора - это элемент этикета. Адекватные клиенты это понимают.

Для страховки думаю, что нужно описывать это в договоре, автор имеет право оставить свою подпись, если заказчик не желает этого, пусть доплачивает.

Довольно часто размещения ссылки на сайте клиента мотивируют тем, что дизайнер/оптимизатор ставит ссылку на сайт клиента со своего сайта. Так сказать обмен. Но зачастую на сайте клиента ставится сквозняк )

Подскажите как правильно составить файл robots.txt чтобы индексировалист страницы вида
от

script.php?a=1
...................
script.php?a=1000

и не индексировались

от
script.php?a=1001 и т.д.

А так ведь можно?!

Allow: /script.php?a=1000$

Allow: /script.php?a=100$

Disallow: /script.php?a=100*

А вообще на всех страницах которые не нужно индексировать(например script.php?a=1001 и т.д.) поставьте мета-тег

<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">

На такие вопросы не бывает однозначных ответов.

Скиньте в пм адрес сайта и поисковые запросы по которым хотите его двигать.

На forums.digitalpoint.com достаточно сложно найти хорошие предложения.

не согласен, тут руками нужно

для продвижения в буржнете использую:

-индусов с dp, любят поторговаться, в начале может зарядить тебе 50$ за постовой в итоге купишь пачку из 30 блогролов за 100, есть кидало без него никак но с наработками контактов и опытом все становиться намного легче

- sponsored reviews аля блогун

- сапа, как ни странно сапа тоже рулит

- text-link-ads - дорого но качественно

- easysubmits.com, аля 1ps, тут вручную сложно, советую поискать софт или написать самому

- регистрация в трастовых каталогах dir.yahoo, business.com и т.д.

На этом список не заканчивается, тут перечислил то что наиболее часто использую, можно еще руками конечно по блогохостингам пройтись linkwheels, линзы и т.д. но это очень временизатратно, легче заказать, но это дорого =)

Про гетгудлинкс ничего не могу сказать ни плохого ни хорошего, юзал только для одного проекта, пока без результатов. Могу только сказать что саппорт им нужно делать более оптимизаторо-ориентированным и интерфейс сделать дружелюбным, это касается всех их проектов. А пока с ними работать не вижу смысла.

4ТС. По всем признакам страница попала в сопли(google supplemental) про которые уже писали в теме.

Проверить можно так

site:site.com/*

если при вводе такого запроса страницы нет в выдаче - значит в соплях.

Лечение:

1. Смена урла, но никаких редиректов со старого на новый! При этом старый урл желательно закрыть в роботс, а затем удалить из поиска через вебмастерку. Потеряете позиции в Яндексе правда.

2. Можно купить пару трастовых морд в сапе на неделю, желательно тематических.

Второе правда не всегда помогает, в случае переоптимизации.

Киньте адрес в личку.

Если все сделать правильно то от 250 ссылок ничего не будет от Гугла.

Тут скорее стоит вопрос юзабилити. Навряд ли пользователям будет удобна навигация по меню в котором 250 пунктов.

Maxoud:

Мой совет — забыть про robots.txt навсегда и использовать .htaccess.

Смешно не использовать прямой инструмент вебмастера по предназначению, я имею ввиду роботс.

Поясните пожалуйста как именно используете .htaccess?

Если не ставить nofollow на закрытые в роботсе страницы то робот будет переходить на такие страницы но не будет индексировать. У робота стоит лимит на время сканирования сайта и количество загруженных страниц за один сеанс. Выходит переходя на закрытые в роботс страницы вы попросту ухудшаете индексацию сайта, скармливая ему ненужные страницы вместо нужных.

На практике заметил, что недостаточно закрывать только в роботсе, нужно обязательно ставить нофоллов в ссылки на закрытые в роботсе страницы.

Получается, что робот заходит по ссылке на закрытую страницу, потом смотрит в роботс, видит, что она закрыта и уходит обратно. Есть мнение что он вообще смотрит пакет страниц, а потом уже сверяет урлы с роботс. Т.е. таким образом он еще тратит драгоценный лимит сканов для сайта.

Сколько у вас страниц в основном индексе?

1 2345 6
Всего: 53