zmei91, задаете не те вопросы. Лучше подумайте над тем почему статьи именно на вашем сайте не вылазят по некоммерческим НЧ НК...
Да и сайт не помешало бы увидеть.
Имея всего 200$ и без опыта :) лучше и пробовать не стоит ИМХО. Если бюджет месячный, пишите в ЛС.
Ссылка на создателя/оптимизатора - это элемент этикета. Адекватные клиенты это понимают.
Для страховки думаю, что нужно описывать это в договоре, автор имеет право оставить свою подпись, если заказчик не желает этого, пусть доплачивает.
Довольно часто размещения ссылки на сайте клиента мотивируют тем, что дизайнер/оптимизатор ставит ссылку на сайт клиента со своего сайта. Так сказать обмен. Но зачастую на сайте клиента ставится сквозняк )
А так ведь можно?!
Allow: /script.php?a=1000$
Allow: /script.php?a=100$
Disallow: /script.php?a=100*
А вообще на всех страницах которые не нужно индексировать(например script.php?a=1001 и т.д.) поставьте мета-тег
<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
На такие вопросы не бывает однозначных ответов.
Скиньте в пм адрес сайта и поисковые запросы по которым хотите его двигать.
не согласен, тут руками нужно
для продвижения в буржнете использую:
-индусов с dp, любят поторговаться, в начале может зарядить тебе 50$ за постовой в итоге купишь пачку из 30 блогролов за 100, есть кидало без него никак но с наработками контактов и опытом все становиться намного легче
- sponsored reviews аля блогун
- сапа, как ни странно сапа тоже рулит
- text-link-ads - дорого но качественно
- easysubmits.com, аля 1ps, тут вручную сложно, советую поискать софт или написать самому
- регистрация в трастовых каталогах dir.yahoo, business.com и т.д.
На этом список не заканчивается, тут перечислил то что наиболее часто использую, можно еще руками конечно по блогохостингам пройтись linkwheels, линзы и т.д. но это очень временизатратно, легче заказать, но это дорого =)
Про гетгудлинкс ничего не могу сказать ни плохого ни хорошего, юзал только для одного проекта, пока без результатов. Могу только сказать что саппорт им нужно делать более оптимизаторо-ориентированным и интерфейс сделать дружелюбным, это касается всех их проектов. А пока с ними работать не вижу смысла.
4ТС. По всем признакам страница попала в сопли(google supplemental) про которые уже писали в теме.
Проверить можно так
site:site.com/*
если при вводе такого запроса страницы нет в выдаче - значит в соплях.
Лечение:
1. Смена урла, но никаких редиректов со старого на новый! При этом старый урл желательно закрыть в роботс, а затем удалить из поиска через вебмастерку. Потеряете позиции в Яндексе правда.
2. Можно купить пару трастовых морд в сапе на неделю, желательно тематических.
Второе правда не всегда помогает, в случае переоптимизации.
Киньте адрес в личку.
Если все сделать правильно то от 250 ссылок ничего не будет от Гугла.
Тут скорее стоит вопрос юзабилити. Навряд ли пользователям будет удобна навигация по меню в котором 250 пунктов.
Смешно не использовать прямой инструмент вебмастера по предназначению, я имею ввиду роботс.
Поясните пожалуйста как именно используете .htaccess?
Если не ставить nofollow на закрытые в роботсе страницы то робот будет переходить на такие страницы но не будет индексировать. У робота стоит лимит на время сканирования сайта и количество загруженных страниц за один сеанс. Выходит переходя на закрытые в роботс страницы вы попросту ухудшаете индексацию сайта, скармливая ему ненужные страницы вместо нужных.
На практике заметил, что недостаточно закрывать только в роботсе, нужно обязательно ставить нофоллов в ссылки на закрытые в роботсе страницы.
Получается, что робот заходит по ссылке на закрытую страницу, потом смотрит в роботс, видит, что она закрыта и уходит обратно. Есть мнение что он вообще смотрит пакет страниц, а потом уже сверяет урлы с роботс. Т.е. таким образом он еще тратит драгоценный лимит сканов для сайта.
Сколько у вас страниц в основном индексе?