New Member

New Member
Рейтинг
211
Регистрация
21.12.2008
Saney:
В robots.txt можно использовать * для масок файлов.
Типа такого:

User-agent: *
Disallow: /?*
Disallow: /*?
Disallow: /search*
Disallow: /*.js

То есть, если у меня в роботс такая строка:

Disallow: /*=sort?

То она будет блочить эти странички?

site.com/catalogue/tv=sort?343

site.com/valera=sort?343

site.com/price/microwave=sort?343

Не уверен в этом 🙅

angr:
в вебмастере можно заказать удаление страниц, правда если их много, то ну его...
роботса и мета - точно хватит, но гугл все равно будет показывать эти страницы, в соплях, в живом поиске нет...

Мне главное, чтобы не пессимизировал сайт. В принципе если как вы сказали, то в живом поиске будут нужные страницы без шлака, что и требуется сделать:)

🍿

kelevra1982:
не удалит, пока страница будет доступна. надо добавить или в роботс или в мета теги запрет.

Совсем вылетело из головы про <meta name="robots"

Спасибо большое. Тогда получается везде в этом шлаке ставлю:

<meta name="robots" content="noindex, follow" />

Вопрос, долго ли яндекс/гугл будет выкидывать этот мусор с индекса? этого точно хватит для "чистки"?

nkovinev:
Лично я использую cy-pr.com. Внизу там список конкурентов можно анализировать.

Конечно под определённые нч эта инфа бесполезна... Но так потянет.

Не могу найти, ссылочку можно?

Объясню еще раз.

Мне нужно более чем по 100-200 запросов получить топ-3 список ссылок на конкуренты, причем желательно, чтобы не повторялись (но это вопрос уже другой).

Все это дело мне нужно, чтобы загнать на сервер в язл на анализ.

Вручную вводить запрос и копировать УРЛ очень долго.

В самом язле это делается только по одному запросу за раз.

SEOLIB

Хороший сервис с виду вроде и цена копейки. Но по 20-сайтов тоже неудобно. Экспорт там есть?

Пару вопросов, хотим использовать ваш сервис:

1) Есть абонплата, 15 рублей в сутки, то есть при таком раскладке, платить отдельно за каждый ключевик мы не будем? Единственные затраты это будет 15 руб/сутки постоянно, так?

2) Анализ позиций производится автоматически? как часто? можно каждые сутки, чтобы система автоматически проверяла позиции?

Меня на 90% интересует украинский гугл, изредка яндекс.

Благодарю за ответы!

nikolas77:
а по вашему мнению, что является для выдачи фактором, анкор (с включенным ключевиком) или количество сайтов просто с указанием самой страницы.

В чем подвох?

Конечно прямое вхождение влияет главную роль на рост позиций. А просто ссылку, как один из вариантов, используют для разбавки анкор листа, так сказать, для более человечного вида прироста ссылочной массы.

Выше сказали про количество, хммм тоже с этим соглашусь, хотя там одна человек написал "бред".

По поводу ссылок скажу вам так:

Не сильно обращайте внимание на Пр, количество для гугла куда важнее. Не нужно гнаться за ссылками с трастовых ресурсов тратя кучу денег, достаточно иметь хорошие фильтры, чтобы не покупать ссылки с ГС и сателитов, и именно такие нулевики с обычных сайтов помогут вам вылести в топ, если их конечно много.

Но ссылки Pr>1 я тоже практикую, если не дорого, эффект конечно же есть.

По поводу как быстро влияют ссылки? Скажу так, через 2-3+ дней уже видно изменения в позициях, говорю это как человек, который каждый день руководит закупками и смотрит изменения позиций многих проектов каждые сутки.

Saney:
Для начала, все же стоит попробовать сделать это через Webmasters и посмотреть в логи сервера. Если вопрос только в боте-индексаторе, то он прийдет быстро. А если в сайте - то это другой вопрос.
Не зря же Google разрешает делать эту операцию ограниченное число раз в месяц для одного сайта.
https://www.google.com/support/webmasters/bin/answer.py?answer=1352276&hl=ru

Спасибо, вы правы, я когда-то делал так и помогало, ах уж эта память сеошника :(

Еще раз благодарю!

А как мог рейтинг контакта влиять на ранжирование?

Это просто бэки смотреть, язл хоть как-то цену по формуле подсчитывал.

Вы что раньше просто открывали яху парсили и смотрели на беки/анкоры? Надо же еще как-то цену подсчитывать примерно!?

Всего: 1433