New Member

New Member
Рейтинг
211
Регистрация
21.12.2008
Doroshev:
Нашел еще дубли одного вида, их оказалось 1150.
301 редирект сделать с адреса вида:
/files/file6297.html
на адрес вида:
/files/6297_nazvanie_prilogeniya.html

я так понял??? Как это реализовать, я ведь не могу отдельно для каждого файла прописать редирект, а выделить что-то общее в адресах ВТОРОГО типа я не могу, т.к. у них нет общих слов в адресе.

з.ы.ТРЕТИЙ тип адресов только что закрыл в роботсе!

---------- Добавлено 17.08.2012 в 12:26 ----------

А еще идея, если просто запретить в Роботсе адреса 1 и 3 типа и оставить 2 тип, просто старые адреса выпадут, а новые появятся?
Но если так сделать, то как серьезно упадет трафик в первые недели??!!

Я больше чем уверен, что robots.txt многим вам уже не поможет. Гугл вообще часто на него плюет.

Помогает больше это 404 ошибка, редирект или мета-тег роботс.

Скажу так, в руках было более десятка украинский проектов, имею в виду, новых с нуля поступали ко мне на продвижение. Не скажу, что там были ВК ВЧ, но все продвигались на ура в топ.

P.S.

в существование песочницы не верю

Не открывает вашу ссылку

Не видно скриншот, но по ответу понятно, правда не совсем понятно как это связано с разделом гугла.

Если что, то вот

kosty56rus:
А если попробывать в robots.txt так Disallow:/?* если не ошибаюсь- не будут индексироваться все страницы встречающие после домена знак? если конечно нужные страницы не содержат такую комбинацию. сайт.ru/?нужная_страница.html

Роботс.тхт это одна из самых главных вещей на которые гуглу наплевать.

angr:
New Member, вам не кажется что вы нарушили правила форума, п 4.2

Там не ясно изложено. Там, как я понимаю, просто запрещено делать это без каких-либо причин. Тут же есть вопросы и обсуждение.

+ я бы убрал ссылки, но уже не могу

webrock:
вы только из-за этого создали тему?

Нет, просто интересно кто с этим встречался или так делал, и на сколько это эффективно.

sema_87:
Потом ваши примеры все равно вылетят, но человек еще столько же наделает.

Просто интересно столько такие сайты могут провисеть в топе.

Меня тут одно просто удивляет, сайту месяц и уже 8к+ беков. То есть человек за месяц накупил и наспамил целых 8000 беков, вы себе это представляете?

И мало того, таких сайта у него два, и более того, они в топ-5 в USA выдаче.

Где песок, где фильтры за спам, за такое жесткое ссылочное.

Вот вам в помощь линк

Как раз для вашего уровня знаний тоже будут полезные советы.

Я просто выпал с темы или что, у нас тут ребята на форуме боятся 10 ссылок в день купить, хотя вокруг такое происходит.

Запрос: cigarettes online на штаты

топ-1 storecigarettes.net Creation Date: 07-feb-2012 Total Backlinks 123’340

топ-2 abroadcigs.com Creation Date: 10-jul-2012 Total Backlinks 8’477

топ-3 cigoutlet.net неужели Creation Date: 24-oct-2002

топ-4 smokinforfree.com прекрасно Creation Date: 13-jul-2002

топ-5 abroadcigarettes.com Creation Date: 10-jul-2012 Total Backlinks 8’567

ну это кореш топ-3 тут понятно по дате рег. домена и бекам, + посмотрел кучу беков в одном месте куплено, наш русский парень сапой тянет и всяким спамом

топ-6 smokecafetoday.com Creation Date: 12-may-2012 это тот, с кого я топ начал Total Backlinks 303’915

топ-7 cigarea.com Creation Date: 25-jun-2006

Ну дальше в том же духе, все в перемешку. Меня просто интересует, ну ладно, пол года-год, еще можно что-то так продвинуть. Но за один месяц 8к+ беков и топ-3 и топ-5 взял, как гугл такое вообще допускает? Учитывая, что там одна сапа + спам. У меня пять утра, возможно я не совсем хорошо сейчас понимаю некоторые вещи ;)

P.S. беки взяты с лучшего источника беков - ahrefs

Всего: 1433