Раз платоны не отвечают....

OneSeo
На сайте с 23.09.2009
Offline
41
1109

Уважаемы форумчане, прошу Вашей помощи.

Есть СДЛ, движок DLE, пишется уникальный контент.

Файл роботс:

User-agent: *

Disallow: /*print

Disallow: /autobackup.php

Disallow: /admin.php

Disallow: /user/

Disallow: /favorites/

Disallow: /index.php?do=register

Disallow: /?do=lastcomments

Disallow: /?do=lostpassword

Disallow: /statistics.html

User-agent: Yandex

Host: site.ru

Вопрос в следующем: Уже 11 апдейт поисковой базы не выпадают страницы для печати, страницы юзеров, а выпадает уникальный контент! Что делать? Платоны не отвечают 6 день.

Закупаются ссылки в сапе, для поднятия сайта по определенным запросам.

ТИЦ 0-10-20-30-40. Каталоги. (/ru/forum/443562) Мой пасивный доход (http://www.sape.ru/r.CdwpYyjGZz.php) - практически ничего не делая, зарабатываю от 10$ в день Вместе и до конца!
O
На сайте с 06.11.2008
Offline
23
#1
OneSeo:
Вопрос в следующем: Уже 11 апдейт поисковой базы не выпадают страницы для печати, страницы юзеров, а выпадает уникальный контент!

А Вы хотели полной предсказуемости от Яндекса? В последнее время он как обезьяна с гранатой, а выдача больше похоже на броуновское движение.

А по делу - попробуйте удалялку страниц.

OneSeo
На сайте с 23.09.2009
Offline
41
#2
ozmail:

А по делу - попробуйте удалялку страниц.

Я понимаю, данных страниц штук 200. Как сэкономить время?

M
На сайте с 25.03.2009
Offline
44
#3
OneSeo:
Я понимаю, данных страниц штук 200. Как сэкономить время?

грамотно роботс написать...

/ru/forum/comment/1592771 () =)
O
На сайте с 06.11.2008
Offline
23
#4
OneSeo:
Я понимаю, данных страниц штук 200. Как сэкономить время?

Написать скрипт на основе скрипта от аддурилки.

OneSeo
На сайте с 23.09.2009
Offline
41
#5

ozmail, я не скриптер это раз. Просто я хренею (мягко сказано) с тех. обслуживания компании, почему люди должны страдать, тратить время на писанину в саппорт? А они берут и роботс игнорят. Хрен знает что!

Rokfeller
На сайте с 18.03.2009
Offline
27
#6

Я раньше на DLE прописывал страницы для печати без слеша: Disallow: *print

И он их выкидывал очень быстро.

Оптимизатор в Интернете - как Промысловый охотник в Сибири
OneSeo
На сайте с 23.09.2009
Offline
41
#7

Rokfeller, показать пример можете? сайта, который был так "обработан"?

OneSeo добавил 02.02.2010 в 18:59

Rokfeller, спасибо. Попробуем пока по-другому сделать, способом /*print:page

Crucifer
На сайте с 19.01.2008
Offline
63
#8
OneSeo:
ozmail, я не скриптер это раз. Просто я хренею (мягко сказано) с тех. обслуживания компании, почему люди должны страдать, тратить время на писанину в саппорт? А они берут и роботс игнорят. Хрен знает что!

Подсказка, есть такой плагин для firefox, iMacros, скрипт для удаления страниц с ним делается за пару минут, потом он сам прогоняет по форме. Удалял таким образом 2к страниц, как это ни печально из индекса ушло только через полтора месяца ( в роботс тоже закрывал страницы).

Rapidmann
На сайте с 18.11.2008
Offline
66
#9
OneSeo:
Уважаемы форумчане, прошу Вашей помощи.
Есть СДЛ, движок DLE, пишется уникальный контент.
Файл роботс:
User-agent: *
Disallow: /*print
Disallow: /autobackup.php
Disallow: /admin.php
Disallow: /user/
Disallow: /favorites/
Disallow: /index.php?do=register
Disallow: /?do=lastcomments
Disallow: /?do=lostpassword
Disallow: /statistics.html
User-agent: Yandex
Host: site.ru

Вопрос в следующем: Уже 11 апдейт поисковой базы не выпадают страницы для печати, страницы юзеров, а выпадает уникальный контент! Что делать? Платоны не отвечают 6 день.

Закупаются ссылки в сапе, для поднятия сайта по определенным запросам.

1. Роботс написан не ахти. Догадайтесь почему? Правильно - вы написали запрес на индексацию ненужных страниц для всех, кроме Яндекса. Тут вот такой момент - если вы все таки указываете для Яндекса отдельные правила, как это сделали вы:

User-agent: Yandex

Host: site.ru

то в таком случае Яндекс будет игнорировать то, что написано для других ПС после:

User-agent: *

Поэтому что я могу Вам посоветовать, так это либо удалить разделение между для всех и для Яндекса, просто приписав правило Host: site.ru к общему списку из Disallow, либо откопировать правила Disallow в раздел правил для Яндекса.

2. Вы ссылки покупаете с самого рождения сайта? Надеюсь вы не все ссылки покупаете с анкорами в виде прямых вхождений ключевого слова? Надеюсь покупаете не на несколько нужных страниц оставляя все остальные голышом? Разбавляете анкор лист?

3. DLE или нет? значения не имеет совершенно. Главное чтобы HTML на выходе получался корректный.

4. Сколько сайту то? Может он просто в песочнице и его колбасит)))

5. Я тоже им (Платонам) месяц назад задал умный вопрос по поводу составления robots.txt ибо столкнулся с проблемой - сайт на ASP и надо заблочить 8,5к страниц из 10к, пока Яндекс не заблочил весь сайт, так вот ответа так и не дождался, пришлось писать "войну и мир" в роботсы...

Блог где ненавидят рекламу VTYC.ru (http://www.vtyc.ru) Сайтик про девайсы и интернеты всякие (http://www.itw.su)
OneSeo
На сайте с 23.09.2009
Offline
41
#10

Rapidmann, очень благодарю за внятный ответ!

OneSeo добавил 02.02.2010 в 22:52

Начал закупать ссылки месяц назад, сайту 4 месяца. Выдержал 3 месяца, потом закупал

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий