- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Уважаемы форумчане, прошу Вашей помощи.
Есть СДЛ, движок DLE, пишется уникальный контент.
Файл роботс:
User-agent: *
Disallow: /*print
Disallow: /autobackup.php
Disallow: /admin.php
Disallow: /user/
Disallow: /favorites/
Disallow: /index.php?do=register
Disallow: /?do=lastcomments
Disallow: /?do=lostpassword
Disallow: /statistics.html
User-agent: Yandex
Host: site.ru
Вопрос в следующем: Уже 11 апдейт поисковой базы не выпадают страницы для печати, страницы юзеров, а выпадает уникальный контент! Что делать? Платоны не отвечают 6 день.
Закупаются ссылки в сапе, для поднятия сайта по определенным запросам.
Вопрос в следующем: Уже 11 апдейт поисковой базы не выпадают страницы для печати, страницы юзеров, а выпадает уникальный контент!
А Вы хотели полной предсказуемости от Яндекса? В последнее время он как обезьяна с гранатой, а выдача больше похоже на броуновское движение.
А по делу - попробуйте удалялку страниц.
А по делу - попробуйте удалялку страниц.
Я понимаю, данных страниц штук 200. Как сэкономить время?
Я понимаю, данных страниц штук 200. Как сэкономить время?
грамотно роботс написать...
Я понимаю, данных страниц штук 200. Как сэкономить время?
Написать скрипт на основе скрипта от аддурилки.
ozmail, я не скриптер это раз. Просто я хренею (мягко сказано) с тех. обслуживания компании, почему люди должны страдать, тратить время на писанину в саппорт? А они берут и роботс игнорят. Хрен знает что!
Я раньше на DLE прописывал страницы для печати без слеша: Disallow: *print
И он их выкидывал очень быстро.
Rokfeller, показать пример можете? сайта, который был так "обработан"?
OneSeo добавил 02.02.2010 в 18:59
Rokfeller, спасибо. Попробуем пока по-другому сделать, способом /*print:page
ozmail, я не скриптер это раз. Просто я хренею (мягко сказано) с тех. обслуживания компании, почему люди должны страдать, тратить время на писанину в саппорт? А они берут и роботс игнорят. Хрен знает что!
Подсказка, есть такой плагин для firefox, iMacros, скрипт для удаления страниц с ним делается за пару минут, потом он сам прогоняет по форме. Удалял таким образом 2к страниц, как это ни печально из индекса ушло только через полтора месяца ( в роботс тоже закрывал страницы).
Уважаемы форумчане, прошу Вашей помощи.
Есть СДЛ, движок DLE, пишется уникальный контент.
Файл роботс:
User-agent: *
Disallow: /*print
Disallow: /autobackup.php
Disallow: /admin.php
Disallow: /user/
Disallow: /favorites/
Disallow: /index.php?do=register
Disallow: /?do=lastcomments
Disallow: /?do=lostpassword
Disallow: /statistics.html
User-agent: Yandex
Host: site.ru
Вопрос в следующем: Уже 11 апдейт поисковой базы не выпадают страницы для печати, страницы юзеров, а выпадает уникальный контент! Что делать? Платоны не отвечают 6 день.
Закупаются ссылки в сапе, для поднятия сайта по определенным запросам.
1. Роботс написан не ахти. Догадайтесь почему? Правильно - вы написали запрес на индексацию ненужных страниц для всех, кроме Яндекса. Тут вот такой момент - если вы все таки указываете для Яндекса отдельные правила, как это сделали вы:
User-agent: Yandex
Host: site.ru
то в таком случае Яндекс будет игнорировать то, что написано для других ПС после:
User-agent: *
Поэтому что я могу Вам посоветовать, так это либо удалить разделение между для всех и для Яндекса, просто приписав правило Host: site.ru к общему списку из Disallow, либо откопировать правила Disallow в раздел правил для Яндекса.
2. Вы ссылки покупаете с самого рождения сайта? Надеюсь вы не все ссылки покупаете с анкорами в виде прямых вхождений ключевого слова? Надеюсь покупаете не на несколько нужных страниц оставляя все остальные голышом? Разбавляете анкор лист?
3. DLE или нет? значения не имеет совершенно. Главное чтобы HTML на выходе получался корректный.
4. Сколько сайту то? Может он просто в песочнице и его колбасит)))
5. Я тоже им (Платонам) месяц назад задал умный вопрос по поводу составления robots.txt ибо столкнулся с проблемой - сайт на ASP и надо заблочить 8,5к страниц из 10к, пока Яндекс не заблочил весь сайт, так вот ответа так и не дождался, пришлось писать "войну и мир" в роботсы...
Rapidmann, очень благодарю за внятный ответ!
OneSeo добавил 02.02.2010 в 22:52
Начал закупать ссылки месяц назад, сайту 4 месяца. Выдержал 3 месяца, потом закупал