- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
DataLife Engine > Версия для печати > вот так у меня все странички индексируются, как исправить?
Заранее спасибо..
зачемих вообще индексировать?
лучше запретить дубли контента, имхо
зачемих вообще индексировать?
лучше запретить дубли контента, имхо
Да, мне так говорили.....
Как это сделать и где разместить в файлах на сервере или как заменить странички на нормальные?
Заранее благодарственную напишу....
файл роботс сделай таким
User-agent: Yandex
Disallow: /favorites/
Disallow: /user/
Disallow: /?do=register
Disallow: /2009/
Disallow: /2010/
Disallow: /addnews.html
Disallow: /page/
Disallow: /engine/
Disallow: /*print:
Host: site.ru
User-agent: *
Disallow: /favorites/
Disallow: /user/
Disallow: /?do=register
Disallow: /2009/
Disallow: /2010/
Disallow: /addnews.html
Disallow: /page/
Disallow: /engine/
Disallow: /*print:
Host: site.ru
если требуется запретить только страницы для печати, то так
User-agent: Yandex
Disallow: /*print:
Host: site.ru
User-agent: *
Disallow: /*print:
Host: site.ru
специально выделяю робота Яндекс т.к. он бывает тупит
User-agent: *
Disallow: /*print:
Host: site.ru
А тут вы кому Host: написали, если для Яндекса уже написано выше? Надо убрать.
А тут вы кому Host: написали, если для Яндекса уже написано выше? Надо убрать.
По идеи достаточно сделать только так (для всех пауков)
User-agent: *
Disallow: /*print:
Host: site.ru
, но зная глючность яндекса не лишним будет конкретное обрашение к его роботу
User-agent: Yandex
Disallow: /*print:
Host: site.ru
но зная глючность яндекса
А зачем Вы, зная глючность Яндекса, скармливаете ему не корректный robots.txt?
А зачем Вы, зная глючность Яндекса, скармливаете ему не корректный robots.txt?
где вы увидели не корректный роботс?
хоть так верно
User-agent: *
Disallow: /*print:
Host: site.ru
хоть так верно
User-agent: Yandex
Disallow: /*print:
Host: site.ru
User-agent: *
Disallow: /*print:
Host: site.ru
если вам плевать на роботов других поисковиков можете сделать так
User-agent: Yandex
Disallow: /*print:
Host: site.ru
Алексей, если вы считаете что мой пример некорректный, приведите свой. И не для меня, а для ТС.
vinic, не действует эта строка:
Допустим, на сайте есть несколько категорий для новостей. В роботс вместо этой вашей "/*print" нужно будет вписать:
Disallow: /category2/print:*
Disallow: /category3/print:*
Disallow: /category4/print:*
Вот так-то. 🚬
Georgyi добавил 16.10.2009 в 15:14
Проверить это можно легко и непринужденно:
Заходим в панель вебмастера, открываем раздел "Страниц в индексе". Есть там такая форма "Страницы в индексе из раздела:". В эту форму пробуем вставить:
/*print:
В ответ получаем "Данные отсутствуют."
Потом пробуем по-другому:
/category1/print:*
Получаем список страниц для печати.
Так как надо отцы, запутали новичка)))
skn добавил 16.10.2009 в 18:37
vinic, не действует эта строка:
Допустим, на сайте есть несколько категорий для новостей. В роботс вместо этой вашей "/*print" нужно будет вписать:
Вот так-то. 🚬
Georgyi добавил 16.10.2009 в 15:14
Проверить это можно легко и непринужденно:
Заходим в панель вебмастера, открываем раздел "Страниц в индексе". Есть там такая форма "Страницы в индексе из раздела:". В эту форму пробуем вставить:
/*print:
В ответ получаем "Данные отсутствуют."
Потом пробуем по-другому:
/category1/print:*
Получаем список страниц для печати.
Так что надо написать уважаемый
http://yandex.ua/yandsearch?site_manually=true&site=kinomyz.dp.ua&text=&ras=1&lr=187&ncrnd=9406
Вот так у меня страницы и с каждем днем падает посещаемость....
http://yandex.ua/yandsearch?site_man...187&ncrnd=9406
Вот так у меня страницы и с каждем днем падает посещаемость....
Парень, мозги эт самое не делай тут со своим гс. Голову включай, да делай правильный robots.txt.
По твоей ссылке на первой странице выдачи видно проиндексированные страницы вроде этой:
kinomyz.dp.ua/2007/10/13/print:page,1,britney_spears__blackout_2007.html
Если ссылками не барыжишь, то убирай нафиг лишние страницы. Например, можно сразу же убрать:
/2007/*
/2008/*
/2009/*
Постарайся, чтобы в индексе оставались только самые нужные страницы без дублей, тэгов, календарей, и прочей мути.
Или ждешь пока для твоего гс персонально составят правильный robots?