- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Disallow: /tags/$
Если ими не злоупотреблять, очень хорошо траф несут, тем более если сделать уникальное описание к каждому тегу и h1 воткнуть на странице
Думаю что нету смысла закрывать навигацию, т.к вроде бы ПС понимают что это за страницы и для чего они созданы. Зато, индексацию сайта я думаю ускоряют.
ПС понимают только то, что им показывают. И если канонические урлы не прописаны, то ПС понимает, что на сайте куча страниц с одинаковыми тайтлами и метатегами и делают соответствующие выводы. А индексацию ускоряют пинги и карта сайта xml :)
---------- Добавлено 04.02.2013 в 09:16 ----------
Если ими не злоупотреблять, очень хорошо траф несут, тем более если сделать уникальное описание к каждому тегу и h1 воткнуть на странице
А как в дле для страниц тегов сделать свои описания и нормальные заголовки?
А как в дле для страниц тегов сделать свои описания и нормальные заголовки?
http://dle-news.ru/release/1555-datalife-engine-v98-final-release.html#sel=19:1,19:67
---------- Добавлено 04.02.2013 в 08:55 ----------
http://alaev.info/blog/post/3900
Немного странным показался его подход. А если предположить что ПС считает качественным тот сайт на индексацию которого ушло меньше времени? Тогда именно запрещать индексацию каждой отдельной страницы через мета-тег как раз неправильно. Ведь робот узнает что страницу не нужно включать в индекс только после того как посетит её. чзнх?! :) А так-то для того и есть robots.txt - что бы экономить ресурсы краулер. И ничего постыдного в этом нет.