- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Ну я же написал - можно и так. Кстати в href="magazin.ru/telefony" лучше бы указывать полный урл c http.
Т.к. в инете видел разные варианты, то эксперимента ради, на одном их моих проектов для разных типов продуктов сделано так
1. Первая страница категории с текстом, последующие - без
2. Везде (для обоих типов) стоит next|prev
3. В одном типе noindex запрещены все 2+ страницы и стоит canonical на стартовую категорию
4. В другом типе - разрешена индексация и нет каноникала
Продуктов 10К+, т.е. страниц в пагаинации 80+
По результатам в гугле могу сказать, что разницы нет. Гугл индексирует продукты в каталоге что там что там, трафик есть и там и там. Мое мнение, чтоб облегчить гуглу жизнь, лучше закрывать noindex сразу, при этом не запрещать follow.
Что касается robots.txt - забудьте про него. Гугл все равно ходит по сайту, по закрытым страницам.
Спасибо за консультацию, закрою, только через ссылку в php , как Вы показали не получится на отдельные страницы у меня...
---------- Добавлено 16.01.2014 в 22:00 ----------
В общем, начиная углубляться, немного запутался теперь....
Может подскажите тогда по конкретному случаю:
В инструментах гугла, в Оптимизация HTML, хочу чтоб не было "Повторяющиеся заголовки (теги title)"
повторяются именно в сортировке и в "показывать по....страниц"
Возможности добавить метатег с nofollow для robots для отдельных страниц вроде как нет,
могу в ссылку сортировки добавить nofollow и noindex ... либо закрыть их в robots
как лучше? в частности для решения проблемы "Повторяющиеся заголовки (теги title)"😕
Спасибо за консультацию, закрою, только через ссылку в php , как Вы показали не получится на отдельные страницы у меня...
---------- Добавлено 16.01.2014 в 22:00 ----------
В общем, начиная углубляться, немного запутался теперь....
Может подскажите тогда по конкретному случаю:
В инструментах гугла, в Оптимизация HTML, хочу чтоб не было "Повторяющиеся заголовки (теги title)"
повторяются именно в сортировке и в "показывать по....страниц"
Возможности добавить метатег с nofollow для robots для отдельных страниц вроде как нет,
могу в ссылку сортировки добавить nofollow и noindex ... либо закрыть их в robots
как лучше? в частности для решения проблемы "Повторяющиеся заголовки (теги title)"😕
Закрытие в робот не закроет полностью страницы от гугла (есть прувы по этому поводу, что он все равно ходит). Кроме того, и самое главное - не удалит дубли из гугла, гугл их уже сожрал и засунул себе в память.
Можно конечно закрыть в роботс и потом в ВМТ посидеть 2-3 дня и руками поубивать дубли. Вариант для мазохистов :)
Или менять движок или крутить этот, но убрать дубли в тайтлах и тегах нужно. Или делать их уникальными (например, для всех последующих писать что-то типа Страница 1/123, Имя_категории), или закрывать noindex.
<link rel="canonical" href="magazin.ru/telefony"/> и все ок.
это однозначно лучшее решение.
это однозначно лучшее решение.
Кстати, да. Прописать можно на всех страницах пагинации и не мутить с движком.
это однозначно лучшее решение.
я бы не сказал, что это так. Алгоритм склейки иногда офигивает от количества материала. И не факт, что каноникал учтется.
Закрытие в робот не закроет полностью страницы от гугла (есть прувы по этому поводу, что он все равно ходит). Кроме того, и самое главное - не удалит дубли из гугла, гугл их уже сожрал и засунул себе в память.
Можно конечно закрыть в роботс и потом в ВМТ посидеть 2-3 дня и руками поубивать дубли. Вариант для мазохистов :)
Или менять движок или крутить этот, но убрать дубли в тайтлах и тегах нужно. Или делать их уникальными (например, для всех последующих писать что-то типа Страница 1/123, Имя_категории), или закрывать noindex.
noindex, только в Яше работает! Это элементарно Ватсон!:)
Не путайте noindex с nofollow, они работают по разному!😡
noindex, только в Яше работает! Это элементарно Ватсон!
он имел ввиду метатег, а не просто тег.
noindex, только в Яше работает! Это элементарно Ватсон!:)
Не путайте noindex с nofollow, они работают по разному!😡
Ни разу не путаю, Холмс :)
<meta name="robots" content="index, follow">
noindex - заставляет гугл выбрасывать из индекса или не индексировать страницу
nofollow - не ходить по ссылкам с данной страницы (хотя, говорят, что все равно ходит, гад)...
яша? не, не слышал :) надцать лет под бурженет работаю
---------- Добавлено 16.01.2014 в 21:12 ----------
он имел ввиду метатег, а не просто тег.
Спасибо, коллега :)