- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
у вас походу своя версия английского...
если у вас списки часто «ползут»
что значит ползут ?
в смысле товары меняются в категории, в смысле порядок их меняется?
что значит ползут ?
в смысле товары меняются в категории, в смысле порядок их меняется?
в смысле контент на страницах меняется.
да вообще спрашивал За и Против уникализации / закрытия от индекса страниц пагинации ... пока никто не ответил ))
Прописал да и все, ну и каноникал поставил соответствующую страницу.
Делается это на php.
<meta name="robots" content="noindex" />
Прописал да и все, ну и каноникал поставил соответствующую страницу.
Зачем каноникал, если ноуиндекс? Это не работает.
<meta name="robots" content="noindex" />
Прописал да и все, ну и каноникал поставил соответствующую страницу.
Делается это на php.
как это делается я знаю, а зачем так делать, какой мотив, смысл, логика на худой конец?
вот есть у меня 10 страниц пагинации, я либо:
а). уникализирую их через мета-теги, чтобы они не считались дублями, и добавлю им каноникал, чтобы они вес не тянули с первой страницы ... и при таком раскладе они будут в индексе, и будут по сути рудиментами-костылями - страницы в индексе как-бы есть, но толк от них какой непонятно, есть ли он вообще.
б). наглухо закрою страницы от индексации через ноуиндекс, и тогда проблема уникализации вообще не будет стоять, ну и каноникал накину, потому что страницы уже в индексе, и пока они не выпали из него, каконикал нужен чтобы вес не дербавить на всех.
вот и был вопрос, какой способ выбрать, и главное почему? ... может есть какие-то подводные камни или не очевидные моменты.... вас здесь сеошников куча на ветке, но никто даже не понял сути вопроса)) .. это печально... то ли у вас квалификация низкая, то ли просто не знаете ... как обычно
то ли у вас квалификация низкая, то ли просто не знаете ... как обычно
Ну вот зачем эти агрессивные приписки? Будь проще, и люди потянутся к тебе (С).
Или у Вас свой путь, соответствующий нику? Тогда идите...
Сальвэ.
Сейчас поставил плагин для закрытия всяких мусорных страниц от индексации через <meta name="robots" content="noindex, nofollow"/>. Теперь думаю как быть со страницами пагинации. Может их тоже наглухо закрыть от индекса?
Что можете сказать по этой теме - банальная уникализация страниц пагинации или закрытие от индекса? Ваши за и против?
наговорили тут три страницы чуши и толком по делу ничего.
по теме:
1. Для яндекса закрываем пагинацию в мета роботс ( только для яндекса)
2. Для гугла ставим канонинкал на первую страницу
никаких комбинаций дурных типа канон + ноиндекс, или канон + роботс тхт или ноиндекс + роботс НЕЛЬЗЯ использовать
все криворукие уникализаторы пагинации и создаватели посадок там же идут лесом .
1. Для яндекса закрываем пагинацию в мета роботс ( только для яндекса)
2. Для гугла ставим канонинкал на первую страницу
Разные ответы для разных роботов?
А людям что отдавать?