- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
И ещё им очень надо агрессивно защищать тупые основы веры...
Чем больше верующих, тем меньше затраты на антиспам. Плодить верующих == экономить бабло / снижать себестоимость.
расшифровать на русский язык, чего у него там в голове застряло?
Было выделено курсивом:
rel=canonical не гарантирует не-нидексации, но может влиять на выбор ботом того дубля, который покажется в выдаче.
Тем более, что сделать страницы пагинации точными дублями — ещё и постараться надо. А пока они не таковы — не выполнены условия фильтрации.
Было выделено курсивом:
rel=canonical не гарантирует не-нидексации, но может влиять на выбор ботом того дубля, который покажется в выдаче.
Тем более, что сделать страницы пагинации точными дублями — ещё и постараться надо. А пока они не таковы — не выполнены условия фильтрации.
Не смотря на то, что Яндекс не гарантирует, на практике он клеит страницы по rel=canonical довольно бодро. Не смотря на то, что они не являются точными дублями. Единственное - склейка не получается, если страница, указанная как каноническая, находится на другом домене или поддомене.
Вероятность приклеить яндекс к гуглу << 100%
Вероятность приклеить яндекс к гуглу << 100%
Склейка доменов целиком, а не отдельных страниц, это несколько другая история.
А «склейку» можно поминать применительно к тому, что можно объяснить гораздо точнее?:
...
Этот же адрес будет представлен в большинстве результатов поиска. Внимание! Мы не можем гарантировать, что он будет отображаться в Google при любых обстоятельствах.
А «склейку» можно поминать применительно к тому, что можно объяснить гораздо точнее?:
Это Вы себе вопрос задаете?
Вероятность приклеить яндекс к гуглу << 100%
Да у меня ответ ещё вчера был, жаргонный термин «склейка» лучше не применять, тем более, что в хелпе этого и не обещали.
абсолютный, выше я привёл ссылку, поверьте подобных страниц в индексе и в поиске намного больше чем вы можете представить и о чудо - они все не канонические 🤪
ну вот вам и повод:
По поводу вашей ссылки. Да, аномальный случай. И что это доказывает? Я аномальных сайтов нахожу по своей теме десятками! Причем они в выдачу не вчера попали, а находятся там месяцами. И что? Давайте обзовем костылями тогда метатеги, robots, заголовки отправляемые сервером...
происходит именно сознательный обман ;)
Не совсем понимаю, о чем вы написали, в чем обман? В рекомендациях от Гугла и Яндекса? А это смотря в чем рекомендации.
---------- Добавлено 15.10.2016 в 14:04 ----------
И ещё им очень надо агрессивно защищать тупые основы веры...
Чем больше верующих, тем меньше затраты на антиспам. Плодить верующих == экономить бабло / снижать себестоимость.
Было выделено курсивом:
rel=canonical не гарантирует не-нидексации, но может влиять на выбор ботом того дубля, который покажется в выдаче.
Тем более, что сделать страницы пагинации точными дублями — ещё и постараться надо. А пока они не таковы — не выполнены условия фильтрации.
Вы пробовали выковырнуть то, что у вас в голове застряло? Может к хирургу стоит обратится Вам? Глядишь и изъясняться по-русски получится у вас точнее, да может уважение к оппонентам появится... Хотя нет второй случай навряд ли, думаю тут только лоботомия может помочь...
Тем более, что сделать страницы пагинации точными дублями — ещё и постараться надо. А пока они не таковы — не выполнены условия фильтрации
Условия фильтрации? И как же ваша вера позволяет писать об этом, это же ересь от поисковиков! 🙅
---------- Добавлено 15.10.2016 в 14:12 ----------
Не смотря на то, что Яндекс не гарантирует, на практике он клеит страницы по rel=canonical довольно бодро. Не смотря на то, что они не являются точными дублями. Единственное - склейка не получается, если страница, указанная как каноническая, находится на другом домене или поддомене.
Здесь я согласен. Вообще, вашу рекомендацию лучше применять, когда больше трафика идет из Яндекса. Например в моем случае с одним из моих сайтов, примерно 55-60% идет из гугла. И фсе 🍿 уже не катит.
Спасибо всем за рекомендации.
Если кому интересно просмотрел топовые сайты Украины, России и пару зарубежных.
На первую страницу каноникал и больше ничего обнаружил только на 3-х сайтах из 11
Это в avito.ru и hotline.ua, aliexpress.com
Например depositphotos.com есть next / prev и <meta name="robots" content="noindex, follow" /> и каноникал на первую.
У остальных по разному у кого каноникал сам на себя у кого просто метаданные.
Для себя выбрал вариант: next / prev+ метаданные, ну и конечно сео текст только на первой.
---------- Добавлено 02.10.2016 в 01:09 ----------
Если у нас тупо будет на первую страницу каноникал, без next / prev и других примочек, то могут возникнуть проблемы с индексацией товаров. Понятно что речи не идёт про крупные магазины у них с этим всё норм.
Как отписывался так и сделал на сайте, но в гугле ситуация не поменялась как было в "Оптимизация HTML" в вебмастере "Повторяющиеся заголовки (теги title)" Так и остались. Или ещё рано говорить, хотя пишет "Последнее обновление 27 окт. 2016 г." по идеи проблема должна была исчезнуть?
<meta name=»robots» content=»noindex, follow» />
подходит для Яндекса
наименее сложный из всех решений
отличный способ исключить все страницы пагинации из индекса, если нет никаких логических оснований для их включения в индекс, но:
хоть и решает потенциальную проблему пагинации, но, при этом, исключаем постраничный контент из индекса
если много товаров, то, если не использовать xml карту сайта, товары которые глубоко находятся в каталоге будут долго индексироваться.