- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сайт - площадка, на которой выставляются на продажу товары/детали сугубо промышленного назначения.
Сотни продавцов, у каждогов прайсе 10-100000 наименований товаров, те понятно, откуда берутся миллионы страниц.
Каждое наименование товара - это, обычно, некий артикул, широко употребляемый в узких профессиональных кругах.
Имеется каталог товаров изрядной глубины, ведущий от морды до каждого товара.
Страница товара имеет вид www.site.rrr/category/item-12345678.html
На этих страницах есть внутренняя перелинковка, боюсь даже излишне аггрессивная: предыдущий/следующий, похожие позиции и поискать это - ссылка на внутренний поиск.
Сразу объясню, зачем "поискать". Несмотря на наличие некоторого отраслевого стандарта на наименования товаров, реально, по причине человеческого фактора, в базу попадают десятки вариантов одного и того же наименования, поэтому существуют десятки очень похожих страниц, практически дублей. "Поискать" в такой ситуации часто дает более удобоваримый консолидированный вариант. Те это задумывалось для людей.
Таким образом, с нескольких миллионов страниц с товарами есть ссылки на внутренний поиск вида: www.site.rrr/search/?q=артикул
Механизмы поиска изощренные, поэтому кроме страниц, четко соответствующих странице товара, существует практически бесконечное количество дополнительных страниц. Фактически, что ни напиши в поисковом запросе, что нибудь да сгенерится.
Сайту уже второй десяток лет, всяческие регалии типа ЯК, DMOZ, ТИЦ>1000 итп присутствуют. Видимо, траст все таки ненулевой.
Поисковый трафик 2-3 тысячи уников в сутки пополам с гугла и яндекса.
За время жизни проекта были эксперименты по индексации. На индексацию всегда отдавались только страницы из каталога товаров. Внутренний поиск НЕ индексировался.
Пробовал отдавать, как все артикулы без разбора, так и ограничивать их количество.
При индексации всего подряд яндекс уперся в 1млн страниц, гугл в 3-4 млн страниц. Это было года 3-4 назад.
Потом я прогнал кейколлектором все артикулы через мильен проксей по вордстату и выделил ядро в 100 тыс наименований, которые и отданы на индексацию сейчас. Независимо от количества страниц в индексе фактический поисковый трафик по порядку величины остается неизменным.
Пару лет назад, в качестве эксперимента отдал гуглу в индексацию результаты внутреннего поиска одновременно с каталогом. Суммарный трафик не изменился, но перераспределился по целевой странице и стал 2:1 в пользу страниц с внутренним поиском. Те гуглу больше нравятся эти страницы, что, впрочем, достаточно очевидно, тк на них больше контента и он более релевантен. В выдаче он часто показывает сразу обе страницы, а вебастертулзе поругивается на дубли тайтлов (они там одинаковые).
Теперь вопрос: Хочу отдать на индексацию гуглу именно все страницы с результатами поиска. И не отдавать их яндексу. Как это сделать лучше?
В robots.txt разделить их можно и запретить гуглу индексировать каталог, но тогда он не проиндексирует ссылки ведущие на результаты поиска, а их нужно откуда то брать. И внешних нет. А миллион ссылок с сапы не вариант.
Рассматриваю вариант поставить на карточке товара link rel=canonical на страницу с результатами поиска и для гугла открыть оба раздела. Но как отреагирует яндекс на то, что на его страницах стоит canonical на страницы, запрещенные для него, яндекса , к индексации?
И еще, в общем случае, страница товара не является дублем того, что сгенерит результат поиска. Страницы иногда могут отличаться очень сильно по объему. Правомерно ли вообще тут применять rel=canonical?
Если движок позволяет, можно прописать инструкции для каждого робота в самих страницах (в мета тегах).
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
Я бы в данном случае сделал пересмотр семантики и упор не на продвижение страниц товаров, а реализовал, так скажем лэндинг категории, с учетом оптимизации и внутренней перелинковки. Ну и как обычно, практически у любого проекта есть аналогичные - анализируйте как реализованы успешные сайты, применяйте у себя лучшее.
Если движок позволяет, можно прописать инструкции для каждого робота в самих страницах (в мета тегах).
Имеется в виду нечто типа <meta name="googlebot" content="noindex" />?
Но это от robots.txt реально мало чем отличается.
Более того оно так сейчас и сделано.
Яндексу только каталог, гуглю каталог и внутренний поиск. С яндесом все нормально, гугл, естественно, видит кучу дублей, кои хочется ликвидировать при помощи rel="canonical". Тут гугле будет хорошо, но что яндекс скажет на этот rel, который указывает на запрещенную для его индексации станицу? Вот в чем вопрос...
---------- Добавлено 20.05.2013 в 23:22 ----------
Я бы в данном случае сделал пересмотр семантики и упор не на продвижение страниц товаров, а реализовал, так скажем лэндинг категории
Нельзя ли немного развить эту мысль?
Приземлять поисковый трафик не на страницу товара, а на промежуточную страницу каталога с длинным списком этих кейвордов-товаров? Но их миллионы. Там плотность ключа будет фактически нулевая. Врят ли какой поисковик вообще сочтет такие страницы заслуживающим индексирования.
Независимо от количества страниц в индексе фактический поисковый трафик по порядку величины остается неизменным.
так может вы упёрлись в ёмкость рынка?
сами же говорили:
товары/детали сугубо промышленного назначения
у вас есть конкуренты?
у них больше трафика?
так может вы упёрлись в ёмкость рынка?
Не похоже. Ибо конкуренты есть и трафика у них больше.
и трафика у них больше.
как оценивали?
как оценивали?
Оценивал косвенно по открытым данным о посещаемости.
Она выше в 2-4 раза. При том, что по сути своей содержимое вообщем то достаточно однотипное.
гугл, естественно, видит кучу дублей, кои хочется ликвидировать при помощи rel="canonical"
Не задумывались о процессе?
Сначала сделать 100500 запросов (а ПС может сделать ограниченное их количество), потом понять, что индексить можно только 3% из этого...
Не задумывались о процессе?
С некоторых пор задумывался. Поэтому и ограничивал индексацию каким то относительно вменяемым ядром.
Вот только по поводу того, что индексить можно только 3% на данный момент уже есть обоснованные сомнения.
Лет пять назад квота на индексацию сайтов со стороны ПС была ярко выражена. Не знаю, что там у яндекса сейчас, но у гугла явно вижу, что квот в былом виде фактически нет. По запросу site:example.ru можно найти в индексе и 1 млн и 20 млн страниц. Причем там, где 20 млн, посещаемость однозначно выше по сравнению с тем, где 1 млн.
по поводу того, что индексить можно только 3%
Этот % в качестве примера... если боту приходится скачивать 100К страниц, из которых только у 3% нет <link rel="canonical" href="другой урл"/>, то какая будет скорость индексации?
Если бы вы боролись с дублями, то какой % дублей среди скачанных документов для вас означал бы, что сайт дальше индексить не надо? И вы бы делали при этом различие между 96.7% и 97.3?
У forum.searchengines.ru можно попытаться засунуть в индекс на порядок больше... вместе с дублями. Увеличит ли это траф с ПС?