- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго времени суток, уважаемые! Назрел такой вопрос. Есть подопечный - инет-магазин. Всего имеет он около 600 страниц (товарные позиции + категории + разные статьи, новости). Двигло - екоммерс, имеет собственный скрипт для создания карты сайта. Этот скрипт и отсылает посковикам искомые 600 страниц. Однако если заюзать сторонний софт, например гуглевый a1 sitemap generator - создаётся карта сайта на 3000 линков. Я так понимаю, там и копии и страницы "для печати" и страницы по запросам. Вот они-то как раз и не желательны? Ведь их значимость может быть низкой. Соответственно, ранжироваться они будут хуже? Или на пользу всё-таки? Например, около 2000 этих линков уже в индексе у гугля. У яндеха - как раз около 500 (видимо мусор отсеялся?)
Объясните пожалуйста кто в теме, на пользу или во вред такое количество?
Дубли закройте в файле robots.txt, в пользу они Вам точно не пойдут. Гугл проиндексировал больше потому что шустрее. Со временем и в Яндекс весь мусор попадет, если не сделать правильный роботс.
Объясните пожалуйста кто в теме, на пользу или во вред такое количество?
Главное не количество, а качество!
От дублей положительного ничего не может быть....
Весь мусор убирайте!
Дубли закройте в файле robots.txt, в пользу они Вам точно не пойдут. Гугл проиндексировал больше потому что шустрее. Со временем и в Яндекс весь мусор попадет, если не сделать правильный роботс.
А как это грамотно сделать? Там ведь, например страницы по запросами, такие
сайт/advanced_search_result.php?keywords=%D0%BE%D0%B1%D1%83%D0%B2%D1%8C%20%D0%BD%D0%B0%20%D0%BB%D0%B5%D1%82%D0%BE%20%D0%B8%20%D0%B2%D0%B5%D1%81%D0%BD%D1%83&search_in_description=&categories_id=0&inc_subcat=&manufacturers_id=0&pfrom=&pto=&dfrom=&dto=
сайт/advanced_search_result.php?keywords=%D0%BE%D0%B1%D1%83%D0%B2%D1%8C%20%D0%BD%D0%B5%D0%B4%D0%BE%D1%80%D0%BE%D0%B3%D0%BE
и ссылки на страницы "задай вопрос" вида
сайт/ask_a_question.php?products_id=53
сайт/ask_a_question.php?products_id=54
сайт/ask_a_question.php?products_id=55
сайт/ask_a_question.php?products_id=56
Подскажите пожалуйста, как этот мусор весь закрыть?
Нет.
дубли нужно убирать, страницу регистрации и т.д
это делается в роботс. да и...
noindex nofollow вам в помощь.
А как это грамотно сделать?
Вот таким вот образом можно закрыть страницы от индексации в ПС. Это нужно прописать в Robots.txt
User-agent: Yandex
Disallow: /advanced_search_result.php?*keywords=
Disallow: /ask_a_question.php?*products_id=
User-agent: *
Disallow: /advanced_search_result.php?*keywords=
Disallow: /ask_a_question.php?*products_id=
Подскажите пожалуйста, как этот мусор весь закрыть?
Disallow: /advanced_search_result.php*
Disallow: /ask_a_question.php*
Советую проверить путём добавления в addurl
Disallow: /advanced_search_result.php*
Disallow: /ask_a_question.php*
Советую проверить путём добавления в addurl
А ссылки такого вида
сайт/jeans-pants.html?on_page=10&page=6
сайт/jeans-pants.html?page=2
сайт/jeans-pants.html?page=3
сайт/jeans-pants.html?sort=name&direction=asc&on_page=10&page=2
правильно будет закрыть так?
Disallow: /jeans-pants.html?*
Будет ли индексироваться основная страница категории? - сайт/jeans-pants.html
А ссылки такого вида
сайт/jeans-pants.html?on_page=10&page=6
сайт/jeans-pants.html?page=2
сайт/jeans-pants.html?page=3
сайт/jeans-pants.html?sort=name&direction=asc&on_page=10&page=2
правильно будет закрыть так?
правильно будет закрыть так?
Disallow: /jeans-pants.html?*
Правильно.
Будет ли индексироваться основная страница категории? - сайт/jeans-pants.html
Будет.