- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день!
Ранее в июле закрыл дубли страниц в robots.txt
/vakansii-v-minske?form_build_id=kbaxohdutmuzdcx
/vakansii-v-minske?page=27&form_build_id=
Прошел месяц. В поиске Google мало, что изменилось. Как было так и осталось около 1500 страниц дублей. По тексту страницы источника /vakansii-v-minske в поиске находится дубликат.
У страниц копий обнаружился pagerank 3.
По совету справки вебмастеров от Google, решил воспользоваться rel="canonical".
Прошел еще один месяц. Страницы переиндексировались с тегом, но изменений не произошло.
Недавно в панели вебмастеров внес изменения в "Параметры URL":
Прошла неделя, у страниц дублей пропал pagerank. Но из индекса они не выпали.
Я всё правильно делаю, ждать?
Так и жизнь пройдет в ожидании пока Google сообразит...
В "Оптимизация HTML" отображаются ошибки. Повторяющиеся заголовки (теги title). При просмотре страниц, ссылки на дубли.
Страница источник это лишь название одного из раделов сайта по которым в поиске есть дубли. На сайте таких страниц больше 100 и по каждой имеется своя копия в Google.
P.S: Yandex выкинул дубли на следующий ап после того как был добавлен тег.
Konstantin_, миллиард раз говорили, что делать надо. В панели ВМТ удалить левые страницы, бот перестанет на них "знать", соответственно не будет переходить и отображать в СЕРП.
Для справки в панели Google идите - оптимизация - удалить url - создать новый запрос на удаление. И, таким образом, удаляйте все ошибки из "оптимизации html".
Яндекс - это яндекс. Все что есть в индексе - участвует в поиске.
Гугл - в индексе может быть миллион страниц, а в основном - одна, которая и участвует в поиске.
Наберите в гугл site:сайт.ру/& - это и есть страницы, которые учувствуют в поиске.
Почитайте: основной индекс google, supplemental / сопли гугл.
===
Если я правильно определил ваш сайт, у вас:
1 660 - в основном, и 13 600 в "общем" индексе.
Яндекс - это яндекс. Все что есть в индексе - участвует в поиске.
Гугл - в индексе может быть миллион страниц, а в основном - одна, которая и участвует в поиске.
Наберите в гугл site:сайт.ру/& - это и есть страницы, которые учувствуют в поиске.
Почитайте: основной индекс google, supplemental / сопли гугл.
===
Если я правильно определил ваш сайт, у вас:
1 660 - в основном, и 13 600 в "общем" индексе.
Дело в том, что на сайте всего открыто для поиска 4000 страниц для индексации. Всё остальное это копии. Простым удалением проблему не получилось решить. Попробую в noindex закрыть.