- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Поможет ли создание полной xml-карты сайта (6 файлов по 50к урлов, объединеных индексным файлом)? Если поможет, то подскажите, где можно сгенерировать карту с большим количеством урлов?
Создание xml карты, поможет гуглу быстрее проиндексировать сайт, но на позиции это никак не повлияет.
как создать карту можно найти здесь https://www.google.com/webmasters/tools/docs/en/protocol.html
что касается того, что число проиндексированных страниц, то увеличивается, то уменьшается, так это нормально. гугл сначала хавает новые страницы, а потом их отфильтровывает.
наращивайте внешние ссылки и будет вам счастье 🚬
Я понимаю, что sitemap.xml никак не влияет на выдачу, но дело в том, что количество проиндексированных страниц резко сократилось с 50 тысяч до 6ти. Не говоря о том, что всего на сайте 300.000 страниц, и даже 50.000 проиндексированных меня не устраивает.
и даже 50.000 проиндексированных меня не устраивает.
чтобы затащить в индекс столько контента нужны не просто ссылки, нужны реально жирные ссылки... шестерки и семерки
раскручиваю проект с 500 тыс страниц с 7 субдоменами ... кол-во проиндексированнах страниц растет пропорционально росту ссылок на проект... новостная лента без проблем кушается гуглом каждые 2-4 часа ... а вот с товарами сложнее...
при создании карты xml выкиньте оттуда мало важные страницы оставьте только самое главное....
Т.е. гугл индексирует сайты в зависимости от их веса?
Я всегда думал, что вес страниц никак не влияет на индексацию.
Pavlick добавил 18.08.2008 в 20:35
Добавлю к слову, что видел проект, с PR4 главной страницы, где проиндексировано более 150.000 страниц.
Я понимаю, что sitemap.xml никак не влияет на выдачу, но дело в том, что количество проиндексированных страниц резко сократилось с 50 тысяч до 6ти. Не говоря о том, что всего на сайте 300.000 страниц, и даже 50.000 проиндексированных меня не устраивает.
не там копаете, чтобы загнать такое количество страниц в индекс, реально нужны очень жирные ссылки.
от карты сайта никакого толка не будет и страницы обратно в индекс не вернутся.
добавте отзывы о товарах (если еще не добавили - к примеру можно показывать последние 2-3 отзыва прям на страничке товара), страничка хотя бы из-за них станет интересна G
ну и ссылок побольше, точено по основным разделам
должно помочь
Вобщем итог такой: меняю контент, работаю дальше над ссылками, ну и все-таки не поленюсь сгенерить полную xml-карту.
Надеюсь поможет.
Всем спасибо за советы!
Pavlick, скиньте сайт в личку, посмотрю
Гугл сильно не любит недоступные страницы. Когда после серверного сбоя гугл не смог достучаться до страниц и они выпали из индекса, страницы вернулись в индекс только спустя почти год...
Сайтмеп для пробы скармливал иксмыльный и плейнтекстовый; плейнтекстовый принял менее охотно, но в итоге работает с ним ощутимо лучше; стабильно добавляет в индекс по несколько сотен страниц в месяц.
Вместо иксмыльного сайтмепа сделал rss и прилинковал на главной; гугла схомячила и совершенно спокойно индексирует новые страницы.