- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
1.Сайт является динамическим, при генерировании карты сайта имеем более 30 тысяч страниц. Причем с реально уникальным контентом где-то 5 тыс. страниц.
Остальные – это очень подобные между собой страницы – появляются потому что на сайте есть много методов фильтрации информации (по регионам, по компаниям, по деятельности). То есть та же информация но в разных комбинациях.
Стоит ли в карту сайта давать все сгенерированные страницы? «Съест» ли их всех Гул, или он будет выбирать более важные? Конечно хочется добавить все, но не отсеет ли он реально полезные ссылки? Проиндексирует ли все?
2. Нужно ли со временем обновлять карту сайта что загружена?
На нескольких сайтах гонял Sitemap, и каждый раз убеждался, что он создал специально для e-commerce. Как пример, на сайте с количеством страниц приближающимся к миллиону, Гугль все занес в базу за две недели, при том что раньше это число не превышало пятидесяти тысяч.
Если контент позволяет и риск попасть под дубляж не высок, то Sitemap творит чудеса.
Стоит ли в карту сайта давать все сгенерированные страницы? «Съест» ли их всех Гул, или он будет выбирать более важные? Конечно хочется добавить все, но не отсеет ли он реально полезные ссылки? Проиндексирует ли все?
стОит! Именно все страницы давать в Sitemap!
Недавно обратил внимание, что Гугл мой сайт больше Яндекса любит, хотя аудитория российская нужна. Был на 38-ом месте по ключевику. Сейчас почитал тут форум - сделал SiteMap, залил его в Гугл, сделал подтверждение через тэг.
В итоге сразу после этого сайт взлетел до 12-ой позиции, а через полчаса вот проверил он на 10-ой уже. Причём сайт большой уже довольно и его основа - форум.
Вывод: регистрируйтесь в Гугле и делайте SiteMap, сразу вверх. Или Гуглу понравилось, что владелец сайта в нём верификацию произвёл? Хм 🚬
Вывод: регистрируйтесь в Гугле и делайте SiteMap, сразу вверх. Или Гуглу понравилось, что владелец сайта в нём верификацию произвёл? Хм 🚬
Любая адаптация под Гуглевские фичи будет всячески
им же и поощряться.
Любая адаптация под Гуглевские фичи будет всячески
им же и поощряться.
но не надолго
но не надолго
Вы про то, что потом у дублей судьба не завидная, что с ними не делай?
Вы про то, что потом у дублей судьба не завидная, что с ними не делай?
... и это то-же ..
а вообще я об общих тенденциях - не надо переоценивать
но не надолго
Плчему? Если Гугль возьмёт курс на белый Интернет
(Интернет 2), то в скором времени в серпе могут
остаться только "белые" сайты, прошедшие паспортизацию,
прописку, идентификацию и т.д.
А по логике вещей с учётом событий в Мире эта утопия
может стать РЕАЛЬНОСТЬЮ!
Плчему? Если Гугль возьмёт курс на белый Интернет
(Интернет 2), то в скором времени в серпе могут
остаться только "белые" сайты, прошедшие паспортизацию,
прописку, идентификацию и т.д.
а что мешает паспорт получить дору ?
ну конечно он сначала будет выглядеть совсем не дором :)
Там где пехота не пройдет
и бронепоезд не промчится,
там с дором Greenwood проползет
и ничего с ним не случится...
сорри за оффтоп, не удержался