- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ввел в поисковой строке два слеующих оператора и вот что они показали :
1) site:сайт.ru/ - Результатов: примерно 1 150
2) site:сайт.ru/& - Результатов: примерно 229
- Видна большая разница в количестве страницах. Зашел во второстепенный индекс... а там висит много страниц :
1) Закрытых в robots.txt
2) Направленных redirect'ом 301
3) Страницы (ошибка 404)
4) Старые страницы-дубли.
- Как я понимаю... самостоятельно удаляются из второстепенного индекса только страницы с ошибкой 404. Правильно?
- Как лучше поступить с другими? Удалять вручную из индекса?
- При переходе на новые урлы...раньше делал массовые редиректы 301... так в этом второстепенном индексе висят результаты старых страниц (со старыми тайтлами и дексрипшнами), но направленные на правильные, урлы. Как в этом случае грамотнее поступить? ?
Первый результат это страницы в индексе а второй - странице в поиске. Дубли убирайте, 404 убирайте. Самостоятельно ничего не удаляется, все надо делать руками.
Не трогайте ничего, только время потеряете и расстроитесь когда не получится удалить страницы.
1) Закрытых в robots.txt
уже мозоли на пальцах... роботс только сканированием управляет, а не идексированияем как у яши. Если закрыли, то не уделится из индекса.
А у Яндекса есть дополнительный (второстепенный) индекс? Кто знает? :)
А у Яндекса есть дополнительный (второстепенный) индекс? Кто знает? :)
Нет. У Яндекса всё проще: страница либо есть в выдаче, либо ее нет. У гугла всё что в индексе потенциально может быть и в выдаче, просто малополезные страницы он отображает в дополнительной выдаче (supplemental). Трафик на страницы в supplemental выдаче ничтожно мал, потому это аналогично тому, если бы в гугле вовсе не было таких страниц.
В соплях обычно дубли, копипаст и малоинформативные страницы и обычно там все то, чего в поиске и не должно быть. Так что, если с сайтом нет никаких проблем, то и волноваться по поводу разницы страниц в основном индексе и соплях незачем (это нормально).
Ну что-то наподобие все-таки есть. На 1 странице результатов поиска Найдено: 500. Листаешь до последней страницы - найдено (к примеру) 350. Можно предположить, что 150 страниц в "соплях", т.к. поиск по релевантности документов.
А в Яндексе операторы : 1) site:сайт.ru/ и 2) site:сайт.ru/& - показывают одно и то же количество ответов (страниц в поиске).
А как посмотреть количество страниц в индексе Яндекса? Здесь оператор не работает, как в Google. Или 1) страницы в поиске и 2) страницы в индексе в Яндексе одно и то же понятие?
Заблуждение.
А как посмотреть количество страниц в индексе Яндекса?
Проиндексированные страницы - это все страницы, которые обошел робот. Страницы в поиске - те из них, которые участвуют в поиске. Посмотреть в Яндекс.Вебмастере можно. Но это не сопли.
На счет соплей как в гугле, в яндексе такого нет. Но, по моим наблюдениям, если при поиске по сайту есть разница в найденном на 1-й странице результатов и последней - эти страницы, которые дают разницу, так же не дают трафик. Пример: раз, два.
Прошло время... снова проверил страницы... и вот что получил:
1) site:сайт.ru/ - Результатов: примерно 1 190 (больше на 40 страниц стало)
2) site:сайт.ru/& - Результатов: примерно 227 (меньше на 2 страницы)
Хотя вручную удалял дубли через вебмастер....
Вот не пойму одного, Гугл говорит, что он автоматически удаляет страницы с ответом 404. Таких страниц среди этих 1 190 ...наверное 50%. Но на деле, ничего не удаляет, а второстепенный индекс забит этим всем... что тормозит ранжирование. 1. Как быть с этим? Просто забить или до конца ковыряться с этими дублями существующими и страницами 404?
2. Почему гугл формирует новые дубли....из страниц которые закрыты для индексации в роботс.тхт?
Вот, например, в роботс закрыта корзина (cart), но стоит в поиске вписать (site:site.ru/cart). Сразу формируется большой список страниц в таком стиле :
Кликаешь по одной из этих ссылок, выдает реальную страницу, с таким же урлом.... но вот с такой штуковиной (взаимодествие с корзиной) :
Заходишь на сайте отдельно на эту страницу (под точно таким же урлом), она выглядит также, но уже без всяких окон связанных корзиной.
3. Урлы страниц абсолютно одинаковые, но в поиске висят как отдельные страницы : одна оригинальная, а другая под влиянием корзины. Можно ли считать это дублями?