- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго времени суток! скажите пожалуйста, действительно ли запрос в гугле "site:example.com/&" показывает сколько страниц не под фильтром? Если да, то как можно вывести страницы из-под него? у меня только 20% страниц не под фильтром (весь контент уникальный). Когда добавляю , то на следующий день по этому запросу (site:example.com/&) страницы появляются, а потом снова исчезают и появляются следующие.
Это не фильтр это сопли гугла, то есть те страницы, которые выводятся в поиске, более подробно почитайте тут https://www.google.ru/#hl=ru&newwindow=1&safe=off&biw=1366&bih=583&sclient=psy-ab&q=%D1%87%D1%82%D0%BE+%D1%82%D0%B0%D0%BA%D0%BE%D0%B5+%D1%81%D0%BE%D0%BF%D0%BB%D0%B8+%D0%B3%D1%83%D0%B3%D0%BB%D0%B0&oq=%D1%87%D1%82%D0%BE+%D1%82%D0%B0%D0%BA%D0%BE%D0%B5+%D1%81%D0%BE%D0%BF%D0%BB%D0%B8+%D0%B3%D1%83%D0%B3%D0%BB%D0%B0&gs_l=hp.3..0i30.2376.10908.0.11322.28.17.3.8.9.2.930.6035.0j3j7j3j1j1j2.17.0...0.0...1c.1.ftpoVCgusc4&pbx=1&bav=on.2,or.r_gc.r_pw.r_cp.r_qf.&fp=e2ea763d787864eb&bpcl=38626820
Вообще должен заметить в этой теме очень много противоречий. Сам анализировал свой сайт на предмет наличия страниц в дополнительном индексе. Насколько знаю раньше сопли проверяли другим запросом, а именно: site:site.ru/* Сейчас же этот запрос ничего не показывает, ну да ладно это не главное, интересно другое.
Обычный запрос через site:site.ru показывает мне 52 страницы моего сайта в индексе, запрос же site:site.ru/& показывает всего 32 страницы. Но, что самое интересное, все их тех страниц, которые якобы находятся в соплях имеют уникальный, качественно написанный человеческий текст, и некоторые из них даже вылезают в топ 20-30(сайт новый, коммерческой тематики) далеко не по самом низкочастотным запросам, в то время, как другие, которые якобы в основном индексе имеют далеко не такие хорошие позиция по разным, в том числе и низкочастотным запросам.
Также если проверять другим способом, а именно: вбить site:site.ru, пролистать до последней страницы, и там тыкнуть на надпись: "Чтобы показать наиболее значимые результаты, мы опустили некоторые, очень похожие на 52 уже показанных.Если вы хотите, можно повторить поиск, включив опущенные результаты."
То к 52 страницам прибавляется ещё 3, которые как раз-таки являются дублями, и по сути бесполезными страницами, которым самое место в соплях с моей точки зрения.
Так что по логике второй способ проверки показывает более реальную картину, а вот, как оно сейчас на самом деле фиг его знает)) Кто-нибудь владеет такой информацией?
Всем огромное спасибо!