- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вопрос по индексу:
Google показывает кол-во страниц в индексе и первые 1К страниц, у меня на сайте страниц больше чем 1К, но
меньше чем показывает в Google в общем кол-ве. Как найти мусор?
Не стоит доверять гуглу, когда он показывает количество страниц по site. Как-то обратил внимание, что на домене, на котором находилось ровно 10K статики он смело показывал что в индексе 15K страниц.
На самом деле вопрос с мусором довольно серьёзный. Мусор - это страницы исключённые из поиска. Такие страницы могут и показываться по /& и не показываться по /&. Как их отсеять даже из первой тысячи, мне не известно. Думаю что и ни кому не известно. Сниму шляпу и низко поклонюсь в ноги тому, кто смог бы рассказать как это сделать.
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
Как-то обратил внимание, что на домене, на котором находилось ровно 10K статики он смело показывал что в индексе 15K страниц.
Странно откуда тогда берутся цифры. WMT тоже верить нельзя. Получается никому нельзя, как же ж следить за сайтом..
У себя еще кроме мусора могу подумать на то что менялось много урлов (301 со старых) и они не успели склеиться, хотя все равно что-то многовато..
Может это число загруженных роботом страниц а не кол-во в индексе? На это кстати больше похоже.
Странно откуда тогда берутся цифры. WMT тоже верить нельзя. Получается никому нельзя, как же ж следить за сайтом..
У себя еще кроме мусора могу подумать на то что менялось много урлов (301 со старых) и они не успели склеиться, хотя все равно что-то многовато..
Может это число загруженных роботом страниц а не кол-во в индексе? На это кстати больше похоже.
Не утверждаю, но возможно бот считает ссылки на страницы, и не всегда успевает оперативно склеить ссылки с разных страниц на одни и те же страницы.
Думаю что и ни кому не известно. Сниму шляпу и низко поклонюсь в ноги тому, кто смог бы рассказать как это сделать.
такая же проблема... на сайте проиндексил откуда-то почти 3 мио страниц, с 170к. Траф падает. Откуда они и что это за страницы не могу понять, толи ошибки программеров, толи... Отсеивал страницы всеми известными мне вариантами site с inurl и тд., но так и не увидел мусор.
Отсеивал страницы всеми известными мне вариантами site с inurl и тд., но так и не увидел мусор.
Раньше inurl выдавал только те страницы, которые есть в поиске. Всегда пользовался им. Теперь и он выдаёт мусор.
это да, я просто чтобы найти мусор в индексе, делал что-то типа "site:seite.tld -inurl:", выяснил заодно, что больше 35 inurl проверить нельзя)