- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
FlyAway, а ты думаешь количество проиндексированных страниц зависит от количесива внешних ссылок? Первый раз о таком слышу, если не трудно поясни мысль.
ИМХО, чем больше внешних ссылок на сайт (с разных ресурсов=)), тем больше заходов ботов и индексаций страниц соответственно.
причем большую часть он в итоге склеит...
То есть? Что то не замечала я на том же озоне склееных страниц, может плохо смотрела?
ИМХО, чем больше внешних ссылок на сайт (с разных ресурсов=)), тем больше заходов ботов и индексаций страниц соответственно.
Опять же ИМХО:
Робот видит ссылку на сайт, идет по ней. Отдает ссылку индексатору, он приходит, индексирует, сколько считает нужным (есть же у него какой-то лимит на индексацию за один раз), что мешает ему вернуться и проиндексировать остальные, если на них есть ссылки с сайта и он еще по ним не ходил? :)
То есть? Что то не замечала я на том же озоне склееных страниц, может плохо смотрела?
Опять же ИМХО:
Робот видит ссылку на сайт, идет по ней. Отдает ссылку индексатору, он приходит, индексирует, сколько считает нужным (есть же у него какой-то лимит на индексацию за один раз), что мешает ему вернуться и проиндексировать остальные, если на них есть ссылки с сайта и он еще по ним не ходил? :)
Да я про склейку сказал потмоу, что в массе своей эти огромные сайты - кривые КМС...где куча одинаковых страниц
А у озона нету одинаковых страниц чтобы склеивать :)))
Для Гугла сделал Sitemap, загрузил- его приняли, написали OK, смотрю-в выдаче страниц ничего не изменилось- в индексе старые, которых уж нет.
Ждите, гугл не сразу добвляет в выдачу просмотренные им странички. Для собственного успокоения - посмотрите логи сервера, если Вы давно "кормили" его, то он уже должен был основательно погулять по сайту.
что мешает ему вернуться и проиндексировать остальные, если на них есть ссылки с сайта и он еще по ним не ходил? :)
То, что вначале по ссылкам должны пройти боты. Чем больше ссылок, тем больше заходов ботов, и шансов, что страница будет проидексирована быстрее. А значит быстрее учтутся ссылки на проиндексированной странице.
Возможно еще, скорость индексации зависит от веса ссылок.
Возможно еще, скорость индексации зависит от веса ссылок
Не думаю.
Чем больше ссылок, тем больше заходов ботов, и шансов, что страница будет проидексирована быстрее
Вообще мысль интересная... Хотя мне кажется, что время индексации не сильно уменьшится...
время индексации не сильно уменьшится...
Ну если боты и так не редко захаживали, то не сильно..
я скормил Яндексу некоторое количество страниц-вручную, и смотрю- он практически проиндексировал весь сайт-все 4000 страниц. Причем за 2 дня.
А Гугл не индексирует - хоть и кормил его sitemap....
Сайтмап построил с помощью http://www.scriptsocket.com/cgi-bin/sitemaps/generate.cgi
У меня вопрос - подскажите хороший скрипт для построения развернутой и подробной карты сайта - обычной, и подскажите-хороший сервис или скрипт для подробной sitemap