- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
что есть "список вычитки" ?
по сабжу, народ индексит тонны саймэпами... я незнаю, может твои "списки вычитки" он и не индексит... :) и доказывать тебе я ничего не собираюсь... :) просто не пудри народу мозги такими заявлениями...
если есть сомнения, в любой момент можно нагуглить success story по сайтмепам от многих людей в самом гугле...
я не говорю что это происходит мгновенно... нет... нужно время гораздо большее чем линки с хороших сайтов...
что есть "список вычитки" ?
имелся в виду список страниц, которые роботы запланировали себе для crawling.
по сабжу, народ индексит тонны саймэпами...
есть примеры страниц засабмиченнх через sitemap без единой линки?
покаж.
если есть сомнения, в любой момент можно нагуглить success story по сайтмепам от многих людей в самом гугле...
что значит "если". предъяви пожалуста, раз наехал.
я не говорю что это происходит мгновенно... нет... нужно время гораздо большее чем линки с хороших сайтов...
ещё раз настаиваю на адресе страницы проиндексированной без единой линки через sitemap (разумеется в личку, чтобы первая ссылка не появилась здесь =)
по сабжу, народ индексит тонны саймэпами...
мне кажется что вы перепутали _google.com/webmasters/sitemaps с html-страничками состоящими из ссылок на ваши страницы. вот индексация через такую страничку с ссылками, расположенную где-то на фрихостинге это действительно распространённый способ максимально быстрой индексации, а google-sitemap имеет другую роль. Я им пользуюсь с момента его появления - специально внесённая туда страничка (без других ссылок на неё) до сих пор отсутствует в индексе гугла. если у тебя это получится - поблагодарю и признАю ошибочность своих выводов относительно роли sitemap в индексации.
smscat,
Конкретно за эту неделю: 4 дня назад добавил сайт в гугл, вчера поставил сайтмап. сегодня гугл сжевал 400 страниц.
smscat,
Конкретно за эту неделю: 4 дня назад добавил сайт в гугл, вчера поставил сайтмап. сегодня гугл сжевал 400 страниц.
они уже в индексе? =)
вот что пишет по этому поводу MattCuts
A: One of the classic crawling strategies that Google has used is the amount of PageRank on your pages. So just because your site has been around for a couple years (or that you submit a sitemap), that doesn’t mean that we’ll automatically crawl every page on your site. In general, getting good quality links would probably help us know to crawl your site more deeply. You might also want to look at the remaining unindexed urls; do they have a ton of parameters (we typically prefer urls with 1-2 parameters)? Is there a robots.txt? Is it possible to reach the unindexed urls easily by following static text links (no Flash, JavaScript, AJAX, cookies, frames, etc. in the way)? That’s what I would recommend looking at.
они уже в индексе? =)
Ну блин ты загнул 😆 Я же имел ввиду посещение роботом :)
Ну блин ты загнул 😆 Я же имел ввиду посещение роботом :)
ну посещение роботом ещё ничего не значит. особенно учитвая, что разные DC шлют разных роботов. так что всё-таки лучше дождаться когда страницы появятся в кэше. у меня вон на свежем сайте тоже ща в логах куча посещений робота, но посетители как ходили из гугла лишь по его rss и index.html так и ходят и в кэшах ДЦ всего 5 страниц (одна даже с ошибкой закэшировалась)
C момента добавления URL через
_ttp://www.google.com/addurl?q=http://www.xxxxxxx.ru/index.html&hl=en&dqq=
сколько времени должно пройти до прихода робота Googlе ?
Повесь линк на пару дней на какой нибудь раскрученный сайт и он быстренько появятся. Я как в логи посмотрю, такое впечатление, что гуглобот вообще с сайта не вылезает, да и остальные тоже постоянно шарятся. Уже 700 тыс. страниц натаскал и все ему мало. Причем робот совершенно тупой и если в адресной строке после знака вопроса новый символ появляется , то воспринимает как новую страницу. :)
Я как в логи посмотрю, такое впечатление, что гуглобот вообще с сайта не вылезает, да и остальные тоже постоянно шарятся. Уже 700 тыс. страниц натаскал и все ему мало. Причем робот совершенно тупой и если в адресной строке после знака вопроса новый символ появляется , то воспринимает как новую страницу.
Это не есть гуд. Может быть у вас старые страницы не экспайрятся?
Это не есть гуд. Может быть у вас старые страницы не экспайрятся?
Дело не в этом. Например есть страница с картинками www.page1.pl и на ней есть кнопка выключения картинок, при этом ссылка будет www.page1.pl?img=off . Фактически две одинаковые страницы, но для гугла две разных. При том что у меня на сайте порядка 200 тысяч реальных страниц у гугла числится больше 700 тысяч.
Что касается старых страниц, то на сайте каждый день появляется порядка двухсот-трехсот новых страниц и примерно на стольких же добавляется новый текст, так что есть что роботам сканировать.