- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Друзья, подскажите плз, это какие-то грабли у меня или это нормальное явление по сроку индексации? Агент Yandex/1.01.001 (compatible; Win16; I) уже 23 тысячи с лишним страниц проиндексил (полагаю, что это быстроробот). А в индексе сайта до сих пор нет, уже четвертая неделя пошла, как я открыл доступ для ботов по роботс.тхт и начала регать сайт по каталогам. Поиск по адресу дает такой результат на первой странице: Результат поиска: страниц — 432, сайтов — не менее 140. Т.е. беки регаются нормально, а сайта до сих пор нет. :( Может это такой резвый бан - по каким-то своим параметрам ПС определила недопустимость сайта в своем индексе? Сайт - партнерка интернет-магазина, но на нем все по-пацански - SEF-ссылки, титлы более-менее уникальные, но морда не очень замаскирована, есть некоторая похожесть по контенту, мож из-за этого? Есть ли смысл зарегаться через адурилку или еще можно подождать, допустим, с учетом времени на регистрацию в оставшейся части базы каталогов?
З.Ы. На удивление самый резвый (по сроку индексации и количеству страниц в индексе) оказался Рама - 3031 страница. У Гугли всего 65.
Соответственно, имеет ли смысл для ускорения индексации страниц в Гугле и в других ПС генерить карту сайта или пустая затея (типа, со временем все проиндексируются)? И каким инструментом для этого лучше воспользоваться?
Спасибо.
З.Ы.Ы. Полагаю, тема наверняка уже обжевывалась подробно и не раз. Если кто знает, а писать лень, тыкните носом в ссылку.
Видимо не совсем по теме ветки, поэтому эту же тему создал в разделе Яндекса
Друзья, подскажите плз, это какие-то грабли у меня или это нормальное явление по сроку индексации? Агент Yandex/1.01.001 (compatible; Win16; I) уже 23 тысячи с лишним страниц проиндексил
[off] Господа, делаем сайты для людей по 23 тысячи страниц [/off]
Я заметил одну деталь, маленькие (до 100 страниц) сайты яша хавает мигом и они попадают в серп и на хорошие позиции в яндексе. Как только количество страниц переваливает за 1 000, то попадание в серп откладывается на несколько апдейтов. Наверное есть такой фильтр, что не может сайт для людей сразу иметь больше какого-то определенного числа страниц (больше тысячи например), что вполне логично.
Lenin123, у меня, к сожелению, таких наблюдений нет ;) в последнее время очень туго новые мои сайты "влазят" в индекс, хоть маленькие, хоть большие...
Stabilizator, давно сайт начали продвигать? Из методов продвижения только каталоги используете?
Lenin123, с моими наблюдениями - мало совпадения.
Многостраничные доры по 1500 страниц за ап вылазят.
Маленькие беленькие со скрипом.
Правда, в последний ап порадовала адурлка (вылезло всё, что толкал через неё).