- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Господа! Уже месяц как не прибавилось ни одного бека.
То быстробот каждый день что то находил.... Работы не прекращались ни на один день. Подскажите: В чем может быть причина?
Наблюдал схожую картину. Но потом произошел пересчет тИЦ и закралось подозрение что его расчитывали по другому количеству беков! Поэтому думаю, что то показывает яша по бекам не всегда отражает действительность.
Может я ошибаюсь?
Наблюдал схожую картину. Но потом произошел пересчет тИЦ и закралось подозрение что его расчитывали по другому количеству беков! Поэтому думаю, что то показывает яша по бекам не всегда отражает действительность.
Может я ошибаюсь?
То что Яша не показывает все беки это понятно. Почему перестал ходить быстробот? Контент каждые два дня добавляется...
а вы пробовали закрывать старые, уже проиндексированные страницы в robots.txt ? Может быть сайт у вас разросся, и стоит сделать чтобы они не тратили время на страницы, на которых контент не меняется
а вы пробовали закрывать старые, уже проиндексированные страницы в robots.txt ? Может быть сайт у вас разросся, и стоит сделать чтобы они не тратили время на страницы, на которых контент не меняется
Сами вдумайтесь в то, что написали....
Уже месяц как не прибавилось ни одного бека.
По моим проектам прирост бэков идет, но не существенный, бывает так, что с десяток другой вылетают... не знаю с чем это связывать, но с начала июля Яндекс ведет себя странно...
Сами вдумайтесь в то, что написали....
Чем выше доля неизмененных страниц, тем меньше по мнению поисковой системы, изменяется сайт.
Следовательно и быстроробот может перестать заходить
.......................
LEOnidUKG, очень весомый коммент!
Насчет быстроботов - это конечно к Яндексу. Но лучше развивать проект, чтобы быть готовым к новому приходу бота! :)
P.S. А по мне, так яндекс странно себя ведет с июня!
Чем выше доля неизмененных страниц, тем меньше по мнению поисковой системы, изменяется сайт.
Опять же чушь...
Есть у меня проекты с несколькими десятками тысяч страниц которые были добавлены давно, есть новые страницы, индексируются они без проблем и задержек.
Чем чаще на сайте обновляется контент и добавляются новые страницы, тем чаще можно увидеть и роботов ПС поедающих свежий контент.
а вы пробовали закрывать старые, уже проиндексированные страницы в robots.txt ?
А это Вы как представляете?
Размер этого файла после закрытия десятка тысяч страниц будет немного великоват ;)
Опять же чушь...
Есть у меня проекты с несколькими десятками тысяч страниц которые были добавлены давно, есть новые страницы, индексируются они без проблем и задержек.
Чем чаще на сайте обновляется контент и добавляются новые страницы, тем чаще можно увидеть и роботов ПС поедающих свежий контент.
Я рад за вас что у вас есть такие проекты. Привожу цитату из книги Ашманова:
Мы с вами не поняли друг дргуа: я имею ввиду закрывать от индексации служебные страницы: версии для печати, страницы с комментариями и тд
А это Вы как представляете?
Размер этого файла после закрытия десятка тысяч страниц будет немного великоват ;)
Можно так организовать структуру, что не нужно будет десятки тысяч страниц закрывать в роботсе.
Вот еще мысль: