- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
У всех заработало?
У всех заработало?
p/s У меня только сканирует, но в поиск не добавил ещё не одной страницы
В настройках у меня пишет проблемы с роботс, так у всех?
открываем проблемную вкладку
На одном из проектов аналогичная ситуация. Роботс с ошибкой. Сайтмап, который всегда был помечен как "успешно" - красный. При этом валидатором проходится, роботам Гугла доступен. Материалы попадают в индекс выборочно и с задержкой. Условно. Из 40 в сутки 10 сразу, ещё 15-20 через день, а остальные вообще мимо. Не ищутся в поиске гугл ни по фрагменту, ни по заголовку. В Яндексе как было нормально все, так и осталось.
Второй проект - индексируется, роботс и сайтмап видит. В поиск гугл все попадает сразу. Но новых материалов нет в рекомендациях. Малые вплески по статьям 3-4-дневной давности. Разница с прежними показателями минимум в 10 раз.
На одном из проектов аналогичная ситуация
Роботс с ошибкой
но ошибки "нагрузки на хост" нету - верно ?
Верно, Владимир. У нас ошибки "нагрузка на хост" изначально и не было ни на одном портале.
Просто на первом сайте перестали индексироваться новые страницы (отвалился роботс и сайтмап). Они так и лежат до сих пор. Скрины прилагаю. Хотя сами страницы начали "проваливаться" в гугл. Но не все и не сразу. Пока закономерность понять не можем.
А на втором портале вообще не было никаких ошибок. Новые страницы просто перестали индексироваться. Отвалились гугл новости и рекомендации. Новые страницы не находились в гугл ни по фрагментам, ни по заголовкам. Только поиск старых страниц оставался.
А вот как у всех облегчение наступило, новые страницы стали индексироваться. Но по-прежнему не идут в гугл новости и рекомендации. Вернее идут, но раз в 10 хуже, чем было.
Посмотрим, что это даст.
Google перестал успешно обрабатывать sitemap с www в урле
Он всем так говорит в любой теме, просто привыкните к фоновому шуму
Более понятно, накатать сотню страниц в теме, дерзайте дальше💪
Яркий пример вашей лени, вместо погуглить, то что вам советовали
За ночь около 3000 страниц прошел по сайту.
У вас, что 3000 новых страниц на сайте???
Условно. Из 40 в сутки 10 сразу, ещё 15-20 через день, а остальные вообще мимо.
Это естественно, если он у вас будет по 3к страниц бегать, то и искать ему ваши 40 новых еще долго
а сам сайт с ввв ? тогда это некорректно , отправит страницы в редиректные
Спасибо, Владимир. Передам программисту. А у вас есть какое-то представление, почему может отвалиться www.? Причем не только на сайтмапе сказывается. Судя по логам, бот перестал вообще заходить на основной домен. А вот поддомены посещает регулярно.
Спасибо, Владимир. Передам программисту. А у вас есть какое-то представление, почему может отвалиться www.? Причем не только на сайтмапе сказывается. Судя по логам, бот перестал вообще заходить на основной домен. А вот поддомены посещает регулярно.
сложно сказать - такого ранее не встречал, были проблемы с картами, роботсом, индексом - что угодно. А вот что бы карту принимал без ввв - при сайте с ввв - первый раз такое слышу.
Инфо сайт ?
Ну да вам же лень понять, чтобы не было ошибок, ни сейчас ни в будущем, необходимо доработать сайт.
О какой доработке речь? Все работало больше десятка лет. А потом внезапно сломалось, когда с нашей стороны никто ничего не трогал? Так не бывает, это не мопед, который от старости может развалиться.
Sitemap доступен. Проходится валидатором и виден снаружи. Аналогично и robots.txt. Никаких ограничений со стороны сервера, провайдера нет.
Нет проблем с Яндексом.
А легло все во время последнего апдейта Google. И, как выясняется, прелести с файлом роботс не только у нас. Может быть, всё-таки, проблема не с нашей стороны? Вам так не кажется?
Но даже при этом мы готовы что-то исправить или как вы говорите "доработать". Знать бы только что.
P.s. В сутки на сайте появляется от 40 до 150 новых страниц.