- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На днях залил себе робот.тхт а сегодня гугол веб мастер сказал что больше 300 ошибок индексации.
Посоветуйте что там не так http://soft-b.ru/robots.txt
Дык Гугл сначала схавал все-все-все, а теперь Вы ему запретили индексировать большую часть того, что он уже видел.
Там можно посмотреть по каждой из ошибок чем она вызвана. Возможно он находит ссылки на запрещенные страницы в файле сайтмап, или вообще в интернет, или на самом сайте. С файлом вроде как порядок. Так что просто ждите, когда запрещенные страницы отвалятся.
Я избавился от этого так: в Инструментах веб мастеров гугла выбирай: Состояние--Ошибки сканирования--Отметить как исправленные (проставь галочки). Через пару дней эти ошибки исчезают. Но, естественно в выдаче закрытые директивой "Disallow: /" страницы не появятся.
---------- Добавлено 26.05.2012 в 17:43 ----------
Я писал ошибок.
А точнее после устоновки робот тхт пишет (Предупреждений)
сделал скрин
что делать?
подскажите
как-то странно 1-й сэйтмап выглядит. Файл должен быть один и в формате xml. И пропиши ОДИН этот файл в robots.txt, как карту сайта. А то робот, похоже, у тебя теряется. Повторюсь: у меня были похожие проблемы, после описанных действий все стало ровно. В твоем случае: не панацея, но, надеюсь, поможет.
у меня их два.
типа архив и просто XML
подскажите
aca85, а подскажите нам при чем тут роботс если предупреждения стоят напротив файлов sitemap? Хорошо еще что скриншот догадались сделать, а то бы гадали что там гоголь говорит.
Файл должен быть в формате xml
В сжатом формате тоже можно http://www.sitemaps.org/protocol.html#index
aca85, а подскажите нам при чем тут роботс если предупреждения стоят напротив файлов sitemap? Хорошо еще что скриншот догадались сделать, а то бы гадали что там гоголь говорит.
В сжатом формате тоже можно http://www.sitemaps.org/protocol.html#index
То есть один можно удалить?
В яше я тоже два добавил
наличие ошибок индексации - нормальное явление
наличие ошибок индексации - нормальное явление
То есть один можно удалить?
или пусть два и робот тхт