- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго всем дня.
В общем есть простенький сайт на Вордпресс, на десяток страниц.
Домен в зоне .РФ, свежерег, раньше ни в чем замечен не был)
И вот уже месяц ни одна из ПС не хочет его индексировать. При этом в Гугле главная висит с надписью: "Описание веб-страницы недоступно из-за ограничений в файле robots.txt. "
Ну ладно Яндекс, с ним все понятно. Но привык что Гугл за месяц уж точно пару страниц, да съест.
Все перепроверил раз десять: В Роботсе, в панели Вордпресса, в настройках темы (хитрая она), везде открыто для индексации.
Ладно бы сайт был мой, а так делал человеку и он как бы спрашивает: Ну когда же?)
Первый раз столкнулся с таким, что бы Гугл не индексировал.
В чем может быть проблема? Или тупо ждать?
Сайт-то не закрыт в роботс, как пишет гугл ....?
При этом в Гугле главная висит с надписью:
"Описание веб-страницы недоступно из-за ограничений в файле robots.txt. "
В чем может быть проблема?
Выложите Ваш robots.txt в эту тему.
sear4er, Artisan, нет, не закрыт. В том то и дело, что с первого дня...как я открыл его от индексации, был стандартный Роботс для Вордпреса. У меня на этом движке десятки сайтов и он везде одинаковый, ни каких проблем.
Сейчас две недели он уже такой (называется: психанул и все открыл):
Disallow:
Там по сути на сайте и закрывать то нечего, сайт фирмы. Четыре странички с разной инфой + фотогалерея с проектами. В общем ни чего лишнего.
Redbaron_chaos, Ну если он у вас был закрыт от индекса при разработке, то это нормальное явление ... чуть дольше будет заходить в индекс. Потерпите.
А вообще лучший способ проверить всё ли нормально - зайти в логи и посмотреть ходят ли боты по внутрякам и какой ответ получают.
В общем ни чего лишнего.
Он весь лишний.
Disallow без пути можно
понять разными способами.
Для ясности оставьте в файле
robots.txt одну пустую строку.
Не надо вводить роботов
(и себя) в заблуждение.