Наверное контент пи%*&^ный? Или автоматически сгенерированный?
Вообще удалил физически файл robots.txt. Я видел что гугл бот не может прокраулить файлы, закрытые в /wp-content/themes, которые частично отвечали за стили.
Хуже точно не стало. Наверное даже лучше, т.к. в индекс зашли тэги и по некоторым нч+ хвостам сайт занимает по 2-3 позиции в выдаче. Больше никаких мусорных страниц нет в индексе и даже в дополнительном.
Если страницу нужно закрыть, закрываю ее в админке с помощью плагина, без использования robots.txt
<meta name="robots" content="noindex" /> - кстати это самый надежный способ, даже лучше robots.txt
С яндексом не работаю, только гугл.
В этом и суть)
Была такая же проблема с WP шаблоном на блоге. В инструменте https://search.google.com/test/mobile-friendly была сказано, что вебсайт не оптимизирован под мобильное устройство.
Удалил полностью robots.txt - решил проблему. Изи ;)
А если серьезно, гугл уже очень давно и прекрасно знает архитектуру WP, чтоб не включать в индекс такие страницы как wp-admin или всякий мусор /trackback, /feed.
Вообще-то это открытая общедоступная информация, уже не один раз она даже публиковалась в этой теме:
/ru/forum/comment/15717854
vga1, ассессор не дает оценку самому сайту, не путайте. Это не FB и VK где есть лайк или дизлайк) Да и как ассессор, который может быть без высшего образования, и без технических знаний обязан объективно оценивать качество самого сайта и разбираться в его тематике?
Тема трастовых ресурсов подымается регулярно на западных форумах и блогах. Ни для кого не секрет сколько стоили ссылки с huffington post, forbes, businessinsider до 2015 года и сколько они стоят сейчас. Мало кто об этом скажет, но ссылки с этих сайтов перестали работать, как раньше.
Это же касается википедии и многих (не всех) .edu, .gov сайтов, где сеошники любили ставить ссылки, - веса они вам никакого не дадут. Многие из подобных ссылок могут быть полезны в виде какого-то сигнала для гугла, но не как основная ссылочная масса.
А теперь отвечаю на тот вопрос.
Глубокая страница даже на сайте nasa.gov может не иметь ни одной ссылки, нигде не ранжироваться и гуглом краулится крайне редко, и следовательно быть бесполезной в глазах поисковика. Вы ничего не заметите после того, как разместитесь на такой странице. Даже после 3-6-12 месяцев.
Если взять хороший, посещаемый портал с большой ссылочной массой и купить там гостевой пост - эффект от этой ссылки можно будет заметить иногда даже в первую неделю. На сайте nasa.gov понятно, что вы такое не провернете) В этом и является простое отличие.
Повторюсь, я работая только под западный рынок, и могу ошибаться относительно google.ru/ua - предпологаю сюда не все алгоритмы еще дошли.
Оно и не должно находить ваш сайт по двум строчкам отзывов, если вы не ищете через "ваш текст".
Есть понятие уникальность текста и его оригинальность (нетривиальность/необычность). Попробуйте написать один необычный, "хипстерский" отзыв с молодежным сленгом. Уверен увидите разницу.
Сильно в этом сомневаюсь;)
Я же уже ответил.
И да, многие по прежнему считают, что .edu; .gov домены являются трастовыми а значит "жирными". Только веса они вам никакого не передадут. Жирные доноры - это те, которые передают вам link juice.
Хотя не исключаю, что в рунете до сих пор гугл на уровне 2011 года и я не там пишу.
Это действительно нужно объяснять?
Какая ссылка по твоему больше передаст PR:
- ссылка с глубокой страницы, но с домена NASA.gov?
- ссылка в гостевом посте тематического сайта, опубликованная в главном разделе и главной странице?
Не знаю был ли у тебя такой опыт, но я например знаю ответ.
Еще лет 6-7 назад одна ссылка с Huffington Post могла сильно повлиять на ранжирование. Сейчас такая ссылка даже с точным анкором даст не более чем 0. Кто работает плотно в бурже, тот шарит почему сейчас так происходит.
Можно победить конечно.
Если у вас:
И других e-commerce факторов, которые явно можно улучшить.
А то, что я не говорю про 99% пострадавших инфосайтов, а привожу пример draxe на фоне healthline.