Anibrut

Anibrut
Рейтинг
74
Регистрация
28.05.2014

Тогда не удалять /yandex создать /google/yandex и настроить 301 что бы перенеслись все пузомерки.

Windakolit:
Так вы проверьте, зачем спрашивать если можно на собственном опыте посмотреть?

Дк проверила же, нету там вкладки для H3 и др. А если они есть на сайте значит получается вручную нужно проверять. Думала может где-то есть какая хитростная настройка. А нетпик спайдер так вообще только H1 вычисляет.

Vadimich, solomono переадресовуется на что-то другое.

А как определить проводится ли закупка на сайт с Sape.ru и дугих, через автоматизированные сервисы Seopult.ru, и другие, проверить на ссылочные взрывы, и количества исходящих ссылок.

И еще, что такое спамность URL?

---------- Добавлено 27.07.2015 в 10:08 ----------

А есть что то из бесплатного?

Да и даже я подтвердила сайт на majesticseo.com - но выдает ошибку при проверке.

Alchemis:
ScreamingFrogSEOSpider выявит все дубли страниц.

Подскажите если бы были на сайте теги H3, H4 программа показала бы?

И еще, показало мне что есть теги Н2. Открываю страницу а там следующее:

<h2 class="cuprum">текст</h2>

Это разве тег? Или просто стиль так назвали, просто, насколько я понимаю если это был бы тег, то было бы просто <h2>текст</h2> верно?

Optismile:
Anibrut, в директивах Disallow у вас указано то что не должно индексироваться, а в Allow то что должно? Если да то, в приведённом при мере нет - /
И выглядеть тогда должно следующим образом:
User-agent: *
Disallow: /всякое указанно
Disallow: /всякое указанно
Disallow: /всякое указанно
Allow: /одна папка
Host: site.com
Sitemap: http://site.com/sitemap.xml

Извините забыла указать, поскольку ошыбку нашел данный валидатор после хост. / то как раз и есть.

Может какой то другой валидатор посоветуете? Проверила им еще один вполне хороший роботс - тоже самое пишет.

Здравствуйте, проверяю роботс валидатором http://tool.motoricerca.info/robots-checker.phtml.

Файл такой примерно:

User-agent: *

Disallow: всякое указанно

Disallow: всякое указанно

Disallow: всякое указанно

Allow: одна папка

Host: site.com

Sitemap: http://site.com/sitemap.xml

Под директивой Host следующая ошибка "Unknown command. Acceptable commands are "User-agent" and "Disallow".

Как ее исправить подскажите пожалуйста?

Gzas:
Все. Можно задать с параметры сканирования с учётом закрытых от индексации или нет. http://netpeak.ua/software/netpeak-spider/

Самые используемые редиректы 301 и 404 так ведь или вы еще какие-то используете часто?

И еще вопрос есть например сайт домен не переезжал, зачем тогда на нем настраивать 404 редирект? Есть еще какие-то варианты его использования?

Gzas:
Netpeak Spider

Он сканирует все страницы или только те, что в индексе?

Здравствуйте, подскажите пожалуйста, где в профиле увидеть историю купленных ссылок?

web2033, Спасибо

прописала

RewriteEngine on

RewriteCond %{HTTP_HOST} !^site\.com

RewriteRule (.*) http://site.com/$1 [R=301,L]

помогло.

Теперь еще для полного счастья каноникалами заняться нужно?

И вопрос еще, вот этот весь "мусор" хоть и переадресацыя стоит, но все же, он разве не собьет всю уникальность текстов?

Всего: 155