AndJy

Рейтинг
7
Регистрация
04.07.2016

Спасибо за не равнодушие!

Первое что приходит в голову - на страницу заходят по другим каким то запросам.

Действительно, если сделать на странице метрики -

"Точка входа" - это "Страница входа" +

Группировка = "Поведение" + "Страница входа"

Имеем - показ страниц и запросов, по которым были заходы на страницу.

И эти запросы, действительно, не те, что я приготовил, какие то другие.

Еще можно сегментировать - поставить сравнение, н-р, этого месяца с предыдущим.

Но как к этому в метрике добавлять РЕЛЕВАНТНОСТЬ ??? Это Мегаиндексом попахивает. Как это сделать в метрике?

И потом, стоит ли опираться на такой скользкий критерий - бросаться оптимизировать страницу под "новые запросы". Если через месяц "новые запросы" угаснут и будут работать "еще более новые запросы" для страницы, то и через месяц снова надо оптимизировать страницу? И так постоянно?

Подскажите, пожалуйста, как же увидеть скрытые внешние ссылки на сайте, которых яко бы много?

---------- Добавлено 19.01.2017 в 14:25 ----------

Xenu

Такие ссылки с сайта есть, но эти ссылки закрыты от индексации тегом <noindex> </noindex> и не должны быть проблемой.

Проблема снова становится не видимой....

Спасибо за отклики.

1. google page speed – скорость загрузки? Консоль www.google.com/webmasters показывает выдачу сайта в гугле на запросы в топе Тут порядок. Не порядок с выдачей в яндексе.

2. Ошибки в тексте просмотрю.

3. скрытые ссылки на сайте. https://a.pr-cy.ru пишет что сайт оптимизирован на 78% и видит только 1 внешнюю ссылку. Это же не проблема. Xenu использовать?

4. По данным text.ru заспамленность текстов 40-50%, я считал, что это допустимо…

Привет всем!

Прошу помощи с редиректами.

1. Если внесены новые записи в .htaccess с редиректами, через какое время будет результат?

2. Можно ли прописать редирект для группы страниц одной категории одной строкой?

По данным https://webmaster.yandex.ru/ есть ссылки на несуществующие страницы.

При этом такие страницы можно сгруппировать по категорим, например, -

в категории vidy-proverok-na-poligrafe (http://site/nashi-uslugi/vidy-proverok-na-poligrafe/) - 7 не существующих страниц.

Можно ли прописать общий редирект для страниц этой категории одной строкой:

RewriteCond %{HTTP_HOST} ^site/nashi-uslugi/vidy-proverok-na-poligrafe$ [NC]

RewriteRule ^(.*)$ http://1-poligraf.ru/$1 [R=301,L]

Или надо прописывать редирект для каждой 7 страниц отдельно –

RewriteCond %{HTTP_HOST} ^ site/nashi-uslugi/vidy-proverok-na-poligrafe/proverki-domashnego-personala$ [NC]

RewriteRule ^(.*)$ http://site/$1 [R=301,L]

---------- Добавлено 12.01.2017 в 18:05 ----------

По 301 - мне кажется надо по отдельности. Но лучше всего всегда закрыть роботс так как мне кажется много редиректов на один адрес может и его как то дискридетировать (лично мои не подтвержденные подозрения).

Спасибо... будем думать...

Как сформировать семантическое ядро для нового сайта, если речь идет о тех же

самых услугах? Сейчас ключевые запросы для 1 и 2 сайта одни и те же, тексты

написаны под эти КЗ.

Нужно два работающих, продвигаемых сайта. Один - продающий, другой - больше информационный.

Вы не знаете где можно скачать русско язычную версию Netpeak Spider, а то скачивается и устанавливается только на английском?

Здравствуйте.

Подскажите, пожалуйста, что значит фраза "переспамленный keywords". т.е. есть и не переспамленный keywords? В чем разница, в том , что не переспамленный можно использовать?

Попробовал. Исправленный файл robots.txt простым способом "скопировать, в хостинге в корневой папке кликнуть правой кнопкой - вставить" не получается. В корневую папку WWW файлы вставляются каким то другим способом? Как это сделать?

Привет всем!

Прошу помощи. Некоторые страницы закрыты для индексации в robots.txt. Нужно открыть 4 закрытых страницы. Делается это в FilleZilla.

У меня эта прога пока не может соединиться с сервером. Вопрос -

Если филязиля не работает (нет соединения с сервером), то может быть сработает другой вариант для того, что бы разрешить к индексации нужные страницы сайта в robots.txt:

1. Скачал с хостинга файл robots.txt

2. открыл его в notepad++

3. удалил строки тех страниц, которые нужно открыть для индексации

Например, Disallow: /nashi-preimushestva/otzyvy-i-blagodarnosti.html

4. удалить с хостинга файл robots.txt

5. загрузить на хостинг вместо удаленного robots.txt исправленный файл robots.txt

Это сработает? Страницы откроются для индексации?