Спасибо за не равнодушие!
Первое что приходит в голову - на страницу заходят по другим каким то запросам.
Действительно, если сделать на странице метрики -
"Точка входа" - это "Страница входа" +
Группировка = "Поведение" + "Страница входа"
Имеем - показ страниц и запросов, по которым были заходы на страницу.
И эти запросы, действительно, не те, что я приготовил, какие то другие.
Еще можно сегментировать - поставить сравнение, н-р, этого месяца с предыдущим.
Но как к этому в метрике добавлять РЕЛЕВАНТНОСТЬ ??? Это Мегаиндексом попахивает. Как это сделать в метрике?
И потом, стоит ли опираться на такой скользкий критерий - бросаться оптимизировать страницу под "новые запросы". Если через месяц "новые запросы" угаснут и будут работать "еще более новые запросы" для страницы, то и через месяц снова надо оптимизировать страницу? И так постоянно?
Подскажите, пожалуйста, как же увидеть скрытые внешние ссылки на сайте, которых яко бы много?---------- Добавлено 19.01.2017 в 14:25 ----------Xenu
Такие ссылки с сайта есть, но эти ссылки закрыты от индексации тегом <noindex> </noindex> и не должны быть проблемой.
Проблема снова становится не видимой....
Спасибо за отклики.
1. google page speed – скорость загрузки? Консоль www.google.com/webmasters показывает выдачу сайта в гугле на запросы в топе Тут порядок. Не порядок с выдачей в яндексе.
2. Ошибки в тексте просмотрю.
3. скрытые ссылки на сайте. https://a.pr-cy.ru пишет что сайт оптимизирован на 78% и видит только 1 внешнюю ссылку. Это же не проблема. Xenu использовать?
4. По данным text.ru заспамленность текстов 40-50%, я считал, что это допустимо…
Привет всем!
Прошу помощи с редиректами.
1. Если внесены новые записи в .htaccess с редиректами, через какое время будет результат?
2. Можно ли прописать редирект для группы страниц одной категории одной строкой?
По данным https://webmaster.yandex.ru/ есть ссылки на несуществующие страницы.
При этом такие страницы можно сгруппировать по категорим, например, -
в категории vidy-proverok-na-poligrafe (http://site/nashi-uslugi/vidy-proverok-na-poligrafe/) - 7 не существующих страниц.
Можно ли прописать общий редирект для страниц этой категории одной строкой:
RewriteCond %{HTTP_HOST} ^site/nashi-uslugi/vidy-proverok-na-poligrafe$ [NC]
RewriteRule ^(.*)$ http://1-poligraf.ru/$1 [R=301,L]
Или надо прописывать редирект для каждой 7 страниц отдельно –
RewriteCond %{HTTP_HOST} ^ site/nashi-uslugi/vidy-proverok-na-poligrafe/proverki-domashnego-personala$ [NC]
RewriteRule ^(.*)$ http://site/$1 [R=301,L]---------- Добавлено 12.01.2017 в 18:05 ----------По 301 - мне кажется надо по отдельности. Но лучше всего всегда закрыть роботс так как мне кажется много редиректов на один адрес может и его как то дискридетировать (лично мои не подтвержденные подозрения).
Спасибо... будем думать...
Как сформировать семантическое ядро для нового сайта, если речь идет о тех же
самых услугах? Сейчас ключевые запросы для 1 и 2 сайта одни и те же, тексты
написаны под эти КЗ.
Нужно два работающих, продвигаемых сайта. Один - продающий, другой - больше информационный.
Вы не знаете где можно скачать русско язычную версию Netpeak Spider, а то скачивается и устанавливается только на английском?
Здравствуйте.
Подскажите, пожалуйста, что значит фраза "переспамленный keywords". т.е. есть и не переспамленный keywords? В чем разница, в том , что не переспамленный можно использовать?
Попробовал. Исправленный файл robots.txt простым способом "скопировать, в хостинге в корневой папке кликнуть правой кнопкой - вставить" не получается. В корневую папку WWW файлы вставляются каким то другим способом? Как это сделать?
Прошу помощи. Некоторые страницы закрыты для индексации в robots.txt. Нужно открыть 4 закрытых страницы. Делается это в FilleZilla.
У меня эта прога пока не может соединиться с сервером. Вопрос -
Если филязиля не работает (нет соединения с сервером), то может быть сработает другой вариант для того, что бы разрешить к индексации нужные страницы сайта в robots.txt:
1. Скачал с хостинга файл robots.txt
2. открыл его в notepad++
3. удалил строки тех страниц, которые нужно открыть для индексации
Например, Disallow: /nashi-preimushestva/otzyvy-i-blagodarnosti.html
4. удалить с хостинга файл robots.txt
5. загрузить на хостинг вместо удаленного robots.txt исправленный файл robots.txt
Это сработает? Страницы откроются для индексации?