easywind

Рейтинг
283
Регистрация
21.09.2009
zhukonet:
добрый день
сайт заказчика продвигается пол года
страницы попали в топ, но по некоторым словам никак не получается сдвинуться с 2-ой страницы
сейчас сайт работает так:

1)
с www и без
www.site.ru, site.ru
в гугле страницы в выдаче поиска выдаются с www , в яндексе без www

Про яндекс не скажу но вот

https://productforums.google.com/forum/#!search/с$20www$20или$20без/webmaster-ru/cx01d-bcvuM/L8DT041pR2UJ

ответ от работника гугла Андрея про ввв и без

часто читал в ВМТ такие вопросы. Советуют посмотреть какие страницы (с ввв или без) больше проиндексированны то и оставить. Не могу найти был ответ что www это не зеркало и не поддомен а просто префикс. Хранение в базах линка скорее всего идет в виде хеша отсюда и приключения.

SeVlad:
Уверен - логи расскажут.
Но в общем похоже на работу баннерорезалки.

или закешировалась страница без картинки.

djdiplomat, при POST кодировка таже что и страница с которой пост пришел. Милованов Ю.С правильно пишет если кодировка utf-8 (вот я попарился с этим) обязательно в начале страницы выдавать хеадер с кодировкой utf-8

september:
easywind, Какие требования? И без дескрипшн сайты нормально живут. Тем более, что на юкозе нужно выдумки выдумывать, чтобы получить дескрипшн и кивордс.

Требования ПС к сайтам. Как видно не все живут хорошо.

new player:
Подскажите, как закрыть дубли, если это интернет магазин построенный на GET запросах? Или хотя бы пример. Это вообще возможно?

типа страница одна но на нее разные ссылки с идентификаторами?

index.php?id1&id2

index.php?id1&id2&id3

например

прописать на пхп если в параметрах гет есть id3 вставлять тег ноиндекс

sesa:
Почему у моего сайта такие ничтожные переходы с гугла? С яндекса все нормаль, но вот для гугла я что то упустил или недопонял?Куплены пиаристые ссылки для гугла специально, все уник, в чем дело непойму! Спасибо!
сайт в подписи

А где дескрипшены для страниц? Вижу только на главной. Прямое несоответствие требованиям.

wulpus:
Все страницы прописать в robots.txt и тогда их и удалять не надо, если они интересны пользователям
Например имеем страницу krt.com/wordpressplugins/top10wordpressplugins.html
Тогда:
Disallow: /wordpressplugins/top10wordpressplugins.html
и так далее со всем копипастом

Гугловцы рекомендуют делать наоборот. Удалить запрет из роботс и на странице поставить ноидекс тогда страница уйдет из индекса. Иначе бот не будет на нее заходить но в индексе она будет так как проиндексированна раньше до запрета в роботс.

Limonadio:
А с каких это пор при смене дизайна меняются урлы? 🤪

ключевое слово "если" :)

не слухи и не за денги а http://www.google.com/trustedstores/

если урл при дизайне изменились то ничего удивительного.

Всего: 3692