Лёлик2

Рейтинг
118
Регистрация
26.01.2008
psyho0000freak:
что есть "правильные анкор"

По-моему, это уже общепринятый, не побоюсь этого слова, термин.

Видимо автор имеет ввиду точные ... прямое вхождение))

именно это.

Alipapa:
Возможно, что страницы удалили, а ссылки на них по сайту есть. Или еще что-то, связанное с ошибками внутри сайта, но никак не с внешними ссылками.

По сайту точно нет, там где стояли ссылки на старые страницы сейчас ссылки на новые страницы.

Никаких других претензий поиндексации не Вебмастере Яши ни Гугла не отображается.

Славка:
А нахрена вы старые статьи удаляли?)) Реально какая цель была? они мешали чтоли?

Сайт это бизнес-каталог одной из отраслей нашего города. Фирмы размещаются платно, люди получают все предложения по теме в одном месте. Можно смело сказать что сайт СДЛ.

Те фирмы уже перестали работать, а поскольку сайт СДЛ, то не хотелось бы чтобы эти страницы выдавались в поиске и поведенческое было плохое.

Т.е. это не статьи были, а страницы фирм, да у них вес нарос за два года, но что делать, просто если бы это плавно было, то было бы все ок, а тут 93 страницы резко раз и ушло, плюс начитался последних заявлений от пресс-службы гугла и вообще страшно стало, а вдруг это не из-за удаления страниц, в Яше ведь место не поменялось!

Может проблема в этом? Вы структуру случайно не меняли?

Структура не поменялась.

И гуглу на удаленный контент лучше 410 отдавать, быстрее отвяжется. Иначе, еще 2-6 месяцев будет выплевывать 404 на убитые страницы.

Пока решил запретить доступ к старым страницам в robots.txt может поможет.

Ушат:
зачастуб лучше придерживаться страты: работает? - не трогай

Мне нужны более высокие позиции чем была 8-я, так что я не зря взялся однозначно!

Я создавал тему чтобы услышать мнения профи: из-за ссылок с анкерами или из-за удаления 93-х (70%) страниц сайта, которые гугл теперь ищет усердно. Ему дали 38 новых + 10 статей, но может ему мало!

Сделал супер, написал качественно, доноры хорошие, все вау, вау вау а оно паломалось.

Я действительно все сделал правильно, единственное не знал, что с анкорами теперь шифроваться надо!

mhz:
Советую выхватывать из урла значение параметра (ref) и вешать юзеру куки, а с урла http://site.ru/page?ref=xxx делать 301 редирект на http://site.ru/page.

Что мне как-то стремно так делать, когда тысячи "разных" страниц сайта будут редиректы делать, боюсь вообще может быть неадекватная реакция поисковиков.

Пропишите canonical для этих страниц и не заморачивайтесь.

canonical это вроде для гугла.

Поддержка ответила:

У Вас все настроено правильно. К сожалению, директива Clean-param: не учитывается нашим быстрым роботом, в связи с этим страницы с параметрами могут на некоторое время попадать выдачу. Чтобы избежать подобных ситуаций, Вы можете запретить индексирование данных страниц, воспользовавшись правилом Disallow:, например: 

Disallow: /*?ref=

Но в этом случае мне кажется не будут учитыватся ссылки рефералов в плане SEO страниц на которые они ведут. Я прав?

В картинку можно вставлять Meta данные (например с помощью фотошопа - File Info), гугл их хорошо индексирует. А трафик с поиска картинок тоже может хорошо добавить!

Конечно же нужно сочинять разные title и описания и в head страницы и в мета данных, трудоемко - но думаю толк будет!

rustelekom:
ну тогда повторю - изменений днс в записях недостаточно. нужно еще добавить в конфиг апача строчку ServerAlias *main.com. В этом случае вы можете писать www.sub.sub.main.com или все что угодно и все будет работать (но, вам еще надо в корневую директорию добавить файл .htaccess с правилами модуля modrewrite.

Да мне уж проще еще одну запись создать чем каждый раз лазить куда-то строчки менять! Я хотел еще проще жизнь себе сделать, но наверное много хотел!

Pilat:
Раз ТС считает что без www адрес сайта неполноценен, есть основания считать что многие думают так же

Мои клиентки не знают что такое браузер. Более того не знают куда этот адрес сайта писать (не знают где адресная строка у браузера) и пишут его в строку поиска Яндекса и таких около 80%!

Как я понял по умному не получиться, поэтому буду делать по старинке по 2 записи на поддомен. Спасибо всем, кто пытался помочь!

rustelekom:
А чем плохо сделать *.main.com

Тогда sub1.main.com и sub2.main.com будут указывать на одно и тоже место, а нужно на разные!

Всегда достаточно иметь 1 запись без www.

Не знаю, у меня когда нет записи с www и я потом ввожу в браузере www.sub.main.com, то ничего не открывается!

Всего: 149