MaxVZ

Рейтинг
207
Регистрация
07.07.2010
Jaf4:
То есть

Не могу понять, это на меня жара так действует или на всех сразу?
Индексация у сайта под АГС есть. Раз есть фильтр, значит бот приходил, сгреб все, на сервере содержимое проанализировалось и был наложен фильтр. Если на сайте устранять те причины, по которым фильтр был наложен, бот снова соберет данные, они так же будут проанализированы и если устраненных причин окажется достаточно - сайт будет возвращен в выдачу.

Когда я удалю весь не уник останется 100% уник, можно к нему добавить 30% уника сделав рерайт того что я перед этим удалил и при этом сохранив адреса страниц в старом виде? Или только страницы с новыми url

futuristian:
favicon у вас где лежит, в корне site.ru/favicon.ico или в папке с шаблоном?

В корне сайта

WebAlt:
Кеш IE очистите.

Спасибо, проверю.

stroydomen:
Ну ссылочное конечно набирается, а в серпе вас не будет.
А смысл затеи?

Смысла нет, просто сайт под фильтром на часть неуникального контента есть естественные ссылки, вот я и думаю что с ним делать.

A.Pulyavin:
Почистите сайт от не уника, закройте от индекса дубликаты, добавьте 30% нового уника контента.

Так же думаю что попал под фильтр, вы написали что почистить сайт от неуника, при этом остаётся чисто уникальный контент и к нему нужно добавить ещё 30% уникального контента? Или всё же имеется ввиду что сайт должен состоять не менее чем 30% из уникального контента?

futuristian:
А какие там данные, просто скрываешь информацию, если это .ру домен, то только мыло в контактах будет видно, если .com .net .org то вообще ничего не будет видно.

Это я знаю, просто интересует вопрос правомерности и могут ли предъявлятся притензии разработчиками?

Max1muS:
Есть Яззл лицензионный. Это где ж там можно глянуть бэки с анкорами на конкретно взятую страницу? Может, я не знаю просто, но, по-моему, нет тут такой возможности

Возможно я ошибаюсь, но site auditor позволяет это сделать. Вводите конкретную страницу вашего сайта и там по yahoo смотрите бэки. Ещё есть плагин seoquake для mozilla firefox.

specialist-seo:
Совсем не обязательно закрывать контент от всех поисковиков. Если нужно вывести из под фильтра только в яндексе, закройте эти страницы только для робота яндекса через файл robots.txt.

Для остальных поисковиков сайт по прежнему, будет разрешено индексировать сайт.

В принципе так и сделал закрыл от Яндекса те страницы которые были копипаст или стали не уникальными.

Doykovi4:
А какой смысл держать страницы на сайте, которых нет в индексе? Не легче попросту удалить такой контент? :)
P.S. Поменьше ленитесь и халтурьте. Не пожалейте времени, напишите один раз уникальный контент и в будущем проблем не будете знать. :)

Дело не в том что я ленюсь, просто контент не хочется убирать из-за того что он полезный для пользователя, во-вторых он есть в других поисковых системах (в частности google).

yourit:
Если вы собираетесь закрыть от индекса часть текста и на этой же странице добавить новый - не рекомендую. Лучше полностью избавьтесь от старого и напишите уникальный качественный новый.

Я имел ввиду закрыть от индексации страницы которые стали не уникальными, но с них идёт траф с других поисковиков

Всего: 975