SEM509

Рейтинг
45
Регистрация
22.03.2011
AlekseySid:
Припустим ситуацию:
в индексе я нашел около 20 страниц, которых там не должно быть, общего в url у них ничего нет, поэтому правила создать 1-2 для них нельзя. Как их лучше всего закрыть от индексации? Добавить в роботс тхт 20 ссылок разных, как по мне не совсем профессионально, закрывать мета-тэгом роботс, программист утверждает, что это накладно и долго. Как можно быстро закрыть эти страницы? (удалить вручную из индекса не вариант, хочу именно закрыть от индексации)

http://www.demis.ru/robots.txt

ТОП-1 по запросу "Продвижение сайтов", регион - Москва

Все познается в сравнении, а вы пишите не профессионально)

А если уж говорить об этом, то не "профессионально" иметь сайт на движке, который плодит дубли)

Вариант с переиндексацией оказался удачным.

Позиции до:

пластиковые карты - 42

пластиковая карточка - 45

изготовление пластиковых карт - 20

изготовление пластиковых карт самара - 15

после:

пластиковые карты - 19

пластиковая карточка - 6

изготовление пластиковых карт - 9

изготовление пластиковых карт самара - 9

Конечно не вот что хотелось бы... но уже всяко лучше.

Также возник следующий вопрос:

Какой title более релевантен Яндексу?

1) Изготовление пластиковых карт в Самаре

2) Пластиковые карты, изготовление пластиковых карт в Самаре

Судя по топу то 2.

Step40:
Вот кто вас так обманул?

С официальных заявлений представителей Яндекса и Гугла.

"Лечу сайты" - вам в первую очередь необходимо вылечить голову, прежде чем минусовать без конструктивного объяснения обратного.

Но вы свое дело сделали, оставили пятно на своей адекватности. Удачи.

Семёныч:
Если используете ahrefs, то нужно указать ключ API в настройках - "аккаунты" - "seo-сервисы" и выбрать ahrefs в источниках ссылок. В целом, какой-то спецнастройки не требуется. Одна тонкость - по умолчанию яззл группирует беки по доменам (показывает не более одной ссылки с домена, чтобы не было простыни одного сквозняка). Большинство источников отдают в веб-интерфейсе сквозняки без группировки, поэтому визуально в яззле меньше ссылок. Можно отключить эту группировку в настройках, "основное".

Спасибо за дельные советы и пояснение ;)

anthony_:
и локоток повыше.. :-)

А глаза на выкате :D

Также возможен вариант - сутками улучшать свой сайт (он же ваш ребенок)

Стук не причина, а следствие.

После стука ассесоры проверяют сайт на наличие действий по манипуляции в поисковой выдачи.

Т.е. если сайт действительно был переоптимизирован, либо присутствовала реклама, либо продавались ссылки, либо ассесоры посчитали что сайт не достоен своих позиций, тому и причина понижение позиций.

Каждый фильтр наложенный ассесорами снимается после того как вы проделаете работы над улучшением своего сайта - автоматически.

Немного другой эффект от наложения всяческих фильтров от самой системы. Позиции восстановятся после решения проблем именно тех, за что понизили сайт. Если вы устранили какие-то моменты, и позиции восстановились только частично, значит дело в другом.

Семёныч:
Яззл собирает беки из доступных источников в одном месте + анализирует их: текст, адрес, некоторые параметры доноров. Получаем по сути сводную статистику в одном отчёте. Если нужен пример, то напишите мне в личку адрес сайта, беки которого интересуют. Я сделаю отчёт и отправлю на вам почту - тогда будет наглядно видна польза или бесполезность лично для вас.

Хорошо, интересует тогда другой вопрос, нужно ли настраивать Яззл? Или же после его приобретения он сразу работает корректно? Сам я приобрел его, но в сравнении с Ahrefs и Solomono показалось что ему что-то не хватает. Как будто необходима первоначальная настройка. Может быть она действительно нужна? В частности для анализа бэков у конкурентов.

А что скажете по поводу Язла?

В данном случае ЯК вряд ли поможет, т.к. у ТС нет региональных представительств. А после внесения сайта в каталог еще жесче будут отслеживать соответствие регионов их региональным представительствам. Сам в третий раз встаю перед выбором, как распространять товар по всем регионам. Пока лучше варианта чем поддомены, либо полная копия сайта (с уникальным контентом) на новый домен не нашел.

Либо если это пойдет как альтернатива, то не привязывать сайт к определенному региону, но отсюда придется увеличить бюджет не на шутку.

Filan:
Может переиндексирует он за 2-3 недели, но то что позиции возьмут и враз восстановятся - это вряд ли.

Не вижу другого выхода... Платонам много писал (раз 5), ждал достаточно долго (около 3-4 месяцев)

Если и после индексации не вернутся позиции, хотя бы ближе не подойдут, буду копать дальше, а пока буду ждать индексации...

Кстати пару сайтов с более конкурентными запросами влетели в топ 5 по этому же региону...

Всего: 128