ezon

Рейтинг
134
Регистрация
29.02.2012

Могли бы и ручками ссылки добавить в дурилку, так же могли и сами постить в соц сети ссылки на свой сайт и дальше ждать, в скором времени он проиндексирует, периодически постите в твиттере ссылку на свой sitemap.

Правильно писали что бы уделяли много внимания качеству текстов. Ко всему добавленному, есть еще пару пунктов - уделите внимание ЧПУ, карте сайта, размещайте ссылки на Ваши страницы в соц сетях, если есть деньги, на тематических ресурсах размещайте статьи с вечными ссылками.

Что бы в будущем не возникало таких вопросов, в вебмастере яндекса есть плюшка для проверки нужно вам урла на индексирование по правилам роботс.ткст

Если удалили полностью, то через определенное время, страницы будут отдавать 404 ответ для поисковика и все будет нормально. Уделите время внутреннему seo, позже начните продвигаться и все вернется.

Если Ваши тексты проиндексированы были ранее, то Вам нечего подымать кипишь, песимизация будет идти для того сайта. А на будущее через инструменты сообщайте ПС что Ваши тексты.

Зачем делать редирект с нового сайта на старый если я конечно все правильно понял? А по поводу редиректа ничего сложного нет.

Делаем 301 редирект,

Redirect 301 / http://www.newdomain.com/

В robots.txt указываем

host: www.newdomain.com

В .htaccess прописываем

<FilesMatch "robots.txt$">

RewriteEngine off

</FilesMatch>

Для того что бы когда был редирект, роботс не учитывался.

У Мета Касса по этому поводу было отличное видео, правда если знаете инглиш

Можете использовать разное кол-во ключей, главное что бы на размер страницы не превышала тошнотность текста. В принципе 5-7 ключей по 1-2 вхождения каждого+несколько разбавленных. Но следите за тошнотностью.

Для продвигаемых страниц обязательно/желательно писать тексты под ключевые запросы. Так же можете настроить перелинковку с новостных статей на продвигаемые страницы. На страницу с товаром желательно выводить описание, а так же отзывы желательно писать, так страница будет пополняться новым и уникальным контентом.

Можете посмотреть все входящие ссылки в вебмастере, solomono либо ahrefs. В вебмастере так же можете снять ссылки входящие на ваш сайт.

В среднем до 50000 страниц может генерировать парсер карты сайта. Если страниц больше чем данное кол-во, то они соответственно не зайдут в карту, так же есть возможность что часть страниц верхнего уровня закрыты в robots.txt и тогда страницы последующие закрыты (к примеру раздел блендеры закрыт, то и товары в этом разделе будут закрыты). Если парсеры не доходят, закажите у программиста разработку модуля генерации карты сайта.

Всего: 693