Shapranov Pavel

Shapranov Pavel
Рейтинг
304
Регистрация
27.08.2007

radost230, этот плагин создал частичное дублирование контента. Рекомендую вам его удалить, а станицы тегов и рубрик закрыть в файле robots.txt


Disallow: /category/
Disallow: /tag/
radost230:
У меня яндекс при индексации продублировал почти все страницы таким вот образом

Сайт на друпал, и модуль тегаделик присвоил каждой страницы свой тег, это выглядит так:

site/category/teg/nazvanie-stranicy - при этом выводится тег и краткое описание страницы!

site/content/nazvanie-stranicy - нормальный вывод страницы

Всего страниц 30, и мне кажется, что такое дублирование не пойдет на пользу.
После отключение вышеперечисленного модуля, по этой ссылке site/category/teg/nazvanie-stranicy пишет, что страница не найдена, что неудивительно. Как эти страницы выкинуть из индекса?
Ваня Хельсинг:
host.pro, нажили вы себе геморрой :)

1. Создание видимости активности - наёмники или хорошо написанные боты. Лучше наёмники. (Если нужны толковые, недорогие наёмники - пишите мне в личку).
2. Закупка трафа с различных региональных ресурсов (размещение баннеров и т.п.).
3. Очень желательно, если есть финансовые возможности, устраивать для первых зарегившихся всякие конкурсы с ценными призами и реферальную программу, типа приведи друга и получишь бонус (денег, подарок и т.п.)....
И ещё много всяких нюансов...

А самое главное, что изначально нет контента, который можно оптимизировать и продвигать в ПС :)

host.pro, более подробно отвечу днем в своей теме ;)

1) Для вордпресса роботс.тхт должен быть примерно таким:

User-agent: *
Disallow: /cgi-bin/
Disallow: /author/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /category/
Disallow: /category/*/*
Disallow: /page/
Disallow: /?feed=
Disallow: /?s=
Disallow: /xmlrpc.php
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: */comments
Disallow: */comment-page*
Disallow: /*trackback
Disallow: /*feed
Disallow: /author*
Disallow: /*?*
Disallow: /*?
Disallow: /?*
Disallow: */feed
Disallow: /feed
Disallow: */trackback
Disallow: /tag/*/page
Sitemap: http://ваш-сайт.ру/sitemap.xml
Host: ваш-сайт.ру

2) Для создания карты сайта есть специальные плагины для вордпресс, например http://wordpress.org/extend/plugins/google-sitemap-generator/

3) Купить несколько ссылочек с новостных ресурсов на пару дней, затем снять

4) Правильно сделали, но в роботсе тоже закройте

dmiv:
Проблема: Произошла индексация страниц типа xxx.ru/category/abc, xxx.ru/tags/abc, xxx.ru/2010/abc. Т.е. часто в поиске выходят страницы вышеупомянутого типа, а не нормальные (xxx.ru/abc).
Этого быть не должно. Прошу помощи.

1. Файл robots.txt cделан следующим образом:



Есть здесь то, что нужно поправить?
p.s. Файл robots.txt был создан не сразу, возможно поэтому произошла такая индексация?..
2. Слышал, что sitemap может помочь? Расскажите, плз, как его сделать?
3. Как направить робота, чтобы он заново проиндексировал сайт? (это к п.1)
4. В плагине All in One Sep недавно поправил: убрать индексацию category и tag

dmiv добавил 23.10.2010 в 20:48
помогите плз)
vigilant:
4 года работы в сторону оптимизации не велось, так что тут только сам по себе возраст, в остальном особых отличий от нового домена не вижу =) (своим дилетантским взглядом)

Зато есть неслабый возраст сайта, который тоже ценен. Если на начальном этапе не собираетесь продвигать ВК запросы, тогда можно перенести сайт на новый домен и поставить 301 редирект со старого.

Qest:
А если найти текст по теме на заграничных ресурах, перевести его в промте, подредактировать, размножить и вот вам 100500 уникальных статей?

Открыли америку, сейчас такой контент очень быстро вылетает из индекса.

fisherman1:
Уж лучше хороший синонимайзер применить.

И такой тоже. В настоящее время лучше меньше, да лучше ;)

MIKLFIRM, надеюсь сайт достаточно старый?

Порядок:

1) Советую внушить тем, кто требует, что в большинстве случаев более целесообразным на начальном этапе будет продвижение НЧ и СЧ запросов. Со временем они подтянут и ВЧ, который добьете точными вхождениями.

2) Составить семантическое ядро

3) Провести внутреннюю оптимизацию, рекомендации вы можете получить от меня (инструкция в подписи)

4) Начать работать над ссылочной массой сайта

Если есть возможность, просите бюджет с запасом. Если отталкиваться от цен Сеопульта, то 6000.

Вообще для оценки бюджета порекомендую сеобюджет.ру, он наиболее точно определит бюджет.

Торетти:
Вообще говоря, хороший оптимизатор должен уметь делегировать полномочия. Зачем самому ваять статью? Зачем самому что-то программировать?
ТС, чем больше функций напихано в прибор, тем хреновее этот прибор работает. Яркий пример — видеокамера в мобильном телефоне. Вот и не нужно пихать в оптимизатора копирайтера и программиста с дизайнером и маркетологом.
Оптимизатор умеет так распределить задания и финансы, чтобы при этом качественно и выгодно для себя выполнить взятые на себя обязательства.
Аналитического мышления это не отменяет, а всё остальное — от лукавого.

+1

Невозможно быть классным специалистом во всех областях, каждый выбирает свою и развивается в ней.

С точки зрения ПС, высокий пинг не означает, что есть проблемы с загрузкой сайта.

Rorbi:
Почему на сайте должна быть уникальная информация?

Нужна, чтобы ваш сайт хорошо индексировался и занимал достойные позиции.

Ваш информационный ресурс это "Все обо всем" или же имеет ярко выраженную тематику? Во втором случае, вам сюда https://www.google.com/adsense/

Если в кратце. Нужно отбирать среднеконкурентные запросы с высокой ценой клика и по ним продвигать сайт. На абы каком трафике заработать не получится :)

Всего: 5030