Doroshev

Doroshev
Рейтинг
186
Регистрация
21.01.2010
Должность
SEO-оптимизатор

Есть аналогичный сайт по офшорам и счетам. На счет Тизеров - это же говно-трафик. Для юр.тематики вряд ли подойдет. А контекст слишком дорогой. Попробуйте делать SEO, хотя бы базовое.

На счет тизеров - послушаю мнения других форумчан. Возможно кто запускал тизеры для офшоров и счетов?

На счет переписывания. Я в соседнем топике пытаюсь выйти из-под панды "Выход из-под Панды - удаление 60% страниц". Суть в том, что трафика из Гугла нет. По барракуде я понял, что это Панда в 2012 году накрыла меня. Только сейчас решил попробовать выйти из-под нее. Суть в том, что я хочу удалить много страниц и настроить 301 редирект на гл.категорию, чтобы избежать появления массового появления 404 ошибки.

Впервые вижу санкции за "неинформативное и бесполезное содержание"! Вам письмо прислали такое? Вы могли бы скинуть само сообщение сюда, на форум? Чтобы люди видели.

one:
Да не совсем. После сбора релевантных страниц во вкладке Доп. Статистика->Релевантные страницы, получаем список релевантных страниц http://joxi.ru/YmENDKJFeMnR26

1.Я попробовал в KK добавить фразы:

фраза 1

фраза 2

фраза 150

2.Срезал рел.страницу по Google, при этом вбил в боле "URL сайта" свой сайт.

3.Перешел на вкладку "Доп.статистика" > "Релевантные страницы". Вижу там только 2-3 рел.страницы для запроса, или вообще нет.

То есть оператор site:test.ru не применим в KK. Мне ведь нужно, чтобы KK определял рел.страницу именно по моему сайту test.ru

worldfoto:
Кей колектором (если есть у вас) можно собрать по ключам релевантные страницы домена

Да, но он же собирает только 1 рел.страницу с сайта. А мне нужно для каждого запроса по 20рел.страниц с сайта собрать.

TOBBOT:
Если я правильно понял, то вам нужно собрать 20 первых результатов из выдачи Google на запросы вида:
ключевик site:test.ru



Тогда попробуйте TOBBOT (см. подпись). Там есть модуль Google Parse.
Поскольку вас интерисуют только 20 результатов, то задайте параметры:
first = 0
per_page = 20

Да, вы верно поняли. Буду завтра уже думать. Может у кого есть еще идеи?

Danw:
Действительно, лично меня всегда интересовал вопрос - За счет чего берут посещаемость и держатся в Топе сайты, где на 90%, а то и больше скопированных новостей ? Например, такой как bigmir.net

Да ну ты сравнил Бигмир с сайтом из Мухосранска.

Для ТС - пиши уник.контент, следи за его качеством, не переоптимизируй. Иначе схлопочешь АГС в Яше, а в Гугла - Панду.

Копипаст можно, но все же не весь сайт целиком.

---------- Добавлено 19.03.2015 в 19:20 ----------

Статья, может конечно и не "крутая", но для ТС будет полезной:

http://optimizatorsha.ru/sdl/test-kachestva/

Да, так делать можно. Но я бы еще разнообразил мета. К примеру если товар в категории Пылесосы - в мета необходимо писать Пылесос x, а не просто модель. Хотя возможно у вас товары так и называются.

Посмотрите конкурентов, да вообще любой ИМ.

Вот инструкция Google:

https://developers.google.com/webmasters/control-crawl-index/docs/robots_meta_tag

Суть в том, чтобы использовать в PDF "Using the X-Robots-Tag" в HTTP header документа. Но эта задача для программиста, вы вряд ли сможете ее реализовать.

Можно запретить для индексации сами PDF, которые вы размещаете на сайте. Только не через robots.txt, а через мета. Завтра на работе узнаю и закину. А так вопрос и для меня актуальный. Подписываюсь на топик

Всего: 1233