Есть аналогичный сайт по офшорам и счетам. На счет Тизеров - это же говно-трафик. Для юр.тематики вряд ли подойдет. А контекст слишком дорогой. Попробуйте делать SEO, хотя бы базовое.
На счет тизеров - послушаю мнения других форумчан. Возможно кто запускал тизеры для офшоров и счетов?
На счет переписывания. Я в соседнем топике пытаюсь выйти из-под панды "Выход из-под Панды - удаление 60% страниц". Суть в том, что трафика из Гугла нет. По барракуде я понял, что это Панда в 2012 году накрыла меня. Только сейчас решил попробовать выйти из-под нее. Суть в том, что я хочу удалить много страниц и настроить 301 редирект на гл.категорию, чтобы избежать появления массового появления 404 ошибки.
Впервые вижу санкции за "неинформативное и бесполезное содержание"! Вам письмо прислали такое? Вы могли бы скинуть само сообщение сюда, на форум? Чтобы люди видели.
1.Я попробовал в KK добавить фразы:
фраза 1
фраза 2
фраза 150
2.Срезал рел.страницу по Google, при этом вбил в боле "URL сайта" свой сайт.
3.Перешел на вкладку "Доп.статистика" > "Релевантные страницы". Вижу там только 2-3 рел.страницы для запроса, или вообще нет.
То есть оператор site:test.ru не применим в KK. Мне ведь нужно, чтобы KK определял рел.страницу именно по моему сайту test.ru
Да, но он же собирает только 1 рел.страницу с сайта. А мне нужно для каждого запроса по 20рел.страниц с сайта собрать.
ключевик site:test.ru
first = 0 per_page = 20
Да, вы верно поняли. Буду завтра уже думать. Может у кого есть еще идеи?
Да ну ты сравнил Бигмир с сайтом из Мухосранска.
Для ТС - пиши уник.контент, следи за его качеством, не переоптимизируй. Иначе схлопочешь АГС в Яше, а в Гугла - Панду.
Копипаст можно, но все же не весь сайт целиком.---------- Добавлено 19.03.2015 в 19:20 ----------Статья, может конечно и не "крутая", но для ТС будет полезной:
http://optimizatorsha.ru/sdl/test-kachestva/
Да, так делать можно. Но я бы еще разнообразил мета. К примеру если товар в категории Пылесосы - в мета необходимо писать Пылесос x, а не просто модель. Хотя возможно у вас товары так и называются.
Посмотрите конкурентов, да вообще любой ИМ.
Вот инструкция Google:
https://developers.google.com/webmasters/control-crawl-index/docs/robots_meta_tag
Суть в том, чтобы использовать в PDF "Using the X-Robots-Tag" в HTTP header документа. Но эта задача для программиста, вы вряд ли сможете ее реализовать.
Можно запретить для индексации сами PDF, которые вы размещаете на сайте. Только не через robots.txt, а через мета. Завтра на работе узнаю и закину. А так вопрос и для меня актуальный. Подписываюсь на топик