Та же проблема была, на новом проекте на джумле были миллионы дубликатов.
1) 301 редирект на канонические страницы
2) 404 ошибка на глупые дубликаты(всякий бред)
3) те дубликаты, которые нереально убрать из-за движка или очень тяжело, в коде проставляется <meta name="robots" content="noindex,nofollow">
4) в robots.txt все обозначенное прикрыл
Многое уже ушло, жду остальное, эффект на позициях заметен сразу в положительную сторону.
Согласен, просто до создания топика я делал 5 раз экспорт, он мне все туда кидал, кроме ключевых слов. Сейчас еще раз попробовал и все хорошо, как было раньше.
В любом случае, спасибо Вам.
Он ключевые слова туда не экспортирует.
Хорошая программа, сейчас тестирую на пробной версии.
Скорее всего куплю для оптимизатора.
Бред какой-то.
1) Таких сервисов 100500 просто, почему сразу нету триальных проверок, чтобы оценить ваш сервис?
2) Добавил я бурж свой один проект, там 86 ключевых слов. Какого-то хрена я не могу отключить яндекс. В итоге сожрало в два раза больше проверок, чем мне нужно было.
3) Сервис часто зависает. Сначала все ок, нажимаешь-нажимаешь, потом резко на минуту просто замирает ваш сайт и висит.
Как проверит не знаю, пишет 43 минуты примерно займет, добавил в закладки потом вернусь и проверю.
wugiwugi собака gmail.com---------- Добавлено 14.08.2012 в 13:21 ----------Ну чтож скажу, проверило за минут 15-20.
По результату скажу так, точнее пока я в руках еще данных не держал, нужно тестировать дальше, но результат мне пока нравится.---------- Добавлено 14.08.2012 в 13:25 ----------Сделайте систему более гибкую для англоязычных проектов.
Чтобы я мог убрать яндекс, частоту чтобы показывало по google adwords [точное вхождение]
Вам 15 лет такое бред писать?
Откину даже весь гуманизм и объяснения того, что вы написали.
Просто сотрудник гугла зарабатывает столько денег, что тысяча долларов детям и половина ЗП мужа будет для них плохой жизнью.
Этот фактор прямолинейно никак не влияет на ранжирование вашего сайта. Мэтт Каттс даже в видео-ответах уже это говорил и не раз.
А если говорить о не ранжировании, то для посетителей вашего сайта это плохо, могут закрывать сайт, что будет понижать ваши ПФ.
Сам в основном под google.com.ua двигаю все, но чтобы статьями там продвигать? Честно говоря я удивлен, одной сапы и разбавки твиттерами, постовыми и немного GGL хватает с головой.
В твоем случае тогда запусти сапу, покупай там только безанкорные ссылки и так же разбавь все ссылочное твиттерами.
Если ссылок с морд в беках нету или очень мало, как написали выше - прикупи.
У меня вопрос. Я в основном пользуюсь только несколькими вещами в вашей программе(надеюсь буду усовершенствоваться).
Я постоянно провожу парсинг с google adwords ключевых слов.
Но вот беда, видимо тут я не совсем разобрался. Допустим, я получил на выходе список из 500 ключевых слов.
Я постоянно фильтрую список, чтобы убрать лишнее. Использую я в основном фильтры "содержит" и "не содержит". Ввожу туда нужные мне ключевые слова, чтобы отсеять ненужное. Но проблема в том, что я могу на одну таблицу использовать только два таких фильтра. Иногда мне нужно отсеять список по десяткам других слов и мне приходится вводить по 2 фильтра на таблицу, удалять лишнее, потом переносить то, что осталось в новую таблицу и там опять проводить ту же процедуру и так постоянно.
Как я уже говорил, скорее всего это из-за моих плохих знаний в программе, может поможете мне оптимизировать работу по тому, что я описал выше?
Все, разобрался, нашел список стоп-слов, эх я...
А что должно было произойти? Апдейта пингвина не было.
Вот об этом и я жалею, уверен на 100% из-за этого я и получил пингвина, потому что четко за неделю-две до пингвина я делал аццкий прогон хрумером, дурак... Ну кто же знал что так случиться, ведь способ был рабочий, чего бы и нет...