- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте.
Здравствуйте. Прочитала дебаты и советы по поводу бана, индексации, АГС и получила массу удовольствия от простоты пояснений и четкости мысли большинства грамотных форумчан-профессионалов в этой области.
Теперь по сути моей грусти. Имею блог http://ufomail.ru/ со стареньким доменом, зарегистрированным в мае 2007 года. Пишу обо всем. Мой админ аккуратно продавал ссылки в сапе около полугода - не более одной с третьих страниц ( в поиске Яши было 3000 страниц на тот момент и 200 практически тематических ссылок и 5 уникальных статей). 2 месяца назад количество страниц уменьшилось до 80. Написала Платонам.
Они прислали стандартный ответ, но с припиской:
"Если Вы будете развивать сайт для пользователей, размещать уникальную
> и полезную информацию и следовать нашим рекомендациям, то количество
> страниц Вашего сайта в поиске должно увеличиться, и он будет
> ранжироваться выше. Если этого не произойдет, то Вы можете снова
> написать нам и мы проверим правильность работы наших алгоритмов.
>
> Обратите внимание, повторная проверка возможна не раньше, чем через
> месяц."
Удалила ссылки, но не удалила каталог, поскольку там были еще статьи, все уникальные.
Через месяц попросила Платонов все перепроверить. Они мне ответили, что :" Мы повторно проверили Ваш сайт и, пришли к выводу, что в настоящий момент он все еще не полностью удовлетворяет нашему понимаю качественного. Продолжайте развивать его, опираясь на рекомендации, данные нами в предыдущем письме. Наполняйте его уникальным контентом, старайтесь сделать его интересным и удобным для пользователей, и со временем он сможет появиться в поиске." И отправили в полную баню.
Страниц загружено: 6700 Уникальность - 90%. Пишу или глубоко рерайтирую контент сама.
Страниц в поиске: 1.
Бэки, в том числе и жирные (1212) , не удалили.
Посоветуйте, что же делать.
В чем причина и как ее устранить?
В бирже Liex.Ru уже года два. Там только уникальные статьи. Поэтому причина бана точно не в этом.
С надеждой жду комментариев от грамотных людей.
domain: UFOMAIL.RU
nserver: ns1.ihc.ru.
nserver: ns2.ihc.ru.
state: REGISTERED, DELEGATED, UNVERIFIED
person: Private Person
registrar: REGTIME-REG-RIPN
admin-contact: http://whois.webnames.ru
created: 2007.05.08
paid-till: 2012.05.08
free-date: 2012.06.08
source: TCI
--------------
где тут 97 год? А судя по индексу сайт стал работать с 2009 года. Хотя суть не в этом но не стоит на форуме то обманывать людей.
Отличный роботс для Вордпресса
User-Agent: *
Crawl-delay: 30 # задает таймаут в 30 секунд
Disallow:
Host:ufomail.ru
Возможно за кучу дублей и выгнал вас яша с индекса.
domain: UFOMAIL.RU
nserver: ns1.ihc.ru.
nserver: ns2.ihc.ru.
state: REGISTERED, DELEGATED, UNVERIFIED
person: Private Person
registrar: REGTIME-REG-RIPN
admin-contact: http://whois.webnames.ru
created: 2007.05.08
paid-till: 2012.05.08
free-date: 2012.06.08
source: TCI
--------------
где тут 97 год? А судя по индексу сайт стал работать с 2009 года. Хотя суть не в этом но не стоит на форуме то обманывать людей.
Отличный роботс для Вордпресса
User-Agent: *
Crawl-delay: 30 # задает таймаут в 30 секунд
Disallow:
Host:ufomail.ru
Возможно за кучу дублей и выгнал вас яша с индекса.
год исправила. верно, 2007. Чисто механическая ошибка. Как исправить в теме, не могу найти. А что в роботсе не так? Он уже года 3 такой и все было ок. Мне бы конкретный ответ на вопрос, если не сложно.
год исправила. верно, 2007. А что в роботсе не так? Он уже года 3 такой и все было ок. Мне бы конкретный ответ на вопрос, если не сложно.
Вордпресс делает много дублей. И яндекс из за этого легко может забанить сайт, нужно скрывать все категироии и так далее от ботов. например
User-agent: *
Disallow: /testmegaindex/
Disallow: /redirect/
Disallow: /author/
Disallow: /wp-admin/
Disallow: /wp-includes
Disallow: /category/
Disallow: /category/*/*
Disallow: /page/
Disallow: /?feed=
Disallow: /?s=
Disallow: /xmlrpc.php
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: */comments
Disallow: */comment-page*
Disallow: /*trackback
Disallow: /*feed
Disallow: /author*
Disallow: /*?*
Disallow: /*?
Disallow: /?*
Disallow: */feed
Disallow: /feed
Disallow: */trackback
Disallow: /tag/*/page
Disallow: /comments/feed/
Host: www.xxx.ru
Вордпресс делает много дублей. И яндекс из за этого легко может забанить сайт, нужно скрывать все категироии и так далее от ботов.
Спасибо за совет, но полагаю, что причина все-таки не в этом. Индексируются сайты и без robots.txt.
Он уже года 3 такой и все было ок. Мне бы конкретный ответ на вопрос, если не сложно.
Не сложно. Про 3 года забудьте - нынче жизнь стремительная и правила игры могут меняться хоть каждый день.
А насчет robots.txt - понимаете, не зря этот файл существует. С его помощью запрещают к индексации поисковыми роботами ненужные (для пользователей) разделы вашего сайта.
Такие, как служебные папки (админка, например), результаты поиска, ссылки из календаря, ссылки по тегам, профили пользователей, ява-скрипты, информеры, папки со вспомогательными файлами - словом, весь мусор с точки зрения поисковых систевм.
Это что касается robots.txt.
А что касается всего остального - то у вас явно контент копипаст плюс вы его еще и обновляете ОЧЕНЬ редко.
К тому же, барыжите плоскими ссылками и разместили иконостас внизу.
Вполне достаточно оснований для фильтра.
Да, еще, зря вы подпись выделили жирным. Получите штраф.
Спасибо за совет, но полагаю, что причина все-таки не в этом....
поржал.....
ответь сама себе тогда, раз тебе чужие ответы-советы побарабану
ЗЫ Яндексу похрену какого года домен-сайт... есть 50-60% дублей + продажа ссылок =фильтра получить на 3 месяца... не снимете ссылки - полгода - не снимете полгода = 1ь страница.... а потом бан.... и пофиг... хоть домен 1900 года
Вполне может быть и в роботсе (в дублях) дело. Наблюдал за одним сайтом, который попал под АГС. Тоже на вордпрессе. В течении полугода роботс был пустой, потом смотрю — в индекс начал заходить. Проверил роботс — все присутствует, почти все закрыто, примерно так, как вам советовали сделать выше, только выше даже лучше.
Глаголъ добавил 17.11.2011 в 00:02
upd: посмотрел сайт -- вылитый сателлит.
Глаголъ добавил 17.11.2011 в 00:04
и что за пережиток двухтысячных — зачем эти доски почета внизу, статистики, каталоги, уберите их лучше
Вам правильно ответили, зашел на ваш сайт и увидел статью с заголовком: Временной порядок или почему «время летит так быстро» http://ufomail.ru/ufo-nlo-7832.html, прочитал статью, ответа я не получил на вопрос: почему «время летит так быстро»
Говноблог, прогнанный по профилям и закладкам - вот и вся причина бана.
PS. очень сомневаюсь, что к "этому Г.." хоть какое-то отношение имеет девушка.
Говноблог, прогнанный по профилям и закладкам - вот и вся причина бана.
PS. очень сомневаюсь, что к "этому Г.." хоть какое-то отношение имеет девушка.
Уффф. Жестко опустили. Не думала, что мой блог можно так назвать.
По поводу того, что я девушка и я его владелица, уж поверьте.
Я прошу совета, а не пришла сюда для того, чтобы меня обижать.
luckyira добавил 17.11.2011 в 00:27
Вордпресс делает много дублей. И яндекс из за этого легко может забанить сайт, нужно скрывать все категироии и так далее от ботов. например
Поменяла robots.txt, гляньте,- http://ufomail.ru/robots.txt - так получше будет? Спасибо