- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Короче сайт зацепил фильтры, PR и ТИЦ упали в 0.
Допускаю 2 варианта - контент на сайте - 90% копипаст (пользователи ведут блог)
Линкопомойка, в которой все ссылки были внутренними (создавалась для индексации ссылок сапой)
Как определить какой фильтр зацеплен и как вытаскивать сайт ? (линкопомойка уже удалена) Ориентируясь на noname, вообще не понимаю в чем дело - у них все то же самое.
ЗЫ сайт moole.ru
У вас страницы выпали? Сколько %?
Скорей всего это не фильтр, а пессимизация за копипаст.....
Проследить выпали страницы или нет не мог, взялся за сайт только на этой неделе, а падение ТИЦ и ПР было месяц назад. Не знаю имеет значение или нет, но еще вот такое письмо в WMTools пришло
"Робот Googlebot столкнулся с проблемами при сканировании вашего сайта.
Робот Googlebot обнаружил чрезвычайно большое количество ссылок на вашем сайте. Это может свидетельствовать о проблеме, связанной со структурой URL-адресов сайта. Возможно, робот Googlebot без необходимости сканирует большое количество различных URL, указывающих на идентичное или похожее содержание, либо сканирует разделы сайта, не требующие сканирования. В результате робот Googlebot может потреблять гораздо больше ресурсов канала передачи данных, чем необходимо. Кроме того, есть вероятность, что он не сможет полностью просканировать все содержание сайта."
Пессимизация за копипаст - другие подобные ресурсы тоже на 80-90% состоят из копипаста и имеют PR 4-5 и ТИЦ немаленький. У меня посещаемость в районе 15000 в день, из них 65-70% - активные блоггеры, ну не заставлю же я их рерайты на новости писать ?
KeLvin88 добавил 30.03.2011 в 16:00
ЗЫ. Адсенсе тоже отказали...
KeLvin88 добавил 30.03.2011 в 16:12
запрос site:moole.ru/& - 15 000 страниц
запрос site:moole.ru - 400 000 страниц
KeLvin88, может быть, поисковики просчитываю процент копипаста, и при превышении некоторой цыфры пессимизируют...
Если я со ср...ми 15000 не вывожу уник на этот процент, то что ж делают noname, i.ua и прочие ??? Заказывают на 100$ в день копирайта ???
KeLvin88, На вашем сайте не совсем корректный robots.txt
Директиву User-Agent: * дважды повторять не стоит....
Многие пути которые у вас открыты нужно закрыть...
Сколько вашему сайту лет?
ТИЦ у вас есть... 130.... А PR действительно равен 0....
По запросам сильно просели?
KeLvin88, На вашем сайте не совсем корректный robots.txt
Директиву User-Agent: * дважды повторять не стоит....
Многие пути которые у вас открыты нужно закрыть...
Сколько вашему сайту лет?
ТИЦ у вас есть... 130.... А PR действительно равен 0....
По запросам сильно просели?
Спасибо за ответ
Семантического ядра, как такового нет, по этому сложно определить динамику по запросам. Сайту около 2.5 года, но он был с нуля восстановлен, после пожара на серверной в Одессе. А что значит закрыть пути ? Урлы лишние почистить ?
KeLvin88, Нет. Просто используйте этот robots.txt :
User-agent: *
Disallow: /go/
Disallow: /links.php
Disallow: /user/
Disallow: /*print
Disallow: /backup/
Disallow: /language/
Disallow: /templates/
Disallow: /upgrade/
Disallow: /autobackup.php
Disallow: /?do=lastcomments
Disallow: /statistics.html
Sitemap: http://сайт/sitemap.xml
User-agent: Yandex
Disallow: /go/
Disallow: /links.php
Disallow: /user/
Disallow: /map/
Disallow: /*print
Disallow: /backup/
Disallow: /language/
Disallow: /templates/
Disallow: /upgrade/
Disallow: /autobackup.php
Disallow: /?do=lastcomments
Disallow: /statistics.html
Host: сайт
Sitemap: http://сайт/sitemap.xml
Я считаю этот robots.txt наиболее оптимальным для DLE. Слово "сайт" заменить не забудьте.
Скорей всего все проблемы из-за этого robots.txt. Наверно ваша CMS нагенерировала дублей и они были не закрыты в robots.txt. В итоге общая иник. стала ещё меньше и сайт был пессимизирован.
Используйте robots.txt который выше и ждите...
Сэнкью вери дякую
А сколько раньше ТИЦ был?
Семантического ядра, как такового нет
Ядро всегда есть... Смотрите на статистику переходов в яндекс.Метрике или Гугл Аналитикс, там указаны основные фразы-поставщики трафика они и есть Сем. ядро.... Наблюдайте за ними....
Mr.Smile добавил 30.03.2011 в 18:15
дякую
будь ласка ;)
ТИЦ был под 400. Ключевики я ясен пень смотрю, но динамику не проследишь. "Волочкова упала", "Путин пукнул" и так далее, нестабильные запросы - сегодня их ищут тысячи, а завтра они никому не нужны