- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день всем.
Помогите разобраться с проблемкой: у меня пропал трафик с гугла но зато с яшей все нормально
я уже незнаю что делать чтоб его вернуть. начал трафик падать сразу после появления пингвина, НО писем счастье от гугла мне не приходили и саппорт гоши сказала что мой сайт не пессимизировался фильтрами
До пингвина трафик был исключительно с гугла а яша морозился от моего сайта. а теперь они словно местами поменялись
гляньте плиз сайт, может у кого есть какие идеи
сайт
У меня сайт похожей структуры,ситуация была похожая.
Убрал на время все партнерки и всё устаканилось,не знаю почему,но похоже гугл последнее время перестал дружить с разными типами попандеров и похожего шлака.
так до спада трафика у меня кликандер стоял в течении полу года. и не спадал. яша тоже вроде как не любит кликандер но с ним вроде все норм. пробовал убирать кликандер и результат был но только для яши. убирал на месяц. а гугл так и не сдвинулся с мертвой точки
очень много копипаста, дублей внутри самого сайта
например адвего показал 6 дублей только одного фильма
kinodream.ru/load/filmy/prikljuchenija/puteshestvie_2_tainstvennyj_ostrov/14-1-0-359
5 идентичных страниц внутри сайта
kinodream.ru/load/filmy/fantastika/khronika/11-1-0-313
чего вы еще хотели? этого следовало ожидать.. и с яшкей скоро так же будет
например адвего показал 6 дублей только одного фильма
kinodream.ru/load/filmy/prikljuchenija/puteshestvie_2_tainstvennyj_ostrov/14-1-0-359
незнаю где вы нашли 6 дублей но материал входит только в одну категорию и у него не может быть столько дубей. и адвего е показал никаких дублей и контент уник. можно конкретные ссылки на все страницы этого фильма?
5 идентичных страниц внутри сайта
тоже самое. адвего ничего не выдал.
очень много копипаста, дублей внутри самого сайта
копипаста не может быть на сайте. делаю рерайт всех материалов, а дубли могут быть только в том случае если фильм входит в несколько категорий
незнаю где вы нашли 6 дублей но материал входит только в одну категорию и у него не может быть столько дубей. и адвего е показал никаких дублей и контент уник. можно конкретные ссылки на все страницы этого фильма?
ну не 6, да, недосмотрел, оказывается 4
и так каждый фильм, который в нескольких разделах - по несколько копий на разных страницах.
у вас какой то баг. потому что фильм не может быть в других категориях он есть только в приключениях
у вас точно какой то баг потому что щас проверил и только одна страница есть в индексе это изх категории приключения. всех остальныхъ нету
у вас точно какой то баг потому что щас проверил
а надо не щас проверять, надо правильно проверять, плагиатус не с потолка же взял дубли страниц
и не надо сваливать на чужие баги, разберитесь там у себя изначально 😂
блин понятия не имею откуда столько дублей!!
хотя если подумать то с 4-5 дублей на каждый фильм то у меня должно быть не 2к страниц в индексе а 5к (на сайте где-то 1200 фильмов)
ну это cms такая. ничего не поделаешь
---------- Добавлено 03.01.2013 в 00:26 ----------
странно проверил так другие фильмы и там все правильно выдает если в одной категории то одна ссылка в выдаче. если в двух то две
это не cms такая, а руки такие, которые robots.txt заполняли (или вообще не заполняли)
так а что мне в роботс все дубли прописывать?