- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте!
Мой сайт http://filmishka.ru попал в бан по яндексу. Контент на сайте почти уникальный(качественный рерайт), правда было немного рекламы, но уже убрал и видимо опоздал, так как сайт уже попал в бан по яндексу. Подскажите как можно вывести сайт из бана?
У вас на сайте 63 страницы с фильмами+ менюха 20 страниц с копейками. А гугл 615 страниц в индексе выдаёт... Роботс.тхт никакой, элементарных редиректов на правильные и единые урл нету:
Текста мало и уникальность низкая...
У вас на сайте 63 страницы с фильмами+ менюха 20 страниц с копейками. А гугл 615 страниц в индексе выдаёт... Роботс.тхт никакой, элементарных редиректов на правильные и единые урл нету:
Текста мало и уникальность низкая...
просто одна новость попадает в несколько категорий. Как правильно составить Роботс.тхт?
редирект и единые урлы сделал вроди
просто одна новость попадает в несколько категорий.
А это называется дублирование - одна из главных причин бана. По мнению роботов - искусственное увеличение числа страниц для продажи с них ссылок.
К тому же, рекламу вы так и не убрали - при заходе на сайт мне громко сообщают о взломе одноклассников.
Dark19, неуникальный контент, дубли страниц - основная причина АГС, устраняйте эти факторы и ждите пару апов, потом пишите письмо Платонам, тема уже архивинрарная, ИМХО.
Dark19, неуникальный контент, дубли страниц - основная причина АГС, устраняйте эти факторы и ждите пару апов, потом пишите письмо Платонам, тема уже архивинрарная, ИМХО.
контент в среднем имеет 60-70% уникальности. Дубли потому что фильм имеет несколько жанров, а почему тогда большие порталы такие как tvbest.net не банят? у них контент вообще не уникальный и страници тоже дублируются.
По мнению роботов - искусственное увеличение числа страниц для продажи с них ссылок.
Ого, а где вычитали? 😮
контент в среднем имеет 60-70% уникальности.
Чем проверяете уникальность?
.. а почему тогда большие порталы такие как tvbest.net не банят? у них контент вообще не уникальный и страници тоже дублируются.
Большим порталам многое сходит с рук🤪
Чем проверяете уникальность?
Advego Plagiatus
контент в среднем имеет 60-70% уникальности. Дубли потому что фильм имеет несколько жанров, а почему тогда большие порталы такие как tvbest.net не банят? у них контент вообще не уникальный и страници тоже дублируются.
Потому что эти порталы уже давно. У них возраст, траст и все такое. Молодые сайты яндекс не любит и не шибко уважает, даже с уникальным контентом. Сайты в возрасте уважает с любым контентом (за исключением синонимайза, его не проверял).
Потому что эти порталы уже давно. У них возраст, траст и все такое. Молодые сайты яндекс не любит и не шибко уважает, даже с уникальным контентом. Сайты в возрасте уважает с любым контентом (за исключением синонимайза, его не проверял).
а в каком возрасте сайт уже щитается приоритетным?