- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет !
Сложилась с одним из сайтов интересная ситуация
Новый домен,на него изначально поставили 25 статей англоязычных уникальных + 10 ПР7 линков
Бот мгновенно всё скушал,через недели полторы появился первый траф,возможно что 10 ПР7 дали перескочить через некотрые фильтры для новых доменов.
Затем закачали на домен ещё где-то 100К страниц с не полностью уникальным контентом.Гуглбот схавал с одного захода 14К паг.Через несколько дней выложил 400 страниц новых и появился уже нормальный траф.Далее гуглбот стал кушать по 1К страниц в день в среднем,ещё через несколько дне доложил до 700 страниц в индекс,но при этом пропал вообще весь траф,даже с абсолютно уникальных страниц.
В чем дело ? Песок ? но тут по сути узкие запросы некоммерческие всё-равно бы окучились,а у нас вообще голяк.
Может быть 100K паг для гугла показалось подозрительным? + контент на них не уникальный...
Сам наблюдаю такую ситуацию с новыми доменами (от 1 до 8K страниц, контент не совсем уникальный):
на сайт проставляется 20-30 линков с пр от 3 до 8.
Почти две неделе по СЧ коммерческому запросу сайтик держится в top10, потом уходит в низы... Вытягиваю месяца за два каталогами и парой сквозняков...
через месяцок второй должны вернутся.
попробуйте (кроме сквозняков) ещё регулярно добавлять уникальный контент - это тоже помагает (по пару статееек в день...ну хотя бы одну)
вобще, когда хочеться избежать фильтров гугла для новых сайтов - я стараюсь регулярно добавлять контент порциями, а не всё сразу.
обычно такие резкие увеличения нового сайта вызывают на свою голову фильтры.
Может быть 100K паг для гугла показалось подозрительным? + контент на них не уникальный...
Сам наблюдаю такую ситуацию с новыми доменами (от 1 до 8K страниц, контент не совсем уникальный):
на сайт проставляется 20-30 линков с пр от 3 до 8.
Почти две неделе по СЧ коммерческому запросу сайтик держится в top10, потом уходит в низы... Вытягиваю месяца за два каталогами и парой сквозняков...
ну то есть это всё-таки не пеналь у сайта ? и вытянется со временем ?
кстати,поймает домен такой фильтр если будет 500-100 страниц ?
ну то есть это всё-таки не пеналь у сайта ? и вытянется со временем ?
Со временем все вытянется, если вытягивать :)
Я описал выше методы, которыми успешно пользуюсь. Но в вашем случае меня смущают 100k страниц для молодого сайта...
+ как ни крути, а sandbox никто не отменял, просто для кого-то он проходит быстрее, для кого-то медленнеe....
а чисто случайно нет палева в том,что ссылки покупались ? сейчас же это явное палево.может просто ссылки покупные запалил и все
Обыкновенная история с новым доменом.
Обыкновенная история с новым доменом.
то есть это не пеналь и просто надо ждать ?
Раз домен новый, значит это песок.
Раз домен новый, значит это песок.
а вариант пеналя не рассматривать ?