- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день , и хватит о добром.
Вобщем суть. Есть англоязычный сайт. трастовый, PR6, в своей тематике один из старых. Google Webmaster Center показывает 8000 беков примерно,на самом деле их больше намного и большая их половина натуральна. ПРимерно 1000 из них получены прямым ссылко обменом и 500 из вышеупомянутой 1000 с главных страниц тематичных сайтов. У 80% ссылок одинаковый анкор равный высокочастотному запросу. В такой ситуации Google неранжирует сайт выше 6 места никогда по етому запросу. Вперед вылазят как говорится rubbish sites ну и несколько реально конкурирующих проектов, но ссылок они имеют в 10 раз меньше. Контент понятно уникален, настолько что его дублируют многие другие. Могут ли ети 1000 беков както склеится или неучитыватся изза их абсолютной идентичности и явно видной искусствености? или может посоветуете почитать о конкретном фильтре который моджет быть наложен?
Заранее спасибо.
Подробно о каждем фильтре незнает почти никто. Сами фильтры действуют по разным принципам: если уникален контент и т.д. Поэтому определённо что-то сказать нельзя. Ну если конечно, на форуме не найдутся Гуру в этом вопросе.
У 80% ссылок одинаковый анкор равный высокочастотному запросу.
Уменьшите количество ссылок с одинаковым анкором следующим образом А+B, A+C, A+D , где А - это Ваш основной запрос.
через некоторое время все образуется ;) .
По своему опыту знаю, если все ссылки идут с одним анкором, то обязательно попадешь под какие-то санкции от гугла.
Добрый день , и хватит о добром.
У 80% ссылок одинаковый анкор равный высокочастотному запросу.
Проблема имхо в этом. Разбавьте анкоры и будет Вам щастье :)
проблема имхо в обмене ссылками. Гугл это не сильно ценит, хотя послежднее время тенденция в сторону улучшения наблюдается.
Что если каталог ссылок закрыть для индексации? Как ето лучше сделать если на него стоят внешние ссылки которые убрать нет возможности и конечно не прибегая к robots.txt? Какой лимит внешних ссылок на странице каталога установитьбыло бы разумным?и Ее один вопросик - что мне дает баннерная ссылка?
Спасибо.
Ну кстати об ответах. Спасибо.Конечно проблема динаковых анкоров есть, но ведь проведение любой рекламной кампании дает примерно ту же ситуацию - множество одинаковых баннеров к примеру, врядли это расценят как проблему. И как вообще быть если другие сайты копируют контент? Как знать что Гугл видит первоисточник? индексация ведь дискретна, вдруг сайт нагло воспользовавшийся утренним добавлением странички на моем ресурсе и скопировавший ее без утруждений на хотябы малейший намек на изменение, проиндексируется первым и я окажусь в этой ситуации обвиненным в копировании контента.
Спасибо Друзья.
По моему PR не влияет на выдачу...
подскажите кто мож знает насчет уникальности контента
есть у меня очень хитрый конкурент так то не тока контент копирует у меня и не только да вот заметил что даже тайтл у меня скопировал, п*дар, что с ним мона сделать?
В такой ситуации Google неранжирует сайт выше 6 места никогда по етому запросу.
Это очень хорошо, если ваш сайт продолжительное время висит на 6-м месте по вч запросу. ☝
Что можно сделать? Попробуйте получить ссылки с трастовых старых очень хороших доменов (edu, etc.), вам не хватает трастовости... Кстати доры которые вылазят выше вас - вообще без ссылок (ну или пару сотен ссылок из гест) и на edu доменах, правильно? Ну вот и делайте выводы, учитесь у конкурентов.
П. С. Вообще сложно точно что-нибудь сказать не видя урла.
подскажите кто мож знает насчет уникальности контента
есть у меня очень хитрый конкурент так то не тока контент копирует у меня и не только да вот заметил что даже тайтл у меня скопировал, п*дар, что с ним мона сделать?
убить тапкам
8000 ссылок - это мало, это от $8 в месяц😆
Добавляйте ссылок и разнообразьте анкоры. Гугл сейчас очень не любит одинаковые анкоры.
6 место - это не фильтр.
Главное не количество а качество ☝
Имхо не больше 10.