- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
ПС оценивают текстовый контент не за один проход. Сначала - сырой html. Если сочтёт, что там порядок - придёт потом ещё для более углубленных проверок. Сочтёт дублем (хоть и нечетким) - не придёт. И не будет он на старте разбираться, где там меню, где основной контент. Это, в лучшем случае, когда-нибудь.
Вот лучше б и не рисковать.
То есть стоит тогда посмотреть вообще исходный код на сравнение?
про 80% убийство, а если 50%?) Я просто выделил часть текстовую, боковые меню не считал и сервис показал что схожего текста 50%, а 80% это если учитывать меню
Искалки оценивают не один фактор... условно "хорошему сайту" прощается больше неправильностей.
И вряд ли индексаторам легко распознать контент/меню... Они не люди / действуют проще, по олгоритму...
То есть стоит тогда посмотреть вообще исходный код на сравнение?
Зачем? Рендеренный, конечно, грубо говоря - видимую часть. Можно тупо CSS отключить в браузере. Можно в Frog всё это сделать с нужной выборкой.
Тут тема не самая простая, и лучше строить гипотезы исходя из реальных данных. Клеит ли запросы на целевую страницу? Если нет- то почему выбрал другую? Нет ли такого, что сегодня одна - завтра другая? Что там в кэше ПС, всё ли попало? Ну, и так далее.
Иными словами, если явно есть проблема - можно ломать голову.
Зачем? Рендеренный, конечно, грубо говоря - видимую часть. Можно тупо CSS отключить в браузере. Можно в Frog всё это сделать с нужной выборкой.
Тут тема не самая простая, и лучше строить гипотезы исходя из реальных данных. Клеит ли запросы на целевую страницу? Если нет- то почему выбрал другую? Нет ли такого, что сегодня одна - завтра другая? Что там в кэше ПС, всё ли попало? Ну, и так далее.
Иными словами, если явно есть проблема - можно ломать голову.
Да сайт молодой еще) Я еще не понимаю даже попадет ли в поиск вообще) Просто мысли на будущее чтоб многое предостеречь заранее!
Это всё про спецификацию HTML5. Там уже есть article, nav и прочий aside и другие секционные элементы. Это не про стили. Тут шаблончик сайта надо немножко перепиливать.
Что касается css - то там речь именно о псевдостилях, благодаря которым можно выводить текстовый контент, который просто не будет индексироваться в принципе.
Это полностью перепиливать или же например можно тупо взять мой код и нуджные части заключить в теги <main></main><header></header><footer></footer>
Сейчас ради теста тыкнул парочку, вроде на шаблоне никак не отражается визуально ничем..
Да сайт молодой еще) Я еще не понимаю даже попадет ли в поиск вообще) Просто мысли на будущее чтоб многое предостеречь заранее!
Скажем так: в интернет-магазинах карточки товаров в основном определяются как нечеткие дубли с совпадением от 90% текстового контента (если брать всё скопом, без разделения на блоки и секции). И ничего. Хотя за минувший год и под МПК новые сайты залетают недурно.
Просто надо иметь в виду такую вероятность, и стараться по максимуму уникализировать страницы в рамках сайта. Меньше мусора, меньше потенциальных МПК - проще будет двигать.
Скажем так: в интернет-магазинах карточки товаров в основном определяются как нечеткие дубли с совпадением от 90% текстового контента (если брать всё скопом, без разделения на блоки и секции). И ничего. Хотя за минувший год и под МПК новые сайты залетают недурно.
Просто надо иметь в виду такую вероятность, и стараться по максимуму уникализировать страницы в рамках сайта. Меньше мусора, меньше потенциальных МПК - проще будет двигать.
Понял) А на счет моего вопроса выше над этим ответом вашим?
Понял) А на счет моего вопроса выше над этим ответом вашим?
Ну там вопросы вёрстки, тут фронтэндера нужно подтягивать. Формально - ну, просто вместо каких-то div будут какие-нибудь section, вот и всё.
Да сайт молодой еще) Я еще не понимаю даже попадет ли в поиск вообще) Просто мысли на будущее чтоб многое предостеречь заранее!
Почему гугл не отфильтровал дубли у немолодого сайта? Могу предположить, что кэши дублей разные... типа заходы бота в разное время, когда сменялся контент страницы. С т.з. человека дублирование очевидно, а алгоритм не справился. Так и с другими, боты действуют слишком просто, как бы вы им не указывали мэин-хидер-футер
это и есть копипаст между страниц, убийство сайта
а доп блоки (доставка, оплата), в карточках товара?