- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Друзья, нужен совет. В вебмастере Гугла на данный момент у меня висит следующая проблема - "Повторяющееся метаописание у 8060 страниц сайта". Проверила эти страницы и поняла, что такое количество повторов образовалось из-за одинаковых description, которые автоматически генерятся из первых 2-3 предложений на странице. Сразу замечу, что контент при этом на 80% на всех страницах разный, одинаковое у них - лишь вводная часть (то есть то самое описание из 2-3 предложений, откуда и берется description).
Писать под каждую страницу отдельный description нереально, их слишком много. Что делать в данной ситуации, подскажите?
И стоит ли вообще обращать внимание на это замечание Гугла? Может ли это как-то повлиять на ранжирование этих страниц в поиске? Насколько это вообще все критично?
Просто большинство из страниц с повторяющимся описанием выпадут из выдачи, но некоторые останутся.
А есть ли все-таки какой-нить путь решения проблемы?
Ибо прописывать все дискрипшены ручками - утопично:(((
есть плагины которые дергают дескрипшен из контента.
и вобще - сколько у вас страниц?
если меньше 100 то это часа на полтора, заодно и освежите в памяти что как. если больше - поищите или закажите плагин.
Лучше убрать дисрипшн вообще в таком случае
есть плагины которые дергают дескрипшен из контента.
и вобще - сколько у вас страниц?
если меньше 100 то это часа на полтора, заодно и освежите в памяти что как. если больше - поищите или закажите плагин.
Гугл выдает замечание почти по 9 тысячам страниц. Было бы их 100, возможно, вручную я бы метатеги и прописала, но 9 тыс!!! Это слишком.
ну тогда плагин вам в помощь. какой движок?
у нас свой движок, самописный.
По большому счету главный вопрос сего поста - будут ли какие-то санкции за такое количество повторений? Это больше всего интересует.
Действительно, можно попасть под фильтры?
если самописно-что-то пусть дергает пару фраз из текста. делов то
ТС, уникализируйте дескрипшны. Сделайте несколько шаблонов и отдайте программеру. Он потратит на их интеграцию час времени, из которого половину будет рассказывать вам, почему это сделать невозможно ))))
Спасибо всем. Сейчас попробую.