- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
У нас на работке наоборот ходят разговоры
А есть этим разговорам какие факты? балаболить то можно что угодно.
А есть этим разговорам какие факты? балаболить то можно что угодно.
Дык, и фактов что не участвует тоже нет. Текст из него не участвует в поиске, на этом основании решили считать, что он тогда не учитывается вообще ни для чего... Л-логика.
И потом у людей, в Яндексе 60% карточек исключены как "недостаточно качественные", а в гугле под вкладкой "Показать скрытые результаты".
Когда пишут, для "уникализации достаточно артикула", то надо бы и уточнять, достаточно для чего. Что бы не было уведомлений о дублях - достаточно. А что бы от них была хоть какая-то польза в индексе, то уникализировать нужно, тем, чем они отличаются - размер, цвет, вес... Такие отличия всегда есть, иначе эти карточки не были бы на отдельных страницах.
Дескрипшены не индексируются, но вряд ли кто-то может уверено утверждать, что и не имеют значения для уникализации страниц относительно друг друга. Особенно когда отличия околонулевые. Тем более, обычно, это не сложно настроить, генерация перебором и вывод туда каких-то индивидуальных параметров (цена, характеристики и пр…).
Так составьте шаблон тегов где размер, цвет, вес будет в виде переменных)
Тайтл не обязательно полностью уникальным делать в рамках сайта.
Купить [Товар] в интернет магазине - [категория] с доставкой + город
А description не используется при ранжировании. Поэтому можете сделать его просто красивым для разных категорий.
Ага, скажите это например вот этим людям, которые каждый месяц по 10-ку тем создают на форуме Гугла. Страницы тупо не входят в индекс
Дык, и фактов что не участвует тоже нет.
Ну например у меня мои личные есть, когда менял структур сайта в 50к страниц, специально ставил задачу убрать все description, после того как сайт переиндексировался, все вернулось на свои места, затем реализовали маски разом для всех 50к страниц и абсолютно никаких изменений и по трафику, ни по запросам не ощутили.
Вот тебе и факт.
Maks_seo_1992, если бы отдельно взятые личные примеры можно было считать за правило, то жить было бы намного веселей.
Ну а у меня есть примеры, где благодаря генерации уник дескрипшенов (в т.ч, поскольку одновременно тайтлы уникализировал, через ТХ), получалось улучшить индексацию карточек с 30-45к до 70. Из тоже примерно 100.
Что будем делать?))
Так-то, на подобных гигантских говно ИМ (а такие, на 50-100-200к, загруженные из файлов, почти всегда с приставкой говно), стопроцентной индексации вообще не бывает. Воевать приходится за какой-то приемлемый процент. И что-то пакетно на них уникализировать вариантов вообще не много. А тут появляются люди, и вот так, безапелляционно пишу, что эти два (татйлы и дескрипшены) вообще не важные. Главное что бы хоть по айди товара отличались...
А что тогда важно?))
Ну а у меня есть примеры, где благодаря генерации уник дескрипшенов (в т.ч, поскольку одновременно тайтлы уникализировал, через ТХ), получалось улучшить индексацию карточек с 30-45к до 70. Из тоже примерно 100.
Во первых ты делал с тайтлами, во вторых ты говоришь про индексацию, то есть скорее всего имели место быть не уникальные страницы, ты их таким образом уникализировал, влияния на ранжирование здесь нет.
(татйлы и дескрипшены) вообще не важные
Тайтл важный, все кто говорят, что тайтл не важен, могут выйти в окно.
Себя процитирую и выделю.
Дык, и фактов что не участвует тоже нет. Текст из него не участвует в поиске, на этом основании решили считать, что он тогда не учитывается вообще ни для чего... Л-логика.
Для релевантности он видимо да, не учитывается. Но релевантность это не единственный фактор. Для начала оно хоть бы в индексе должно быть.... И да, на стотысячных, не уникальные карточки бывают, т.е. настолько бывают, что это в общем и есть одна из первоочередных проблем которые приходится решать))
Для начала оно хоть бы в индексе должно быть...
В индексе оно есть безусловно.
И да, на стотысячных, не уникальные карточки бывают, т.е. настолько бывают, что это в общем и есть одна из первоочередных проблем которые приходится решать))
Да, тут тоже согласен полностью.
Мой изначальный посыл был именно в вопросе ранжирования, то что он используется для уникализации, тут вопросов нет.
Да любой синонимайзер возьмите. 10 разных синонимов - вот вам и 100 описаний разных. Проблем-то.