- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
это когда одна и та же страница
Поподробнее можно?
Дайте лаконичное определение тошноте и теории спамности или вовсе не оперируйте данными понятиями
Теория не моя, поэтому интерпретация может выглядеть менее понятно. Лаконичное, вы о SEO?:)
Теория не моя, поэтому интерпретация может выглядеть менее понятно.
ну дайте свою интерпретацию, может ее и засабмитим в википедию :)
Лаконичное, вы о SEO?
я думаю вполне возможно, ведь другие понятия имеют боле менее лаконичные определения, хотя и ломается много копий о деталях :)
Поподробнее можно?
Куда уж подробней? Простейший пример: www.***.ru и www.***.ru/index.htm - адреса разные, а страница одна и та же.
Простейший пример: www.***.ru и www.***.ru/index.htm
А еще есть из практики "непростейшие примеры" - числом порядка 40. И притом еще, что у этих страниц примерно 50% кода разные (но 50% совершенно одинаковые!). И отфильтрованы напрочь, вероятно, как "нечеткие" дубли. Не из индекса - из беков. То есть из конкретных запросов.
Однако, с таким нюансом: часть дублей все же показывается, 3-7 из 40. Скорее всего те, у которых меньше доля "одинаковости". И чем больше дублей, тем меньше их становится в беках.
А ссылочное с них СО ВСЕХ учитывается все равно :).
С уважением - Алексей
Всем, кто ищет "философский камень".
Главный ответ - ваш СОБСТВЕННЫЙ ОПЫТ. Не бойтесь экспериментов и ошибок. Тогда у вас появится ЧУТЬЕ, которое в сочетании с публикуемым здесь ОПЫТОМ КОЛЛЕГ и даст нужный результат!
Надеюсь, внятно выразился?
Однозначно соглашусь с Константином:
постоянной пропорции здесь не вычислить в силу того что постоянно подкручиваются различные коэффициенты
Еще прошлой осенью было ощущение, "чем точнее - тем выше". Это и тайтлов касалось. А сегодня - "чем уникальнее - тем выше". Это при прочих равных если. И тайтл может быть вообще без вхождения...
Изменяются коэффициенты, все время идет работа по улучшению (чаще всего :) ) выдачи... Это ведь и есть главная работа команды поисковика.
Вы гляньте на конкурентов в топе, да и поймете почти все.
С уважением - Алексей.
А еще есть из практики "непростейшие примеры" - числом порядка 40. И притом еще, что у этих страниц примерно 50% кода разные (но 50% совершенно одинаковые!). И отфильтрованы напрочь, вероятно, как "нечеткие" дубли. Не из индекса - из беков. То есть из конкретных запросов.
Фильтрация из индекса (вернее - склейка дубликатов) и фильтрация из выдачи - разные вещи