- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Равномерное распределение веса для алгоритмов это звоночек о роботизированности содержимого.
А не равномерное - значит ручками? На 25 тыщщах страниц...;)
Имхо, есть предел по кол-ву страниц на сайте, которые можно содержать руками.
Все остальное - автоматизировано, включая элементарный SSI
Обращу ваше внимание на две маленькие детали 😎
>4. Выхлоп со страницы за время Х (выраженный в цифровом значении).
>5. Количество посетителей, которое пришло на эту страницу с Яндекса за время Х (выраженное в цифровом значении).
Это динамические показатели... Т.е. они меняются со временем :) И конечное "К" тоже меняется... Яндекс пересчитывает вес продвигаемой страницы -> Страница поднимается в ТОПах --> На нее приходит больше посетителей -> значение "К" падает, если "Выхлоп" не растет -> В конце концов на ее место встает другая страница с большим К :)
Все нужно делать ДЛЯ ЛЮДЕЙ! Я показал принцип внутренней перелинковки... и уточнил... на сайте он должен быть ТЕМАТИЧЕСКИМ и к месту, т.е. ДЛЯ ПОЛЬЗОВАТЕЛЯ.
Обращу ваше внимание на две маленькие детали 😎
>4. Выхлоп со страницы за время Х (выраженный в цифровом значении).
Какие версии как его (Выхлоп ) тоже автоматизировано считать можно ? :)
Какие версии как его (Выхлоп ) тоже автоматизировано считать можно ? :)
Это отдельная тема... 😂
Простите а как этот самый ВЫХЛОП узнать?
Тоесть мне раз в пару дней( в день у меня люди кликают не больше чем на 3% от обшего числа страниц ) я захожу в РСЯ и тама както(хнопочку пока не нашол) беру статистику где кликали.. и их этого исхожу..
Но это ручная работа.
При колве кликов за пару тысяч, к которуму все стремяться - данный алго преврашается в АД😡
Простите а как этот самый ВЫХЛОП узнать?
Забавный вопрос... Подскажу на примере: Страница=Запрос=Товар. У Вас магазин? Вы знаете свои обороты? 🚬
Забудьте на 3 минуты о позициях в топе
"вес" ВСЕГДА, ПРИ ЛЮБЫХ ОБСТОЯТЕЛЬСТВАХ будет "перетекать" на страницу с максимальным "К"
Прошло три минуты, вспоминаем: Целью "перетекания веса" являются позиции страницы с самым большим отношением "Выхлоп" / "Количество посетителей". (тут бы ещё ручную корректировку вносить в периоды типа перед НГ, а то схема подсажена на инертность ПС)
анкоры содержат "Запросы по которым страницы продвигаются"
Причем разные... и их "тяжесть" должна повторять текущий "вес" (К - является желаемым) ссылающейся страницы (это упрощение), с учётом внутреннего ссылочного, уточнение: Модель должна максимизировать не "вес" отдельной страницы, а произведение "весов" каждой пары страниц, связанных ссылкой (для развивателей модели... с учетом групп), "вес" отстаёт от К.
страница с самым высоким "К" на внутренние уже не ссылается, а ссылается на главную
Недоиспользование возможностей. (гробятся туда, где толку от них не много - только стат. вес морды)
От "биений" система не защищена (это делается уменьшением скорости реакции), просчитывать тяжко. Возможны попдания в противофазу с естественными колебаниями спроса. Для страниц с низким К - возможна его неадекватная дисперсия. Способностью прогнозировать система не обладает.
Получается задачка для "линейного программирования".
К этому всё и идёт. Алгоритм планирования - победит... если Я мешать не будет (модели составлять, а "его" сия активность не радует, т.е. мешать будет вынужден).
и, все же: ссылки для роботов или для людей?
Ссылки для роботов (открытые) И для людей тоже. Для людей - контент. ПС - не против...
Прошло три минуты, вспоминаем: Целью "перетекания веса" являются позиции страницы с самым большим отношением "Выхлоп" / "Количество посетителей". (тут бы ещё ручную корректировку вносить в периоды типа перед НГ, а то схема подсажена на инертность ПС)
Причем разные... и их "тяжесть" должна повторять текущий "вес" (К - является желаемым) ссылающейся страницы (это упрощение), с учётом внутреннего ссылочного, уточнение: Модель должна максимизировать не "вес" отдельной страницы, а произведение "весов" каждой пары страниц, связанных ссылкой (для развивателей модели... с учетом групп), "вес" отстаёт от К.
Недоиспользование возможностей. (гробятся туда, где толку от них не много - только стат. вес морды)
От "биений" система не защищена (это делается уменьшением скорости реакции), просчитывать тяжко. Возможны попдания в противофазу с естественными колебаниями спроса. Для страниц с низким К - возможна его неадекватная дисперсия. Способностью прогнозировать система не обладает.
Получается задачка для "линейного программирования".
К этому всё и идёт. Алгоритм планирования - победит... если Я мешать не будет (модели составлять, а "его" сия активность не радует, т.е. мешать будет вынужден).
Я не говорю о том, что схема идеальна... Но объяснять нужно так, чтоб другие люди поняли... Признаюсь - у меня на сайте все сложнее... 🚬 Но суть та жа...
>только стат. вес морды
Я вы почитайте предыдущий топик... Вес нам на морде очень нужен - там ссылки на новые обзоры публикуются 🚬
"Выхлоп" / "Количество посетителей
Мне кажется, или при использовании этой формулы все ссылки будут тупо на страницы с 0 посещаемостью? ;);)
Кстати на таких страницах не исключен и "гиганский" выхлоп ;) При малых количествах посещений статистика верна не будет однозначно. Два посещения - один заказ. Мегавыхлоп...а потом на миллион посетителей два заказа... Т.е. нужна
1. подготовка страниц для уточнения "выхлопа", т.е. накапливание репрезентативной статистики
2. усложнение формулы...