- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Показатель оптимизации входящих ссылок зашкаливает скорее всего. Как вариант - использовать синонимический ряд или разбавлять анкоры до уникального вхождения.
t_o_x_a, а вы не разбовляли бэки вообще?
Too, я вот решил поставить небольшой эксперимент, и одному из сайтов перестал наращивать ссылочное. Ну и контент решил причесать, обновить и страниц добавить.
Сапой не пользуюсь, в основном размещаю статьи (не размноженные, качественный рерайт в основном), доноров получше выбираю...
Бюджет на ссылки что-то не хочется увеличивать при такой отдаче... Надо действительно покипеть над самим сайтом...
aphextwin2000, я пользуюсь директом + вордстатом рамблера. Получается длиннее анкор-лист.
rexona, да, я о том же. Я вообще склонен к тому, что ссылок с анкорами-запросами должно быть около 30% (ну или в том же районе), а большинство должны быть урлы, "посмотрите девки..." и прочее естественное. И уже в силах оптимизатора определять ссылки с анкорами на хорошие весомые сайты, а естественного вида ссылки брать подешевле :) Хотя, возможно, и это учитывается где-нибудь.
t_o_x_a добавил 17.09.2009 в 13:12
0bevan, я разбавляю беки, но очень мало. Процентов 5, да и то не всегда. Сейчас вот аукнулось, думаю, как быть дальше и как именно разбавлять.
Too, а тексты и внутренняя оптимизация сейчас все более в почете, кстати. Я заметил, что не только грамотно оптимизированная продвигаемая страница сайта влияет на выдачу, но еще и другие факторы - общее кол-во страниц сайта, исходящие ссылки с домена, тексты на других страницах. Словом, все в комплексе нужно делать.
если видит там что-нибудь, напоминающее сео-ссылки (к примеру, много ссылок с похожими или одинаковыми анкорами), он может относительно этих анкоров наложить фильтр, замедляющий или вообще прекращающий рост сайта по этим запросам
У кого-нибудь есть мысли по этому поводу?
об этом давно вроде как известно, называется - склейко 🚬
А если купить вечную ссылку с сайта, который вообще не торгует ими (так называемым холодным обходом) с естественным анкором - то никакой детектив не докажет, что это сео-ссылка. Думаю, вскоре будут рулить именно такие беки, а не точные вхождения и тысячи ссылок.
Как вариант: не покупать ничё, а сделать на сайте новостную ленту (только не абы какую, а нормальную со 100% уникальной инфой), загнать её в многочисленные контент-агрегаторы: Яндекс.Новости, Google.Новости, Рамблер.Новости, и т.д. и т.п - и получить через несколько месяцев хороший объем естественных ссылок и даже некоторое кол-во прямых переходов. На выходе получаем и траст и естественные ссылки ☝ А уж как распределять статвес с главной - это ваше личное дело.
t_o_x_a, Кстати, разбавлял примерно в таком же процентном соотношении...
Про внутряк знаю, но как правило работаю с ним только на начальном этапе, иногда корректирую, не на всех корпоративных сайтах есть возможность что-то кардинально менять)))
Too добавил 17.09.2009 в 13:27
Как вариант: не покупать ничё, а сделать на сайте новостную ленту (только не абы какую, а нормальную со 100% уникальной инфой), загнать её в многочисленные контент-агрегаторы: Яндекс.Новости, Google.Новости, Рамблер.Новости, и т.д. и т.п - и получить через несколько месяцев хороший объем естественных ссылок и даже некоторое кол-во прямых переходов. На выходе получаем и траст и естественные ссылки ☝ А уж как распределять статвес с главной - это ваше личное дело.
Это где бы столько контента накопать)))
Это где бы столько контента накопать)))
Это как раз не проблема. Вся наша жизнь состоит из контента. Надо только "уметь приготовить".;)
t_o_x_a, по сути речь идет о тошноте а-листа, как всегда)...
Если она определяется алгоритмом, то почему нередко проскакивают сайты в топе с 90-100% точных вхождений? Причем весьма тупых - одна страница, один анкор. Т.е. самый простой вариант для определения спамности.
почему нередко проскакивают сайты в топе с 90-100% точных вхождений?
Потому что не все сайты "одинаково полезны" с т.з Яндекса. Причем совсем новые, судя по всему, вообще бесполезны:)