- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
spbmar вполне нормальный сайт, но почему-то зафильтрованный Яшкой. Для продвижения по гугл купил бы ссылочку однозначно.
процитирую: "Говносайт - это когда то, что он - говно, видно невооруженным глазом.
СДЛ - это когда, чтоб увидеть, что он - говно, нужно поковыряться палочкой. "
Я тут почитал, что пишут многоуважаемые Miraj и wolf в теме про Webeffector...
А пишут они, что работоспособность ссылок никак, или практически никак не связана с общепринятыми критериями, влияющими на их цены в биржах.
Допустим, что это так.
Также допустим, что более-менее приличному сайту нельзя нанести какой-либо вред при помощи внешних факторов.
Если вышеуказанные утверждения верны, хоть какие-нибудь да сработают.
Логично? ;)
чувак, всё это логично, если считать, что "приличному сайту нельзя нанести какой-либо вред при помощи внешних".
а wolf кажись так не считает.. и если отбросить это допущение, то кагбэ всё это уже и нелогично )
и давно он так не считает?
А, по-моему, новый алгоритм Яндекса, все-таки придает некоторым ссылкам отрицательный вес. Есть пример, в 2009 году одна страничка с ~2000 внешних ссылок (по вебмастеру) сидела себе спокойно в топ 5, в 2010 году резко свалилась за 30-е позиции причем по тем запросам с которыми были анкоры в ссылках.. Ссылки, естественно, не очень хорошего качества, по остальным производным запросам так и продолжает висеть в топе. Почему списываю все на новый алгоритм, потому что, например, в рамблере, как была на первых местах, так и осталась... видимо, там так глубоко ссылки не анализируют :)
xmario
А если на страницу будут вести только отрицательные ссылки? Сайт вылетит из серпа или из индекса что ли?
Если позиции провалились - или вес ссылок просто уменьшился (из-за алгоритма), или часть отвалилась, или просто конкуренты оказались расторопнее.
Был период когда было отрицательное действие ссылок, сейчас имхо нет,
тогда почему в ТОП выйти проблематично?!
Почему один сайт по ВЧ на первом месте (никакие алгоритмы его не шатают) и в беках у него всего навсего 140 ссылок, а другой по этому запросу на третей странице, но ссылок у него в 10 раз больше.
Смотря как покупать и как делать вхождения анкоров.
Сидеть и тратить уйму времени на ручной подбор тоже не есть гууд, + жирные но малочисленные порой толку мало дают...нежели послабее но массивней купленные...
Смотря как покупать и как делать вхождения анкоров.
анкор лист составлен по такому же принципу как и у другого, только он больше в несколько раз..
а wolf кажись так не считает
и давно он так не считает?
19.04.2008 /ru/forum/comment/3147048
/ru/forum/comment/3152072
/ru/forum/322430