- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
CyberX, все зависит от тематики (конкурентности отрасли) и частотности запросов. Покупайте ссылки сколько хотите, они же не сразу все учитываются. Лучше покупать с тИЦ от 30. 2к - абстрактно в данной теме, вопрос бюджета и мозгов. Зачем переплачивать?!
Покупайте ссылки сколько хотите, они же не сразу все учитываются.
Согласен. В процессе сам для себя определишь оптимальный бюджет.
The WishMaster, мы с тобой давно в согласии :) Как будет результат, так и будет бюджет :)
Адепт,
Лучше покупать с тИЦ от 30. 2к - абстрактно в данной теме, вопрос бюджета и мозгов.
Меня интересует предел внешних для свежего сайта чтобы под фильтр не попасть.
Меня интересует предел внешних для свежего сайта чтобы под фильтр не попасть.
ИМХО, это миф, распространяемый для того, чтобы избавиться от новичков-конкурентов.
Меня интересует предел внешних для свежего сайта чтобы под фильтр не попасть.
Я сделал сайт и разместил о нём рекламу в печатных СМИ с общей аудиторией миллионов эдак 50. Материал оказался интересным, например, миллиону человек, а на сайте они нашли ещё более глубокое раскрытие темы что привело всех в восторг и и они решили поставить ссылки. Представляете - миллион ссылок за месяц! :)
Вот Вам, CyberX, вопрос - в чём я виноват и под какой фильтр попаду? 🙄
На счет того, что фильтра нет я бы не стал утверждать однозначно, но Садовский в одной из статей однозначно утверждал, что бана за ссылки не будет (т.е. фильтра, который забанит автоматом нет, но работа модераторов при этом не исключается). Наличие ссылок не мешает релевантности выдачи за которую борется яша ( в самом деле никто же не будет продвигать сайт по левым запросам). Сколько нужно ссылок (в числах) никто не скажет, такого ответа просто нет. Определите для себя задачу, что вы хотите получить пузо или выдачу и в соответствии с этим вырабатываете стратегию.
kysok sabaki, Вот спасибо действительно нормальный ответ. Скажу честно что у меня была точно такая же мысль, но хотелось получить подтверждение (совесть свою успокоить). От меня + (к сожалению маленький пока ещё :) )
dws77,
(т.е. фильтра, который забанит автоматом нет, но работа модераторов при этом не исключается)
И вам спасибо. А что касается модераторов пускай идут у меня с сайтиком всё в поряде (для людишек :) )
kysok sabaki, Действительно хороший пример, + Вам в репутацию ;)
Я сделал сайт и разместил о нём рекламу в печатных СМИ с общей аудиторией миллионов эдак 50. Материал оказался интересным, например, миллиону человек, а на сайте они нашли ещё более глубокое раскрытие темы что привело всех в восторг и и они решили поставить ссылки. Представляете - миллион ссылок за месяц!
Вот Вам, CyberX, вопрос - в чём я виноват и под какой фильтр попаду?
Ни в чем не виноваты. Но задача поисковой системы совсем не в том что бы никого не обидеть незаслуженно. Задача в том что бы в топ не попали плохие сайты. Поэтому если ПС посчитает что
99% молодых сайтов быстро наращивающих ссылочную массу - ГС, то ничто не помешает ей ввести соответствующий фильтр. И проблемы одного хорошего сайта из 1000 никого волновать не будут. Так что Ваш пример ни о чем. Что бы быть более убедительным приведу пример: google пессимизирует такие сайты, если не сделать определенных простых манипуляций. Летом в яндекс
это было в очень жесткой форме и не только для новых сайтов. Сейчас видимо нет. Но единственное объективное доказательство этому - эксперимент. А общие рассуждения о целесообразности это ...
не профессионально.