- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Пришла тут ко мне мысль :rolleyes: и я ее думаю. Вот, хочу поделится с общественностью своими рассуждениями.
Предположим создаётся сайт. Запрещаем его индексацию в robots.txt (ну и\или другими способами, мало ли у кого паранойя :) ). Далее идем регистрировать его по белым каталогам. Получаем много ссылок. То есть Яндекс ссылки на сайт видит, а сам сайт нет. То есть и в выдаче его нет ;) Достоверно неизвестно, но по слухам (я со своими наблюдениям склонен им верить) в Яндексе работает фильтр на "влияние при быстром росте количества бэклинков". То есть появляется много ссылок, а рассчитывать их влияние в полную силу Яндекс начинает не сразу. Так вот, в нашем случае мы ставим ссылки и ждем их индексации (+ параллельно можно морды купить, ну или другие способы получения бэклинков без обмена). И, дождавшись максимального значения кол-ва бэклинков, мы запрет на индексацию снимаем. Можно, даже, тут же активно к обмену приступить.
Теоретически сайт тут же получит очень неплохой старт т.к. ранее упомянутый фильтр на него действовать уже не будет. Плюс конечно "бонус новичка" в который все не верят, но на который все надеются :D
Вот на этом мои размышления пока застряли. На вопросы: как будет себя вести Яндекс по отношению к новому "вдруг" появившемуся накачанному сайту, и каковы преимущества и недостатки такой тактики я пока себе ответить не могу.
Может общественность поможет? кто что думает? :smoke:
Далее идем регистрировать его по белым каталогам. Получаем много ссылок.
Недавно (2 месяца) пробовал так прогнать еще не существующий сайт по каталогам. Вообщем не удалось, во многих каталогах проверка на работоспособность домена. Хотя я и не особо старался.
^-^, ни чего не будет. Подымится по тем словам по которым работаете. Но попробовать стоит. Но думаю что на быстрый рост ссылок фильтра точно не стоит. А временной фактор - он всегда учитывался.
Предположим создаётся сайт. Запрещаем его индексацию в robots.txt
пробовал так прогнать еще не существующий сайт по каталогам
Небольшая разница есть, согласитесь :)
Недавно (2 месяца) пробовал так прогнать еще не существующий сайт по каталогам. Вообщем не удалось, во многих каталогах проверка на работоспособность домена. Хотя я и не особо старался.
В приведенном примере домен-то работает без проблем, просто его индексация запрещена ;)
Может общественность поможет? кто что думает?
оффтоп: так вот что задумал Матик, запретив индексацию 😂
В приведенном примере домен-то работает без проблем, просто его индексация запрещена
Да да, в том то и фишка :) И админы каталогов зайдя на сайт для проверки увидят работающий сайт :)
^-^,Такой же желаемый эффект будет если не добавлять сайт в addулку, а просто за день пройтись по 1000 каталогов. Тоесть есть закономерность в ссылках на уже проиндексированный сайт и ссылках на сайт которого яндекс еще не скушал, вот тут и появляется "он" этот "бонус"
ихмо конечно.
На мой взгляд, счастье может оказаться очень недолгим. или, если сделать быстрый старт, а потом потихоньку, полегоньку накачивать ссылки и контент, можно будет продержаться подольше...Однако, утверждать не могу, нужен эксперимент...Думаю, что в недалеком будущем его поставлю. Топикстартер мою давнюю идею поднял...
Небольшая разница есть, согласитесь :)
Мдя профессор лопух... Невнимательно прочитал. Попробую теперь как раз так.
А зачем запрещать индексацию?
Введи в серпе "1ps" и вы увидете сайты у которых индексация разрешена и которые регистрировались в каталогах, да еще на одной странице находится куча ссылок. Если вы находите их в Яндексе - значит их еще не забанили. Правда вот срок не известен сколько такая линка помойка сможет провесеть на сайте.