- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Не знаю, где лучше задать вопрос, поэтому пишу здесь.
Ситуация такая. Я хорошо создаю контент (тексты, картинки, диаграммы, видео) в выгодных тематиках. Есть СДЛ проекты, которые развиваются.
Но мне лень делать сетку сайтов, восстановленных из Web Archive, для прокачки своих проектов.
Допустим, у вас есть сетка незаспамленных ссылочных доноров, но вам лень или дорого писать/иллюстрировать хороший контент для СДЛ сайтов.
ИМХО нам стоит объединить усилия, а прибыль делить 50/50 или 70/30.
Видно, что тематичность доноров не слишком беспокоит поисковики. Лишь бы доноры были не заспамлены. Поэтому сайты, восстановленные из Web Archive, ценятся.
Я уже пообщался с одним владельцем сетки из 2700 сайтов. Проблема в том, что у него все сайты на продажу, их в любой момент могут купить. Из-за этого ссылочная масса будет "плавать".
Кто что посоветует?
sergey_k, а зачем нужны сайты именно из веб-архива?! O_O
Не думаю, что есть большое к-во людей, которые имеют такие сетки сайтов.
Что если переходить на 100-ю страницу выдачи поисковиков, и описывать сайта, которые там находятся.
Первое, что приходит в голову:
Написать скрипт, который будет с файла keyword.txt брать ключевое слово, пробивать его по google и собирать в файл kontact.xls контактные данные с whois всех доменов, которые находятся на 50-100 позиции.
Таким образом можно получить большую базу контактов владельцев сайта у которых скорее всего не все хорошо с позициями.
Но с веб-архивом - сложнее. Практически не возможно отличить сайт восстановленный с веб-архива от других сайтов