- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
250 тыс. запросов, 100 результатов в выдаче, 500 байт (100 только для URL) на результат. Примерно 10-12 Гб (2 Гб только для URL) на ап. Терпимо. Но будет ли стоить овчинка выделки? Почём люди готовы платить за услугу и в каком количестве? ;)
Это результаты поиска.
В индекс же загоняются не результаты поиска, а веб-страницы и на основе имеющихся в базе страниц формируется выдача согласно алгоритму.
Разве нет? 😂
Яндекс пишет "Поиск по 3 347 642 112 веб-страницам", раз они все есть в индексе, значит этот индекс весит минимум 3 гб, если принять, что все они весят всего по 1 байту. Значит если принять, что код средней страницы весит 1кб, то уже получается по 3тб данных на апдейт. Многовато.
Значит если принять, что код средней страницы весит 1кб, то уже получается по 3тб данных на апдейт. Многовато.
... и поделим на 3000 серверов получается... Получается это... Это будет... Не так и многа!;)
... и поделим на 3000 серверов получается... Получается это... Это будет... Не так и многа!;)
Умножаем на 30 апдейтов для получения за статистики за полгода..получается это..это будет не так уж и мало ;)
Сколько за полгода может быть апдейтов? штук 30? И все их хранить? нехилый объём информации.
Не поняли. Здесь имеется в виду полгода - вообще срок "от сегодня", когда появились предпосылки делать такой мониторинг.
Да, в том-то и дело, что хранение динамической инфы - это, прежде всего, память. На ЖД. И это непросто. Но опять же - вопрос цены, приемлемости, цели и задач.
Да не эффективен он. Могу навскидку предложить более эффективный способ борьбы с той же сапой - ставить под фильтр все страницы с более чем 5 внешними, которые проверяются на наличие в Яндексе.
Сапе - это частный тривиальный случай. О нём вообще базара нет. Лобовой атакой.
Речь идёт о ссылках, за более-менее короткий период времени (3-4 недели) скупленные с жирных морд, которые в принципе не засвечены нигде - ни на биржах, ни в обмене, ни в предложениях. И затем постепенно "вывалить" всё это на себя в ссылочное. И может ведь так нехило перекосить, что самому Садовскому мало не покажется. Пусть даже таких случаев будет по 30-50 во всём РуНЕТе в каждой тематике, но именно они способны поставить на уши весь индекс. В отличие от десятков тысяч школьников-сапёров с их пиарнольнымимиллионамистраниц.
Есть ли жизнь на Марсе, нет ли жизни на Марсе - это науке неизвестно...
Имхо - если кто и знает точный ответ о естественности прироста ссылок, то он вряд ли скажет об этом здесь. А всё, о чём мы здесь говорим, не более чем поверхностные умозаключения, сделанные на основе весьма скудной информации, весьма скудного опыта и ещё, пожалуй, интуиции...
Есть ли жизнь на Марсе, нет ли жизни на Марсе - это науке неизвестно...
Имхо - если кто и знает точный ответ о естественности прироста ссылок, то он вряд ли скажет об этом здесь. А всё, о чём мы здесь говорим, не более чем поверхностные умозаключения, сделанные на основе весьма скудной информации, весьма скудного опыта и ещё, пожалуй, интуиции...
Сказано в принципе верно, но нередко вместо "туманных" нескольких прямых признаков и свойств выявляется ряд косвенных и коррелирующих, которые и могут дать в своей совокупности вполне адекватную устойчивую модель.
Что же касается, например, локального "лавинообразно-выбросного" роста ссылочного, то это может быть, скорее всего, только в отношении какой-то определённой страницы (конкретная сплетня-новость), но не в отношении главной.
Хотя, с другой стороны, например, "новостники" иногда ставят ссылку, к примеру, "Максим завершает шоу-карьеру", не на конкретную страницу, а на главную.
Согласен с мнением, что имеет значение именно динамика - отсюда вывод: быстрая скупка большого числа приводит к плачевным результатам в большенстве случаев, но есть примеры, когда есть в этом и положительный момент (в зависимости от случаев) - проверено на опыте.
Хотелось бы сказать здесь про другое... Наверняка же кто-то удалял ссылки из той же сапы по причине их неработоспособности или экономии средств. Если в случае прироста ссылок различная динамика может давать как положительный, так и отрицательный результат, то в случае большого числа убранных ссылок (для каждого проекта БОЛЬШОЕ определяется скорее всего опять из той же динамики прироста) - позиции значительно ухудшаются - опять же проверено (в этом месте выступает слеза :)) на горьком на опыте.
Вывод - не делайте резких движений, господа ☝
Мой ответ - по ссылке в день. Но подкрепить его нечем... Поэтому первый вопрос показался более интересным
А в течении какого времени они будут найдены?
(для ПС могут оказаться незначительными различия: сразу много или медленно)
(1000 говноссылок — можно и не покупать, если времени немножко есть)
Проверять последствия (планируется вообще?)... как удобнее?
Лучше-хуже — если сравнивать можно, а в действительности — условия неповторимы.