- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
По теме:
Что стоит у ТС: "Как просто Яндекс определяет SapeXap-ссылки"
1.Почему не имеет права на существование тезис JonnyB?
2.Где (у кого) ПРОЩЕ всего получить список торгующих сайтов в конкретной системе?
3.Кто говорит что грехом (с точки зрения...) является не продажа, а участие в системе?
4.Кто говорит что полученный список должен обрабатываться вручную?
5.Что ДЕШЕВЛЕ: разработать программный продукт для анализа продажности всего Рунета или приблуду для проверки сайтов из имеемого списка?
И еще: вопрос был именно о КСАП/САП - аргумент в пользу нарождения кучи мелких клонов, ИМХО, несостоятелен - т.к. преимущество таких систем именно в габаритах (во всяком случае по числу участников)
И еще: вопрос был именно о том как ПРОЩЕ - объясните зачем изобретать велосипед:
нужны сайты-продавцы ссылок? Так вот они - заходи и забирай. И не парься
И еще: это и так понятно, что ищутся/разрабатываются/внедряются/работают алгоритмы и системы для автоматизации процесса (тьфу, не к ночи будь помянуты...)
Давайте начнем с того, что топик не содержит вопросительной интонации в поле "тема".
Далее постараемся посмотреть чуть глубже и тогда станет понятно, что под сап/ксап подразумевается собирательный образ инструмента по управлению ссылочной базой на сайте. После этого выдохните и глубоко, целиком заполнив легкие, вдохните. Поступивший в кровь кислород дойдет до головного мозга и, возможно, станет понятным, что любую меру по противодействию чему-либо стоит рассматривать вкупе с побочными явлениями. При фильтрации определенной системы родитяся ещё десятки и сотни. Ну и теперь упражнение для самых смекалистых. Каким образом будут сниматься санкции с сайтов? Ответа нет?
Никогда, даже лучше иначе, НИКОГДА Яндекс не поставит себя в зависимость от внешних субъективных параметров. Это дело принципа. Вы можете очень долго рассуждать о том, что проще. Парсить выдачу гугла тоже просто, зачем же они, бесы, алгоритмы разрабатывают?
Если комплекс упражнений не возымел должного действия, рекомендую повторить его второй раз и далее вплоть до просветления.
Оставив йогу в стороне, пара моментов:
Есть: По-видимому так же как и накладывались
Что Вы называете субъективными параметрами?
(странно, меня мама в детстве другим упражнениям учила...)
Raul21,
1. Вы представляет объем работы по динамическому отслеживанию действий вебмастеров?
2. Субъективный параметр - нахождение сайта в списках участников определенной системы
1. Вы представляет объем работы по динамическому отслеживанию действий вебмастеров?
2. Субъективный параметр - нахождение сайта в списках участников определенной системы
Я бы поменял местами:
1.Получение списка продавцов (не участников) определенной системы
2.Работа с этим списком.
нет ничего сложного отделить естестаенные ссылки от так называемых неестественных.
бот индексирует документ(страницу), на которой нет сразу ссылок, через некоторое время появились ссылки, и путем сравнения старого и нового документа эти ссылки на 90% не естественные.
поэтому и популярна счас стала система размещения статей, которая на мой взгляд
имеет больший эффект, т.к. ссылки там присутствуют изначально и отфильтровать их невозможно.
JonnyB, спуститесь на землю
Вот делать яндексу больше нечего, как сидеть и вручную вычислять сайты саттелиты, которые сотнями в день создаются, прогоняются по каталогам и регистрируются в сапах, ксапах и т.п.
JonnyB, да и ещё к вам один вопрос.
Представьте себе опять на мгновение на месте Яндекса.
Вот получил Яндекс список сайтов из сапы. Отправил их все в непод.
И тут сотни сайтов вышли из сапы. Хотят выйти из непота. Что тогда яндексу делать?
Чтобы получить все сайты с Xapa нужно заказать 20000 - 50000 ссылок и ждать около полугода (всем известна скорость размещения xap).
2. Нет гарантии что найдутся хотябы 50 процентов сайтов таким образом.
Так и есть, не найдутся даже треть сайтов таким способом. Поиска по спискам участников у XAP нет (только авторежим), меток на страницах типа <!346436537> как у других систем нет, ссылки в среднем стоят по 3 и больше месяцев без изменения, ссылки написаны человеческим языком и часто окружены тематическим текстом, при заходе на сайт сложно найти ссылки XAP, т.к. они расположены на разных страницах случайным образом, по 0-4 ссылке на странице, и на ближних к главной их может вообще не быть - способа вычислить эти ссылки практически нет. Если считать общий объем исходящих ссылок с сайта, то 0-4 ссылки с каждой страницы - это нормально для среднестатического сайта (5-10 уже многовато). Примеры: интернет-магазины (ссылки на производителей с описания каждого товара), блоги с комментариями, новостные сайты и т.д.
Я думаю, для среднестатичтического сайта нормально 0-1 ссылок на странице, а чаще 0 (сквозные ссылки не в счет).
Что если Я посчитает общий объем исходящих ссылок на разные сайты? Какой нормальный сайт ссылается на каждой странице на разные URL ??? Сплог, каталог и т.д. На которых уникальной инфы ноль!
Вот получил Яндекс список сайтов из сапы. Отправил их все в непод.
И тут сотни сайтов вышли из сапы. Хотят выйти из непота. Что тогда яндексу делать?
И что? Если это попало под нарушение лицензии Яндекс-а, то...
Или в Я что-то изменится от "потери" 20-50к сайтов?
Тогда - сколько каталогов он "выкинул" уже?...
И "вздохнул" только от этого.