- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Топик только для тех, кто заинтересован.
Ставя себя на место программера Яши, каким образом можно определить продажные ссылки от естественных, само собой с минимальными затратами на ресурсы?
Возможные цели: понижение тИЦ продажных морд (идея:меньше продажных морд, меньше мусора в выдаче, чтобы остались только интересные ресурсы [с естественными ссылками], продажами товаров и рекламой займемся мы)
Решения (требует помощи и размышления зала):
Определять градацию появления беков. Т.е. в этом апе (или пол-апа) появилось 100 ссылок, во 2-м 200, в 3-м 300 и т.д.
Если налицо прирост (геометрический,линейный,любой???), шанс что ссылки естественные - увеличивается. будут и погрешности, но не существенные (при нескольких пересчетах уйдут).
Плюсы: малое кол-во ресурсов при расчетах.
Минусы: уменьшиться тИЦ у старых (почетных) ресурсов => необходимо ввести границу уменьшения (либо в комплексе с другими параметрами, временем жизни сайта и т.п.).
Выходов много:
1. после первого(второго,третьего) снятия, можно не продолжать занижать тИЦ, оставить не тронутым (при этом каждое снятие занижает в 2 раза),т.о. через пару раз тИЦ и так будет минимальный.
2. в добывок для сайтов выше тИЦ 1000(к примеру) штрафных снятий не налагать.
-------------------------------------------------------------------------------------------------------
спорно (для более подробного утверждения, нужны показатели последующих 2-х апов), но есть место на существование.ИМХО. если есть вопросы, давайте решать, предлагайте свои методы (демонстрирующие данное поведение тИЦ).
Енто че? И к чему?
Особенно вот это:
Выходов много:
1. после первого(второго,третьего) снятия, можно не продолжать занижать тИЦ, оставить не тронутым (при этом каждое снятие занижает в 2 раза),т.о. через пару раз тИЦ и так будет минимальный.
2. в добывок для сайтов выше тИЦ 1000(к примеру) штрафных снятий не налагать.
Я так понял что вы представили себя Садовским и мечтаете как бы поступили на его месте;)
ЗЫ:ТС вы хоть думайте что пишите:) Какие вопросы мы можем решить?
Топик только для тех, кто заинтересован.
Ставя себя на место программера Яши, каким образом можно определить продажные ссылки от естественных, само собой с минимальными затратами на ресурсы?
ИМХО, вероятность присутствия ключевика в анкоре продажной ссылке ВЫШЕ чем у бескорыстной ссылки.Анкор продажной ссылки-это набор из ключей.Подчас такой набор нечитабелен и малоинформативен для пользователей.
Человек, который ставит ссылку бескорыстно вряд ли задумывается о ключевиках-он ставит ссылку вида:
<a href='url_site'>здесь можно очень много прочесть о Государстве Российском</a>.🚬
Человек, который ставит ссылку бескорыстно вряд ли задумывается о ключевиках-он ставит ссылку вида:
<a href='url_site'>здесь можно очень много прочесть о Государстве Российском</a>.🚬
Согласен, но большенство современных сайтов (с всевозможными примочками и сервисами) пишуться не в ручную, а используя движок. а движки соответственно 'как их учили спецификациям' пишут анкоры, иногда пустые,иногда самостоятельно. Не все конечно, но при таком подходе, получается что мы выкинем некоторе большенство, т.е. алгоритм в принципе будет не крос-движковым, если так можно его назвать.
С другой стороны методы оптимизации под поисковые системы несомненно должны учитываться, пусть не прямым: да - это продажная морда, а с неким коэффициентом. Т.е. это и анкоры и теги <noindex> на странице...
ЗЫ:ТС вы хоть думайте что пишите:) Какие вопросы мы можем решить?
Никаких ;) - это аналитика своими силами. так называемый "Мозговой штурм", товарищ 🚬
Люди, объясните, пожалуйста...так покупка баннеров на первой странице сайта тоже расценивается Яндексом как нарушение???
Putin,
Скорее, даже:
<a href='url_site'>здесь</a> можно очень много прочесть о Государстве Российском. :)
Люди, объясните, пожалуйста...так покупка баннеров на первой странице сайта тоже расценивается Яндексом как нарушение???
Кто вам такое сказал???:)
Люди, объясните, пожалуйста...так покупка баннеров на первой странице сайта тоже расценивается Яндексом как нарушение???
http://rules.yandex.ru/termsofuse.xml - пункт 3.5 (так говорят Платоны)
http://rules.yandex.ru/termsofuse.xml - пункт 3.5 (так говорят Платоны)
Понимаете раздницу между сапамом и рекламой?
так называемый "Мозговой штурм", товарищ 🚬
Помоему вы уже переусердствовали;)
Понимаете раздницу между сапамом и рекламой?
Ответ: всем все прекрасно понятно. если есть вопросы "почему Яндекс считает это спамом", обратитесь в службу поддержки Яндекса.
давайте закроем спор об абстракциях и вернемся к теме топика.