- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Топик только для тех, кто заинтересован.
Ставя себя на место программера Яши, каким образом можно определить продажные ссылки от естественных, само собой с минимальными затратами на ресурсы?
Возможные цели: понижение тИЦ продажных морд (идея:меньше продажных морд, меньше мусора в выдаче, чтобы остались только интересные ресурсы [с естественными ссылками], продажами товаров и рекламой займемся мы)
Решения (требует помощи и размышления зала):
Определять градацию появления беков. Т.е. в этом апе (или пол-апа) появилось 100 ссылок, во 2-м 200, в 3-м 300 и т.д.
Если налицо прирост (геометрический,линейный,любой???), шанс что ссылки естественные - увеличивается. будут и погрешности, но не существенные (при нескольких пересчетах уйдут).
Плюсы: малое кол-во ресурсов при расчетах.
Минусы: уменьшиться тИЦ у старых (почетных) ресурсов => необходимо ввести границу уменьшения (либо в комплексе с другими параметрами, временем жизни сайта и т.п.).
Выходов много:
1. после первого(второго,третьего) снятия, можно не продолжать занижать тИЦ, оставить не тронутым (при этом каждое снятие занижает в 2 раза),т.о. через пару раз тИЦ и так будет минимальный.
2. в добывок для сайтов выше тИЦ 1000(к примеру) штрафных снятий не налагать.
-------------------------------------------------------------------------------------------------------
спорно (для более подробного утверждения, нужны показатели последующих 2-х апов), но есть место на существование.ИМХО. если есть вопросы, давайте решать, предлагайте свои методы (демонстрирующие данное поведение тИЦ).
Енто че? И к чему?
Особенно вот это:
Выходов много:
1. после первого(второго,третьего) снятия, можно не продолжать занижать тИЦ, оставить не тронутым (при этом каждое снятие занижает в 2 раза),т.о. через пару раз тИЦ и так будет минимальный.
2. в добывок для сайтов выше тИЦ 1000(к примеру) штрафных снятий не налагать.
Я так понял что вы представили себя Садовским и мечтаете как бы поступили на его месте;)
ЗЫ:ТС вы хоть думайте что пишите:) Какие вопросы мы можем решить?
Топик только для тех, кто заинтересован.
Ставя себя на место программера Яши, каким образом можно определить продажные ссылки от естественных, само собой с минимальными затратами на ресурсы?
ИМХО, вероятность присутствия ключевика в анкоре продажной ссылке ВЫШЕ чем у бескорыстной ссылки.Анкор продажной ссылки-это набор из ключей.Подчас такой набор нечитабелен и малоинформативен для пользователей.
Человек, который ставит ссылку бескорыстно вряд ли задумывается о ключевиках-он ставит ссылку вида:
<a href='url_site'>здесь можно очень много прочесть о Государстве Российском</a>.🚬
Человек, который ставит ссылку бескорыстно вряд ли задумывается о ключевиках-он ставит ссылку вида:
<a href='url_site'>здесь можно очень много прочесть о Государстве Российском</a>.🚬
Согласен, но большенство современных сайтов (с всевозможными примочками и сервисами) пишуться не в ручную, а используя движок. а движки соответственно 'как их учили спецификациям' пишут анкоры, иногда пустые,иногда самостоятельно. Не все конечно, но при таком подходе, получается что мы выкинем некоторе большенство, т.е. алгоритм в принципе будет не крос-движковым, если так можно его назвать.
С другой стороны методы оптимизации под поисковые системы несомненно должны учитываться, пусть не прямым: да - это продажная морда, а с неким коэффициентом. Т.е. это и анкоры и теги <noindex> на странице...
ЗЫ:ТС вы хоть думайте что пишите:) Какие вопросы мы можем решить?
Никаких ;) - это аналитика своими силами. так называемый "Мозговой штурм", товарищ 🚬
Люди, объясните, пожалуйста...так покупка баннеров на первой странице сайта тоже расценивается Яндексом как нарушение???
Putin,
Скорее, даже:
<a href='url_site'>здесь</a> можно очень много прочесть о Государстве Российском. :)
Люди, объясните, пожалуйста...так покупка баннеров на первой странице сайта тоже расценивается Яндексом как нарушение???
Кто вам такое сказал???:)
Люди, объясните, пожалуйста...так покупка баннеров на первой странице сайта тоже расценивается Яндексом как нарушение???
http://rules.yandex.ru/termsofuse.xml - пункт 3.5 (так говорят Платоны)
http://rules.yandex.ru/termsofuse.xml - пункт 3.5 (так говорят Платоны)
Понимаете раздницу между сапамом и рекламой?
так называемый "Мозговой штурм", товарищ 🚬
Помоему вы уже переусердствовали;)
Понимаете раздницу между сапамом и рекламой?
Ответ: всем все прекрасно понятно. если есть вопросы "почему Яндекс считает это спамом", обратитесь в службу поддержки Яндекса.
давайте закроем спор об абстракциях и вернемся к теме топика.