- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
di_max, не вырывайте фразу из контекста. Я сказал, что автоматически посылать сайты в непот - глупо для Яндекса. Непот накладывается руками на жирные сайты. Это можно назвать "Ручным влияние на выдачу для УЛУЧШЕНИЯ релевантности".
Без анализа "окружения"? А как же тогда естественные ссылки?
Имхо, должен быть комплексный подход...
Обеспечивающий приемлемую, с точки зрения ПС, точность за разумный интервал времени.
С анализом.
С анализом.
Тогда без СУБД не обойтись...
Конечно, если Вы не рассматриваете одну страницу, отдельно от всех других.
XA-XAKER, извините, просто задал уточняющий вопрос...
Я сказал, что автоматически посылать сайты в непот - глупо для Яндекса. Непот накладывается руками на жирные сайты. Это можно назвать "Ручным влияние на выдачу для УЛУЧШЕНИЯ релевантности".
Я, конечно, понимаю, что продавать непотные сложно... но по-твоему, только самый жир отфильтровался? Руками фильтровать тысячи сайтов?
Я, конечно, понимаю, что продавать непотные сложно... но по-твоему, только самый жир отфильтровался? Руками фильтровать тысячи сайтов?
Я не говорил, что "самый жир фильтруется". Фильтруются избранные сайты, которые по мнению Яндекса не могут выступать как "сайты, которые рекомендуют".
Задача поисковой машины - сделать свою выдачу релевантной. Есстественно, тут присутсвуют "руки". Приведу банальный пример:
По запросу "купить васю пупкина" на первом месте стоит сайт, в котором рассказывается про Васю пупкина, но никак не торгуют им(на этот сайт стоит ссылка с сайта X). А на втором месте стоит интернет-магазин по продаже васи пупкина.
Сайт X послали в непот(не 100% конечно) и сделали этим самым выдачу более релевантной.
Вот, собсно, мое мнение...
Я не говорил, что "самый жир фильтруется". Фильтруются избранные сайты, которые по мнению Яндекса не могут выступать как "сайты, которые рекомендуют".
Задача поисковой машины - сделать свою выдачу релевантной. Есстественно, тут присутсвуют "руки". Приведу банальный пример:
По запросу "купить васю пупкина" на первом месте стоит сайт, в котором рассказывается про Васю пупкина, но никак не торгуют им(на этот сайт стоит ссылка с сайта X). А на втором месте стоит интернет-магазин по продаже васи пупкина.
Сайт X послали в непот(не 100% конечно) и сделали этим самым выдачу более релевантной.
Вот, собсно, мое мнение...
Плохой пример. Имхо
XA-XAKER, "петух клюнул" (глагол совершенного вида), а у тебя из серии: "как бы оно в идеале, чтоб ссылки рулили всюду" :) Уточняющий вопрос: "избранные сайты" избираются руками, как говорилось выше? Или по определенному алгоритму автоматом избираются, и ссылки на них тоже избираются.
Егор, да, руками.
Егор, да, руками.
Да, руками сайты фильтруют. Но имхо 100% есть какой-то автомат, который занижает влияние ссылок или сайта на ссылочное. Непонятно только на что он обращает внимание, этот автомат.