- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
А сколько по вашему или по яндексу сылок адекватно или не одекватно установленно на морде, по отношению к чему и с чем сравнивать? Кто эту адекватность определяет?
Ну вы знаете, могу с умным видом сейчас некие количественные характеристики назвать, но лучше скажу честно: "Не знаю". Мой ответ основан, как это не помпезно будет звучать, на небольшом опыте и здравом смысле. Реализовывать непот-фильтр на основе некого порогового значения внешней ссылочной массы на сайте - слишком неразумно - и последствия этого алгоритмического решения были бы слишком негативными для релевантности выдачи в целом.
п.с.собственно получается то же самое доказательство от обратного..
::
Я исправил, но теперь уже пофиг, давай на ты...
Хорошо:) Можешь в личку мне предоставить "конфиденциальную информацию"?:)
Хорошо Можешь в личку мне предоставить "конфиденциальную информацию"?
Ишь ты какой шустрый, не успели на ты перейти, а уже секреты тебе выдавай... Неа, не могу... Типа табу и все такое... ;)
Релевантность поисковой системы падает...
Это вы о чем? Наверное имеется ввиду релевантность выдачи?
Вывод: Естественных ссылок в Интернете очень много, и если бы они попали под непот, то в выдаче был бы полнейший хаос.
Все ссылки попали бы под непот, или сколько?
Поисковая машина google тоже до сих пор использует ссылки как рекомендации, но автоматически фильтровать ссылки не осмелилась.
Откуда информация?
New_Angel, ну вот... Я аргументировал свою точку зрения как мог. Отталкивался от того, что робот не может определить, нарушил сайт правила, или нет.
Ты же в свою очередь твердишь, что средство найдено, но никаких больше аргументов не поступает. Только слышно "Делайте ДСДЛ, а то будет плохо".
А я вот не верю. Не верю и всё.
P.S. Я еще смотрю на ПС гугл. Всё-таки машина посерьезней, а до такого не дошла...
А я вот не верю. Не верю и всё.
;) А это не имеет значения, веришь ты или нет... Как говориться жизнь заставит! ;)
и последствия этого алгоритмического решения были бы слишком негативными для релевантности выдачи в целом.
С вами согласен. Есть много тематических ссылок, по которым будет определяться релевантность. От этого думаю ни куда не деться!? Кажется, ссылки будут фильтровать которые покажутся спамом для новых " усовершенствованных" алгоритмов яндекса.
А на счет адекватности мне кажется, если измерять "количественно" ни какой шкалы нет. Как по вашему?
P.S. Я не связан с оптимизацией сайтов, так мое мнение.
Это вы о чем? Наверное имеется ввиду релевантность выдачи?
Да, именно, прямо в точку:)
Все ссылки попали бы под непот, или сколько?
Внимательней читаем статью. Прошу, не вырывайте фразу из контекста. Там сказано, что те ссылки, которые ПС "типа посчитает нужным наказать"
Откуда информация?
Информация из книги, которая лежит в большом сундуке под семью замками.
XA-XAKER, если под фильтр и попадет небольшой процент естественных ссылок, выдача не ухудшится, и уж тем более в ней, как вы изволили выразиться, не наступит хаос. Статья бред, аргументы детские.
Отталкивался от того, что робот не может определить, нарушил сайт правила, или нет.
Не робот будет определять, нарушил сайт правила ПС или нет, а человек, который задаст команды роботу. Релевантность будет исходить от человека, так или иначе. Вопрос в том насколько качественен, будет алгоритм. По всей видимости, и судя по вашим отзывам о выдаче в последнее время, вроде как все в норме.