-= Serafim =-

Рейтинг
1357
Регистрация
10.12.2006
.
Jet D.:
Тулбаром палится

Нет статы по проценту использования юзерами тулбара Яндекса? ФФ с тулбаром ведь далеко не у всех. Потому не будет это такой уж реальной схемой в 100% случаев. Описанная же схема будет работать всегда, в реальности.

Очень много болда на страницах.

wizzer:
чтобы понять, что редирект - надо её открыть - получить заголовки

А резкая смена статуса ответа сервера с дипазона 100-299 на 403 (access denied) не будет вызывать подозрения? :) Это при условии, что страница будет аппаратно (программно, нужно еще поспорить) запрещена в .htaccess, а не в роботсе. Если в роботсе, то тут уж нужно гадать на кофейной гуще, был там бот или нет.

Кстати подмена конечного результата для бота, в отличии от юзера, это уже сродни клоакингу, который уже ой как давно палиться и наказывается. Тут по сути не подмена, а ограничение для бота, что сродни тому же клоакингу. Объясню почему: когда структура сайта запрещается в роботсе, то в перелинковке нет прямых линков на эти системные папки, а они всего лишь в виде путей (как то css стили, пути к рисункам и тд), а в случае с ограничением доступа юзер имеет доступ на страницу по перелинковке, а робот нет. Обман чистой воды.

wizzer:
Без административного доступа к дору - невозможно узнать.

Ну да :) Рабочая схема:

1. Посетитель находится на странице поиска.

2. Периодически переходит по ссылкам из выдачи, которые имеют не прямой вид, а через редирект. Это сделано для поведенческого анализа посетителей и сбора статданных.

3. Время от перехода со страницы выдачи на сайт и возврат обратно в выдачу (что говорит о неудовлетворенности юзера или неполноте данных на сайте) четко прослеживается без какого-либо доступа к сайту.

wizzer:
Сделал я сайт школы в визуальном редакторе и не задумываюсь о продвижении.

Какое отношение статический нулевой и безтрафовый сайт имеет отношение к нашему разговору? :) С доров обычно хотят получать прибыль с посетителей, а не вешают его скрин на стену, чтобы любоваться на досуге.

wizzer:
Яша индексирует флеш-сайты хорошо, но плохо распознаёт текст в кривых.
Погугли любое имя попсовой певички. почти у всех сайт на флеше - топ-1.

Если можно ссылку, попсовых певичек не знаю. Благодарю.

wizzer:
понятно, но все рекомендованные к запрету в роботсе роботы не станут проверят, ибо ресурсов не напасёшься и смысла немного.

Логически согласен, но если сам факт редиректа на запрещенную в роботсе страницу будет явно палиться. Ничто не мешает разработчикам сделать условие: если есть редирект >> анализировать запрещенную страницу. Разработчики не дураки, а это в 99% случаев будет иметь толк в борьбе с дорами + анализ других факторов, как, к примеру, время пребывания на сайте, скорость возвращения на страницу поисковика + будет палить рефер, откуда в поиск вернулся посетитель. Поверьте, сделать список "неблагоприятных" реферов не так уж сложно. Можно обрезать 90 процентов связок "дор + партнерка".

wizzer:
когда ссылка (js), например, на внутреннюю страницу сайта, почему я не могу сделать навигацию на сайте с помощью js ?

Проведите аналогию с флешем. Вы можете сделать на нем сайт. Но не будет ли это ущербным поступком в отношении возможного продвижения? ;) Кстати Гугл флешки "ест" (.swf, равно как и pdf и другие форматы, известно всем), в Яше не замечал (вернее не задавался целью найти прецедент).

wizzer:
давность и отсутствие конкретных выводов по яндексу

Факт первый - разработки прогрессируют, потому давность - это не древность, технологию совершенствуют, добавляют как функционал, так и учет сотни факторов при анализе.

Факт второй - следование разработкам гугла. Уж если в гугле уже года три назад палили переходы и выполнения по яваскриптам, то, думаете, за это время Яндекс не приблизился к функционалу детища Брина и Пейджа.

wizzer:
контроль доступа поисковых роботов.
обоснуй, почему не так.

Это не аппаратный или программный запрет, а строка-рекомендация. Если робот будет заблокирован в htaccess по ip - это будет запрет. Так яснее или все еще "непонятно"?

wizzer:
эксперимент Деваки чем-то не устраивает?

Приведенный в моей ссылке эсперимент чем не устраивает?

dragooo:
Дней 10 назад начал покупать ссылки в Сапе на сайт по запросу(по 5-10 ссылок в день). Ссылки покупались у сайтов с ТИЦ минимум 10, выбирал вручную. Вчера в панели вебмастера появились на них 9 бэков.

Рассказываю. Во-первых, срок индексации ссылок 2-го уровня составляет в среднем 10 дней. Морды Вы явно не покупали, а скорее всего 3ув. Значит срок индексации увеличивается. Второе - Вы покупали по 5-10 в день, а не сразу, это еще увеличивает срок индексации. Третье - Вы скорее всего не проверяли страницы на индексацию, где покупали линки.

MoscowMenu:
вы как теоретик в дорвеях или как практик сейчас рассуждаете?

Как практик. К чему этот вопрос? А Вы теоретик?

wizzer, ну Ваше право, если у Вас роботс - это контроль доступа, то смысла спорить не вижу :D

wizzer:
из топика не сольюсь. даже не уговаривай

Да мне без разницы. Я понимаю, что пиар своего блога это святое.

P.S. Кстати вот статья, которая будет полезна всем по теме. Стоит учесть также дату статьи и экспериментов, а прогресс роботов никто не оспорит.

wizzer:
роботс это не рекомендация к индексации, а именно контроль доступа

.htaccess - это контроль доступа. Учите матчасть, сударь. И не позорьтесь.

Если роботс - это контроль доступа, то попробуйте запретить бота яху, к примеру, и посмотрите будет ли он ходить по страницам.

ImPER@ToR, это ни о чем не говорит. Множество продвиженцев и в топ выводят набоум. Такие конструкции ничем не помогут.

_Ad:
говорят, сейчас и не снежинск пока что, а всего лишь обычный ап

Возможно, только разница по позициям на ряде проектов очень значительная. Посмотрим.

Всего: 27705