Из статьи:
Тут надо понимать, что трафик там будет возможно сильно не целевой, скажем многие перейдут на сайт чтобы посмотреть на картинку в полном размере и потом сразу уйдут (кстати тем кто верит в поведенческие факторы - такое может сильно попортит карму по ПФ).
Скажем если человек набирает в поисковике "Хундай Гетц купить" это потенциальный покупатель, а если кликает на картинку Хундая Гетц'а с красивой девушкой он почти наверняка ничего не купит.
Т.е. на самом деле не так важно попасть в топ, важно по какому запросу, скажем сайт для взрослых может так продвигаться, а банк или авто магазин вряд ли (если продвигать чужие сайты для заказчика то как пускание пыли в глаза может и не плохой способ). Более того в ряде случаем лишний трафик может даже мешать,т.к. отдачи не будет, а фото грузятся с вашего сервера (даже те которые просматривают на Яндексе или Гугле), т.е. возможно вам придется увеличивать мощности хостинга без большого притока целевого трафика.
WhiteSmartFox добавил 13-01-2011 в 17:59
Судя по статье речь ТС ведет о продвижение именно через сервисы Яндекс или Гугл Фото, а не о дополнительном факторе ранжирования обычного поиска.
WhiteSmartFox добавил 13-01-2011 в 18:00
ерунда .
WhiteSmartFox добавил 13-01-2011 в 18:02
Все равно, важнее в данном случае title, alt картинки и ключи рядом с картинкой.
WhiteSmartFox добавил 13-01-2011 в 18:04
Скорее всего не имеет значение.
простите что вмешиваюсь, но какое отношение слово Аффилиат (affiliate) вообще имеет к русскому языку?
Вообще-то это чисто английское слово, такое же как кастомер (покупатель, заказчик), митинг (совещание), таймшит (расписание) и в русский оно пока даже близко не входило.
Домен второго уровня в нормальной зоне (например ru для Яндекса) может попасть в индекс ПС даже без каких-либо ссылок, просто по анализу ДНС, по крайне мере бот гугла приходил на мои сайты, которые вообще нигде никогда не использовались и не упоминались (они были нужны мне на будущее или для тех. работ). Для Я не уверен, но по моему они тоже говорили что на второуровневые домены в ru может придти бот просто по факту их существования.
Если несложно расскажите получится у него что-либо или нет. Кстати можете посмотреть есть ли у этих якобы посетителей поддержка javascript (и кук), если её нет скорее всего он просто тратит ресурсы зря.
WhiteSmartFox добавил 12-01-2011 в 19:05
Кстати довольно странная накрутка, скорее всего такие всплески запросов отсеиваются Я как недостоверные (или по крайне мере должны отсеивается по правильному) + я более чем уверен тот кто делал такую накрутку не заморачивался такими "мелочами" как эмуляция кук, javascript и т.п. вещей,а это делает подобную накрутку бессмысленной ИМХО.
для xml Яндекса надо подтверждать мобильный номер иначе будет не более 10 запросов с ip
WhiteSmartFox добавил 12-01-2011 в 18:45
может, точнее так вам каждый раз при смене ип адреса придется идти в панель Яндекс XML и менять его руками + возможно кто-то этот ип адрес уже использует (хотя мало вероятно) и тогда вы его использовать не сможете. В общем динамические адреса головняк ещё тот.
WhiteSmartFox добавил 12-01-2011 в 18:49
ИП прокси сервера стоит около 1$ в месяц, не такие уж это большие деньги (также доп ип предоставляют любые хостеры сайтов примерно за те же деньги), а вручную каждый раз менять ИП в панели XML Яндекса это слишком большой головняк, лучше отдать 30 руб.
Что сортировка проиндексированных страниц есть, я уже показал выше, дальше возможно два варианта:
1) (Более вероятный) ПС сразу для любого запроса выбирает и сортирует 1000 страниц сайта и при переходе на страницу выдачи просто отображает нужные страницы из кеша => увеличение кол-ва страниц в выдаче увеличит затраты ресурсов для любого запроса (логично что каждый раз сортировать 50 тыс страниц сложнее чем 1000).
2) ПС выбирает только нужное кол-во страниц (скажем 10) и их сортирует, тогда для новой страницы выдачи он должен пересчитать все предыдущие, т.е. чтобы вернуть с 50000 по 50010 страницу сайта он должен отсортировать перед этим 49999 страниц, вполне логично что это потребует куда больших ресурсов чем сортировка 990 страниц.
WhiteSmartFox добавил 12.01.2011 в 01:42
Ну тут тоже есть логика, по крайне мере, все равно какая-то сортировка при запросе 'site:имя_сайта' существует.
Почему нет? Конечно есть.
Набираем site:forum.searchengines.ru смотрим выдачу, первая главная страница сайта, вторым страница login.php -на неё есть ссылки с любой страницы сайта вполне логично что она вторая, следующие 7 результатов это разделы форумов (причем вполне популярные разделы), тоже вполне логично что они первые, если бы не было никакой сортировки по теории вероятности мы должны были увидит любые из 500 тыс. страниц сайта, а увидели первыми 9 страниц на которых было больше всего внутренних (и скорее всего внешних) ссылок => сортировка результатов есть.
Если не убедил наберите 'и site:forum.searchengines.ru', 'в site:forum.searchengines.ru' и т.п. запросы и увидите именно почти случайные страницы сайта, а не те на которых есть больше всего внутренних и внешних ссылок.
Способ существует, достаточно добавить любое стоп слово (скажем местоимение или предлог) в запрос скажем:
'и site:forum.searchengines.ru', 'на site:forum.searchengines.ru', 'в site:forum.searchengines.ru', конечно возможны повторения, но в принципе большинство страниц сайта таким образом можно получить (если использовать парсер выдачи).
Сугубо практический? У вас есть своя поисковая система? У меня есть (и она популярнее апорта к примеру), но даже я не задаюсь пока подобными вопросами, просто по тому что принципы файла индекса Яндекса или Гугла настолько сложны (даже очень раннего Яндекса, по которому можно найти статьи), что сделать что-то либо похожее стоит очень очень дорого. Поэтому даже если вам расскажут все алгоритмы Яндекса это будет бесполезно, если вы сами не будите делать ПС подобного уровня, для обычных сайтов алгоритмы ПС бесполезны.
WhiteSmartFox добавил 11-01-2011 в 17:42
Частично в курсе, файл индекса ПС построены таким образом, что не всегда тривиальные задачи сделать проще чем более сложные, так как это не обычная база, и вернуть список всех страниц с сайта может теоретически быть более трудоемким, чем ответ на обычные запросы.
WhiteSmartFox добавил 11-01-2011 в 17:48
Кто сказал, что в этом случае нет сравнения и сортировки?
Запрос site:forum.searchengines.ru - первая главная страница, а потом будет сортировка по некоторому весу страницы для Яндекса (аналога PR), вообще запросы вида 'site:forum.searchengines.ru' не так часты, чтобы делать для них специальные алгоритмы генерации, так что вполне возможно, что используется обычный алгоритм просто для некоторого вырожденного случая.
WhiteSmartFox добавил 11-01-2011 в 17:51
Вам стоит переформулировать этот вопрос, какая лично у вас задача стоит и что вы хотите сделать? Гадать как и что реализовано у Яндекса можно бесконечно, но мало поможет решению реальных задач, т.к. во-первых, чтобы вам ответить надо работать в Яндексе, во-вторых, что хорошо для Яндекса, для другого сервиса или сайта будет смертью (скажем вместо того чтобы реализовывать файл индексов типа как Яндекса за бешенные $$$, менее крупному сервису имеет смысл поставить хорошую промышленную БД, типа Оракла и нанять грамотного специалиста по перфомансу и разработке по Оракал, это будет куда дешевле и проще).
Нет, а вы знаете эти механизмы? Вы работали в Яндексе и знаете что эти механизмы принципиально различаются? Вы разобрались в принципах построения файла индексов Яндекса? Не говоря уже о том зачем реализовывать два разных алгоритма выдачи и для кол-ва проиндексированных страниц реализовывать другой алгоритм выдачи чем для простых запросов (возвращать более 1000 запросов только для данного случая)?